新葡萄√娱乐官网正规吗知乎

正在阅读:

谷歌AI觉醒,这是人类的致命魔咒还是终极幻想?

扫一扫下载界面新闻APP

谷歌AI觉醒,这是人类的致命魔咒还是终极幻想?

在某种意义上,计算机其实就相当于当年推动工业革命的动力织布机和蒸汽机的延续。

编译|来咖智库 豆豆

编辑|龚岩

最近 43 岁的谷歌研究员上交了一份长达21页纸的调查报告,试图让高层相信AI已经产生了自我意识,结果被高层勒令回家,带薪休假。这件事在科技圈引发了激烈的讨论。有专家指出,这不过是语言模型罢了,并不意味着人工智能真的产生了意识。想象有这样一台计算机,它能够用更好的措辞来完成你的句子;或使用一段旋律作曲,听上去就像是你自己写的(即便你永远也不会去写);或创造数百行计算机代码来解决问题,使你能够专心于其他更难的工作。在某种意义上,计算机其实就相当于当年推动工业革命的动力织布机和蒸汽机的延续。但计算机也属于一种新的类别的机器,因为它能够捕捉语言、音乐和编程符号,并以看起来有创造性的方式应用。有点像人类自身。

能实现这些的“大模型”(Foundation Models)代表着人工智能(Artificial Intelligence,AI)领域的突破。它们也有望带来革命,这次会影响到从前工业革命从未涉及的高级脑力劳动。前方的道路并不清晰,毕竟AI在以前也翻过车。但已经到了关注机器智能领域未来新事物的前景与挑战的时候了。

在十年前崛起并于现在占据AI统治地位的深度学习(Deep Learning,DL)领域,大模型是其中取得的最新前沿进展。深度学习系统大体上基于人脑中的神经元网状结构,会经历数百万甚至数十亿文本、图像或音频等样本的“训练”。近年来,越来越大的深度学习系统的训练时间和金钱成本暴涨,引发了人们对于该技术已经达到极限的担忧。有些人开始担忧“AI寒冬”的出现。但大模型显示,通过建设更大、更复杂的深度学习系统,确实能够持续解锁令人惊叹的新能力。没有人知道其极限在哪里。

由此得到的模型是一种新型、有创意、非人类的智能。这些系统足够成熟,既能够深刻把握语言,又能够有连贯性地打破规则。一条狗看不懂《纽约客》杂志的笑话,但AI却能够解释其笑点在哪里。说实话,这一点甚至连有些人类读者都做不到。

大模型有一些令人惊奇且有用的特性,其中最怪异的就是其“突创性”行为。也就是说,理解笑话的能力和根据情势匹配谚语等技巧并非刻意设计的结果,而是取决于模型的规模和深度。就像是快速闪过的静态图像会给人在移动的感觉一样,上万亿的二进制计算决策融入了动态的人类理解和创意的幻影,以至于(如果不考虑哲学家的说法)看起来与真实事物极度类似。甚至这些系统的创造者也对其能力感到惊异。

该智能是广泛且有适应性的。没错,大模型有可能会表现得像个白痴,但人类有时又何尝不是。如果你的问题是谁在1625年获得了诺贝尔物理学奖,它可能会回答伽利略、培根或开普勒,却没意识到首个奖项1901年才颁出。然而,它们有早期AI所不具备的适应能力。这也许是由于,在某种程度上,在把握绘画、创意写作、计算机编程等截然不同领域符号的规则之间有相似之处。这种广度意味着大模型可以有很多应用领域,包括通过预测蛋白质如何3D折叠来帮助寻找新药,从数据组中寻找有趣的表格,通过查阅大型数据库来寻找开放性问题的能够打开新的求知领域的答案。

这很令人兴奋,并一定会带来巨大的(大多数仍只能靠想象的)益处。但随之而来的还有烦恼。人们会不可避免地恐惧,创造性强到令创造者都感到惊奇的AI系统可能会变坏。事实上,大模型离达到好莱坞钟爱的那种有感知力的杀手机器人的程度还远着呢。终结者们一般都很专注、有强迫症,不了解自身行动的全面后果。大模型AI与之相比则很模糊。此外,人们还担心,训练这些模型要耗费大量的能源,以及由此产生的污染。然而,AI正在变得更加高效,它们在开发推动向可再生能源转变的科技方面也可能发挥至关重要的作用。

人们更加深远的担忧在于,该由谁来控制这些大模型。训练Google的PaLM这样的超大型系统每次要耗费1000万美元,并需要获取大量的数据——算力和数据都是越多越好。这带来了科技集中于少量科技公司或政府手中的潜在威胁。

如果这样的话,训练数据能够使世界的偏见更加根深蒂固,而且是以特别令人窒息和不快的方式。你愿意相信一个对于真实世界的全部感知都来自于上网的十岁小孩吗?各国政府训练的AI会被用于国际意识形态争端吗?那些在线上没有得到充分展现文化的未来会怎样?

此外还有可获得性的问题。目前为止,最大的大模型都是非公开的,以防止其被用于制造假新闻等恶意目的。初创企业OpenAI设计了一款名为DALL-E 2的模型,试图禁止其制作暴力或色情的图像。公司害怕滥用是对的,但这些模型越强大,限制其使用就更会制造新的特权阶层。自我监管不太可能解决该难题。

多年以来,人们都在说AI驱动的自动化对从事重复、日常工作的人构成威胁,艺术家、作家和程序员会更安全。大模型对这种假设提出了挑战。但它们也显示,AI如何能够被作为提升生产力的助手来使用。这种机器智能不能够复制人类,但却提供了完全不一样的东西。如果处理得当,它将很可能会辅助人类而不是篡权。

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

谷歌AI觉醒,这是人类的致命魔咒还是终极幻想?

在某种意义上,计算机其实就相当于当年推动工业革命的动力织布机和蒸汽机的延续。

编译|来咖智库 豆豆

编辑|龚岩

最近 43 岁的谷歌研究员上交了一份长达21页纸的调查报告,试图让高层相信AI已经产生了自我意识,结果被高层勒令回家,带薪休假。这件事在科技圈引发了激烈的讨论。有专家指出,这不过是语言模型罢了,并不意味着人工智能真的产生了意识。想象有这样一台计算机,它能够用更好的措辞来完成你的句子;或使用一段旋律作曲,听上去就像是你自己写的(即便你永远也不会去写);或创造数百行计算机代码来解决问题,使你能够专心于其他更难的工作。在某种意义上,计算机其实就相当于当年推动工业革命的动力织布机和蒸汽机的延续。但计算机也属于一种新的类别的机器,因为它能够捕捉语言、音乐和编程符号,并以看起来有创造性的方式应用。有点像人类自身。

能实现这些的“大模型”(Foundation Models)代表着人工智能(Artificial Intelligence,AI)领域的突破。它们也有望带来革命,这次会影响到从前工业革命从未涉及的高级脑力劳动。前方的道路并不清晰,毕竟AI在以前也翻过车。但已经到了关注机器智能领域未来新事物的前景与挑战的时候了。

在十年前崛起并于现在占据AI统治地位的深度学习(Deep Learning,DL)领域,大模型是其中取得的最新前沿进展。深度学习系统大体上基于人脑中的神经元网状结构,会经历数百万甚至数十亿文本、图像或音频等样本的“训练”。近年来,越来越大的深度学习系统的训练时间和金钱成本暴涨,引发了人们对于该技术已经达到极限的担忧。有些人开始担忧“AI寒冬”的出现。但大模型显示,通过建设更大、更复杂的深度学习系统,确实能够持续解锁令人惊叹的新能力。没有人知道其极限在哪里。

由此得到的模型是一种新型、有创意、非人类的智能。这些系统足够成熟,既能够深刻把握语言,又能够有连贯性地打破规则。一条狗看不懂《纽约客》杂志的笑话,但AI却能够解释其笑点在哪里。说实话,这一点甚至连有些人类读者都做不到。

大模型有一些令人惊奇且有用的特性,其中最怪异的就是其“突创性”行为。也就是说,理解笑话的能力和根据情势匹配谚语等技巧并非刻意设计的结果,而是取决于模型的规模和深度。就像是快速闪过的静态图像会给人在移动的感觉一样,上万亿的二进制计算决策融入了动态的人类理解和创意的幻影,以至于(如果不考虑哲学家的说法)看起来与真实事物极度类似。甚至这些系统的创造者也对其能力感到惊异。

该智能是广泛且有适应性的。没错,大模型有可能会表现得像个白痴,但人类有时又何尝不是。如果你的问题是谁在1625年获得了诺贝尔物理学奖,它可能会回答伽利略、培根或开普勒,却没意识到首个奖项1901年才颁出。然而,它们有早期AI所不具备的适应能力。这也许是由于,在某种程度上,在把握绘画、创意写作、计算机编程等截然不同领域符号的规则之间有相似之处。这种广度意味着大模型可以有很多应用领域,包括通过预测蛋白质如何3D折叠来帮助寻找新药,从数据组中寻找有趣的表格,通过查阅大型数据库来寻找开放性问题的能够打开新的求知领域的答案。

这很令人兴奋,并一定会带来巨大的(大多数仍只能靠想象的)益处。但随之而来的还有烦恼。人们会不可避免地恐惧,创造性强到令创造者都感到惊奇的AI系统可能会变坏。事实上,大模型离达到好莱坞钟爱的那种有感知力的杀手机器人的程度还远着呢。终结者们一般都很专注、有强迫症,不了解自身行动的全面后果。大模型AI与之相比则很模糊。此外,人们还担心,训练这些模型要耗费大量的能源,以及由此产生的污染。然而,AI正在变得更加高效,它们在开发推动向可再生能源转变的科技方面也可能发挥至关重要的作用。

人们更加深远的担忧在于,该由谁来控制这些大模型。训练Google的PaLM这样的超大型系统每次要耗费1000万美元,并需要获取大量的数据——算力和数据都是越多越好。这带来了科技集中于少量科技公司或政府手中的潜在威胁。

如果这样的话,训练数据能够使世界的偏见更加根深蒂固,而且是以特别令人窒息和不快的方式。你愿意相信一个对于真实世界的全部感知都来自于上网的十岁小孩吗?各国政府训练的AI会被用于国际意识形态争端吗?那些在线上没有得到充分展现文化的未来会怎样?

此外还有可获得性的问题。目前为止,最大的大模型都是非公开的,以防止其被用于制造假新闻等恶意目的。初创企业OpenAI设计了一款名为DALL-E 2的模型,试图禁止其制作暴力或色情的图像。公司害怕滥用是对的,但这些模型越强大,限制其使用就更会制造新的特权阶层。自我监管不太可能解决该难题。

多年以来,人们都在说AI驱动的自动化对从事重复、日常工作的人构成威胁,艺术家、作家和程序员会更安全。大模型对这种假设提出了挑战。但它们也显示,AI如何能够被作为提升生产力的助手来使用。这种机器智能不能够复制人类,但却提供了完全不一样的东西。如果处理得当,它将很可能会辅助人类而不是篡权。

本文为转载内容,授权事宜请联系原著作权人。