作者|杨文
(资料图)
编辑|六耳
来源|创头条
Geoffrey Hinton(杰弗里·辛顿)是名副其实的AI教父。
上个世纪70年代,Geoffrey Hinton痴迷于计算机神经网络这一领域,默默耕耘了近50年。即使他提出的神经网络理论在长达20多年的时间里饱受质疑,Hinton仍然坐着“冷板凳”埋头苦干。
2012年,Hinton和他的两名学生创建了一家专注于“神经网络”的公司,通过分析数百万张照片打造出一款可区分动物、物体图片的“神经网络系统”,能识别常见物体,如花、狗和汽车,被视为当代AI的基础。
最终,该公司在2013年被谷歌以4400万美元收购,Hinton也由此加入了谷歌,并把深度学习技术带进了谷歌的多项业务,直接把谷歌打造成了全球AI技术的“扛把子”。
2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio因对神经网络的研究获得了当年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。
不过,随着AI在全球掀起的狂潮,这位AI教父却慌了。
近日,Hinton告别了老东家谷歌,并在接受媒体访问时表示,辞职为了“畅所欲言地谈论人工智能的风险”。
“大多数人认为这(AI危害)还很遥远。我过去也认为这还很遥远,可能是30到50年甚至更长的时间。但显然,我现在不这么想了。”
Hinton认为,谷歌和微软以及其他大型公司之间的竞争,将很快升级为一场全球性竞争,如果没有某种监管,这场竞争将不会停止,人工智能发展的速度会远超我们的想象,并最终走向失控。
对此,Hinton甚至直言“对自己毕生的工作感到后悔”。
这些年,被全球称为“AI教父”的辛顿也始终忙碌于研发和实践一线。毫无疑问,他是全球最有发言权的人之一。以下是我们摘录辛顿从2016年至今,对AI公开发表的观点。从他的直接表述中,你更能看到他对AI认知的急剧变化:
时间:2016年
采访者:《MACLEANS》
核心观点:“有一种担忧就是人工智能代表着人类即将被淘汰……我相信5年内不会发生这种事,而且我也相当自信它不会成为我必需解决的问题。”
1.对AlphaGo有一种比较盛行的看法就是害怕它会比人类更聪明,甚至会统治人类。对此,我认为人们需要明白深度学习在背后可以做到很多事,而且做的更好。它已经用于谷歌搜索和图片搜索。在Gmail智能回复上也使用了深度学习,就在语音和视觉领域,我相信不久机器翻译也会出现。而且它还将会用于其他像是气象科学、节约能源、基因组学等领域的重点问题上。
2.显然的,如果它们被错误使用,就会产生问题。任何新科技,如果被坏人使用,就会产生坏的影响。但这更像是一个政治问题而非技术问题。我认为,我们必需像看待挖掘机一样看待人工智能。它在很多事情上的表现都要比人类好。而且要比挖掘机的好处多得多。
3.还有一种担忧就是人工智能代表着人类即将被淘汰,害怕人类会因此不可避免的失去工作。我很难预测5年后会发生什么,但我相信5年内不会发生这种事,而且我也相当自信它不会成为我必需解决的问题。人们可以考虑这种事情。但考虑重点并非是因为技术有威胁就限制它的发展,而是如何改进我们政治系统,防止人们用它做坏事。
时间:2016年
采访者:多伦多大学的作家Jennifer Robinson
核心观点:“寻找全新类型的神经网络是我现在觉得最激动人心的方向;要让计算机能像人类一样好地理解诗歌、笑话或讽刺,可能还需要非常长的时间。”
1.在语音识别、图像解读和机器翻译等一些重要的任务上,深度神经网络的表现已经非常好了。随着我们的计算机越来越快、数据集越来越大,我确信这样快速的进展还将继续。
但我认为我们到目前为止所开发出来的人工神经网络类型并不是最好的。可能还会有更好的人工神经网络类型,能够从远远更少的数据中学习,并且还能提供更多关于真正大脑的思考方式的见解。寻找全新类型的神经网络是我现在觉得最激动人心的方向。
2.最近,由我们对于大脑的理解所启发的人工神经网络以及极大地拉近了人类和机器之间的表现差距。我觉得,这似乎已经证明了从大脑中汲取灵感的思想是正确的。
3.我认为计算机将最终能超越人脑的能力,但是超越不同的能力也将需要不同长度的时间。要让计算机能像人类一样好地理解诗歌、笑话或讽刺,可能还需要非常长的时间。
4.在五年之内,我们将能够训练出带有一万亿个权重的神经网络,这大概相当于一立方厘米的皮层。当然,有可能我们使用的学习规则要优于大脑的学习规则,所以也许一万亿个权重就足以让计算机超越带有数千万亿个权重的大脑。
5.我认为在相当长的时间内,我们不需要担心机器会接管这个世界。一个更迫切的问题是自动化武器,例如携带炸药的小型无人机。这种武器现在就可以制造。它们与生物或化学武器一样可怕和无法接受,我们迫切地需要制定国际公约来阻止它们的使用。
时间:2017年1月
采访者:外媒gigaom
核心观点:“我觉得我有生之年大概是看不到(真正的人工智能,即AGI)。不过,五年后会发生什么我们很难预测,所以我不去排除这样的可能性。”
1.我有生之年是否会出现“真正的”人工智能,这取决于你对“真正的”人工智能定义是什么。如果你是说在自然语言、感知、推理、运动等方面都能和人类水平相当的人工智能体,我觉得我有生之年大概是看不到了。不过,五年后会发生什么我们很难预测,所以我不去排除这样的可能性。
在十年前,很多AI工作者认为用神经网络完成机器翻译是不可能的,因为这需要让神经网络从原始训练数据中获取所有语言知识。但在今天,这就是机器翻译使用的方法,而且是最好的。神经网络翻译显著地缩小了机器和人工之间翻译水平的差距。
2.说实话,我不太担心现在大家经常讨论的那些问题,就是说变坏的机器人会代替人类接管世界。我更担心的是诸如希特勒、墨索里尼这样的人在科技的帮助下可能会做的事儿。如果这些人拥有智能机器人,后果不堪设想。我认为现在最迫切的一件事就是对AI的军事化制定相关的国际政策或者协议。
3.技术本身不是问题,问题是社会制度能不能保障每个人都受益。
4.深度学习的下一个飞跃是什么?目前,我们已经在一些近半个世纪里都没有解决的难题上获得了前所未有的进展。语音识别、图像识别技术都已经获得了巨大的进步,并且会变得更好。我相信,不久的未来计算机就能理解视频里讲了些什么。
5.二十几年前,深度学习技术才出现在人们视野中,现在已经取得了非常惊人的成果。更出色的神经元类型和架构使得更深层次的网络上可以进行更多,更好的学习任务。深度学习已经吸引了大量的人才和资金,我想这些还会一直持续下去。
时间:2017年3月
采访者:福布斯
核心观点:“大脑与现有(人工)神经网络很不一样。我们(大脑)基本上能够非常好地找到高维度数据中的信息……这是电脑程序没有的计算能力。”
1.大脑非常擅长处理高维度的数据,比如对视神经传递过来的信息处理,那相当于几百万个参数在短时间内迅速变化。并且大脑的处理非常准确,我们不会看到一只狗的时候说看到了大象……我们基本上能够非常好地找到高维度数据中的信息……这是电脑程序没有的计算能力。我们在低维度的数据上已经做得比较接近了,比如,在统计里面,可以用一个简单的少量参数的模型,处理一些量不大的数据。
2.让我感到神奇的是,大脑拥有的参数比训练数据更多。这跟现有已经成功的神经网络还是非常不一样。现阶段,(我们的神经网络)一般训练数据不会比权重参数多。但是大脑并不是这样,大脑处理一秒的数据大概需要一万个参数。我们对这样的系统了解并不多,也不知道怎么样让这样的系统很好的找到数据当中的结构。
时间:2018.12
采访者:WIRED
核心观点:“在之前的‘AI寒冬’中,AI并没有成为人们日常生活的一部分。而现在它是了。”
1.我一直很担心致命自主武器的滥用。我认为应该设立类似《日内瓦公约》的法规来禁止它们的使用,就像禁用化学武器那样。
2.人们无法解释自己做很多事的工作原理。人们不知道自己是怎么决策的。如果你让人解释自己的决策,你就是强制他们编故事。神经网络也有类似的问题。
3.你应该基于这些系统的执行效果来管理它们。运行实验来看是否存在偏差,或者它会不会杀人。我认为我们必须像对待人类一样对待人工智能系统:只看它们的执行效果,如果它们不断遇到困难,那你可以说它们不够好。
4.大脑解决问题的方法和我们大多数神经网络有很大区别。人类有大约100万亿个突触,人工神经网络就权重的数量来说通常至少要比这个数字小10000倍。在学习一个片段的时候,大脑会使用很多很多的突触来尽可能地学习到更多。深度学习擅长利用神经元之间较少的联系进行学习,因为神经元之间有许多事件或例子需要学习。我认为大脑并不关心如何把很多的知识连接起来,它关心的是如何利用这些连接快速获取知识。
5.目前的炒作不会导致“AI寒冬”,因为AI技术已经进入你的手机了。在之前的“AI寒冬”中,AI并没有成为人们日常生活的一部分。而现在它是了。
时间:2020.10.20
地点:麻省理工技术评论的年度EmTech MIT会议
核心观点:“深度学习足以复制所有的人类智慧”
1.人类的大脑有大约100万亿个参数,或者说突触,而我们现在所说的一个真正的大模型,像GPT-3,有1750亿。它比大脑小一千倍。GPT-3现在可以产生看似合理的文本,但与大脑相比仍然很小。但随着取得一些概念上的突破,例如引入Transformers,我认为深度学习足以复制所有的人类智慧。
时间:2023.3
采访者:CBS
核心观点:“有些人认为实现通用人工智能可能只需要5年,那是荒谬的,但我不会完全排除这种可能性。而几年前我会说绝不会发生这种情况。”
1.我认为当前是AI机器学习领域的关键时刻。ChatGPT表明,这些大型语言模型可以做一些令人惊奇的事情。
2.ChatGPT知道的比任何一个人都多。它在智力竞赛中表现出色,可以写诗,但在推理方面并不擅长。我们在推理方面做得更好。
3.我们现在正处于一个过渡点,其中ChatGPT像一个“白痴天才”,它也并不真正了解事实真相。它接受了大量不一致的数据训练,试图预测下一个网络用户会说什么。人们对很多事情有不同的观点,而它必须有一种混合所有这些观点的方式,以便可以模拟任何人可能说的话。这与一个试图拥有一致世界观的人非常不同。
4.我认为谷歌在发布聊天机器人时会比微软更谨慎,并且它可能会附带很多警告,这只是一个聊天机器人,不要一定相信它所说的……但是,谁来决定什么是坏事呢?有些坏事是相当明显的,但是很多最重要的事情并不是那么明显。所以,目前这是一个很大的悬而未决的问题。我认为微软发布ChatGPT是非常勇敢的。
5.直到不久前,我认为在我们拥有通用人工智能之前还需要20到50年的时间。而现在我认为可能是20年或更短时间。有些人认为可能只有5年,那是荒谬的。但现在我不会完全排除这种可能性,而几年前我会说绝不会发生这种情况。
6.我认为AI消灭人类的几率介于0%和100%之间。我认为这并非不可能。就我所说,如果我们明智的话,我们会努力发展它,以免发生这种情况。但是,令我担忧的是政治局势。确保每个人都明智行事是一个巨大的政治挑战,也似乎是一个巨大的经济挑战,因为公司的利润动机可能不会像为他们工作的个体那样谨慎。
7.我担心美国人会试图用AI士兵替换他们的士兵,他们正朝着这个方向努力。
8.我认为AI技术将使工作不同,人们将从事更有创造性的工作,而较少从事例行工作。一旦这些工具开始有创造性,就会创造出更多的东西。这是自工业革命以来最大的技术进步。我认为AI在规模上与工业革命、电力、甚至是轮子的发明相当。
时间:2023.5.10
采访者:《麻省理工科技评论》的人工智能高级编辑威尔·道格拉斯·斯蒂尔
核心观点:“过去我认为计算机模型没有大脑好,但在过去的几个月里我完全改变了看法;它们会为了获得更多控制而失去控制。失控AI可能让人类只是智慧演化过程中的一个过渡阶段。”
1.GPT-4让我意识到AI模型和我们的大脑不同,过去我认为我们正在开发的计算机模型没有大脑好,但在过去的几个月里我完全改变了看法。我认为计算机模型可能是以一种相当不同于大脑的方式运作。它们使用反向传播,可能更善于学习。
2.GPT-4可以通过副本以万倍于前的速度进行共享式学习,而人类做不到这一点。GPT-4等大型语言模型知道的比我们多得多,它们具有关于所有事物的常识性知识,它们可能比一个人知道的多1000倍。
3.我明白推理是我们人类的强项,然而GPT-4在几天前展示出的表现使我感到震惊。它完成了我认为不可能的常识性推理。GPT-4的智商大概是80或90左右。
4.AI如果比人类更聪明,人类将很容易被操纵。即使它们不能直接拉动杠杆,它们肯定可以让我们去拉动杠杆。
5.人工智能在医学和其他方面非常有用,人类很难停止发展它们。但在破碎的政治系统环境之下,AI的恶意使用难以避免,但对齐解决遥遥无期。人们应该聚在一起,认真思考这个问题。
6.子目标系统可能让AI产生自我动机。如果这些智能体会编程并具有执行这些程序的能力,它们会为了获得更多控制而失去控制。失控AI可能让人类只是智慧演化过程中的一个过渡阶段。
7.拔电源就好了?恐怕你做不到,想想电影《2001 太空漫游》里面的人工智能 HAL 是怎么做的。
(注:电影《2001 太空漫游》中,一艘发现号太空船被委派到木星调查讯号的终点。太空船上的人员包括大卫·鲍曼博士、法兰克·普尔和一台十分先进且具有人工智慧的超智慧电脑 HAL 9000 来控制整艘太空船。此外,太空船上还有三位正在处于冬眠状态的科学家。但是远航之旅逐渐变成一趟可怕的旅行,HAL 发现大卫与法兰克打算将他的主机关闭。对 HAL 来说,关闭它的主机代表会杀死它,所以 HAL 决定先发制人,杀害那三位冬眠中的科学家以及用制造假故障的状况让法兰克去太空船外修理,然后用 HAL 的小型艇将法兰克的氧气剪断,导致法兰克缺氧而死。)
8.资本主义制度以及国家之间的竞争关系,停止发展AI是不可能的事情。所以签署请愿书说请停止是愚蠢的。我希望让美国和其他国家达成一致,就像在核武器上所做的那样,在试图阻止其威胁的过程中进行合作。
9.我担心的是,生产力的提高将导致更多人失业,现行的政治制度会强化贫富差距,社会暴力程度也可能逐渐升级。为改善这种状况,我们可以考虑为每个人提供基本收入。然而,这项技术是在一个并非为每个人利益而设计的社会中发展起来的。
.END.
图片来源|网络