首页 > 资讯 >正文

图灵奖得主YannLeCun:AI永远无法比肩人类的智能

2022-08-25 22:23   来源:IT之家阅读量:19334       

前段时间,谷歌工程师声称他们的AI聊天机器人LaMDA是有意识的,这引起了混乱。

LaMDA是一个大型语言模型,可以根据任何给定的文本预测下一个可能的单词很多对话在某种程度上是很容易预测的,所以这个系统可以促进和保持对话的流畅LaMDA在这方面非常擅长,以至于名叫布莱克·莱莫因的工程师开始怀疑它产生了类似人类的感知

伴随着LLM越来越受欢迎和强大,人们对LLM的看法也越来越不同的确,今天的系统已经超越了许多常识语言推理的基准,但许多系统仍然缺乏常识,并且容易产生废话,不合逻辑和危险的建议所以这就引出了一个非常矛盾的问题:为什么这些系统如此智能,同时又有这样的局限性

最近几天,图灵奖获得者Yann LeCun和纽约大学博士后Jacob Browning在Noema杂志上联合发表了一篇文章,给出了这个问题的答案:

问题根本不是AI本身,而是语言的有限性。

他给出了这样的论点:

1.语言只承载了人类全部知识的一小部分。

2.大多数人类知识和所有动物知识都是非语言的。

3.所以大型语言模型无法接近人类智能。

显然,乐存认为我们应该抛弃关于语言和思维关系的旧假设,即语言和思维具有同一性在他看来,这些语言系统本质上是肤浅的,即使是地球上最先进的AI也永远无法获得人类拥有的所有思想

这种观点实际上否定了图灵测试的有效性图灵测试是基于这样一个事实,如果一台机器说出了它必须说的一切,这意味着它知道自己在说什么,因为知道正确的句子以及何时使用它们将耗尽它们的知识

LeCun从语言哲学入手,阐述图灵测试的思想基础及其不合理性。

艾不明白自己在说什么。

19世纪和20世纪的语言哲学认为,知道某事意味着能够想到一个正确的句子,并知道它如何与我们所知道的伟大真理网络中的其他句子相关联按照这种逻辑,理想的语言形式是数理逻辑的纯形式语言,由严格推理规则连接的任意符号组成但是如果你愿意努力消除歧义和不准确,你也可以使用自然语言

语言哲学家维特根斯坦曾说:真命题的总和构成了自然科学的全部长期以来,人们一直坚信逻辑数学和形式化是语言的必要基础在AI领域,这个立场的体现就是象征主义:我们所能知道的一切都可以写成一本百科全书,所以只要阅读一切就能让我们对一切有一个全面的了解在早期,这种根据逻辑规则以不同方式将任意符号绑定在一起的操作成为了人工智能的默认范式

在这个范式中,AI的知识由大量真实句子的数据库组成,这些数据库通过人工逻辑相互连接判断AI是否具有智能的标准是能否在正确的时间吐出正确的句子,即能否以恰当的方式操纵符号这是图灵测试的基础

可是,LeCun认为,将人类的专业知识提炼为一套规则和事实是非常困难,耗时和昂贵的虽然给数学或者逻辑写规则很简单,但是这个世界本身是很暧昧的

所以在LLM问题上,LeCun并不认同图灵测试所依据的理念他认为:机器可以谈论任何事情,这并不意味着它理解它在说什么因为语言并不会穷尽知识,相反,语言只是知识的一种高度具体且非常有限的表征无论是编程语言,符号逻辑还是自然语言,都有特定的表示模式,都善于在非常高的抽象层次上表达离散的对象和属性及其关系

the的所有表示模式都涉及到关于某个事物的信息的压缩,但是压缩留下和遗漏的内容是不同的语言表征模式处理更具体的信息,如描述不规则的形状,物体的运动,复杂机构的功能或绘画中细致的笔触如果你想描述一个冲浪事件,你也应该考虑在特定背景下的行动

还有其他非语言的表达方式可以用更容易理解的方式来传达信息,比如象征性的知识,包括图像,录音,图表和地图等在经过训练的神经网络中发现的分布式知识也是如此

语言的有限性

LeCun认为,语言表征图式的特点是传达的信息非常少,这也是它具有局限性的原因。

从信息传递的角度来看,语言传递信息的带宽很低:孤立的单词或句子,没有上下文,传达的内容很少在语言学家看来,自然语言从来就不是明确的交流工具由于同音异义词和代词的大量出现,很多句子都很歧义

那么,自然语言是否阻碍了我们表达思想呢显然不是LeCun指出,人类不需要完美的交流工具,因为我们对许多非语言有共同的理解我们对一个句子的理解通常取决于我们对其上下文的更深层次的理解,从而推断出句子的意思

在对话中,对话者通常具有相同的知识背景比如你和你的朋友聊起你面前正在进行的足球比赛,或者一个人在特定的社会角色下进行某种有针对性的交流,比如消费者向服务员点餐

阅读情境也是如此研究表明,儿童对当前主题的背景知识是理解一个句子或段落的关键因素可是,AI在这项常识性语言测试中表现不佳

LeCun指出单词和句子的上下文是LLM的核心神经网络通常将知识表达为一种称为诀窍的能力,即把握高度上下文敏感模式和寻找规则的熟练程度在特定的任务中,有必要应用这些规则以不同的方式处理输入

具体来说,在LLM中,这涉及到系统在现有文本的多个层次上的识别模式它不仅可以看到一个段落中单个单词是如何连接的,还可以看到句子是如何连接在一起形成一个更大的段落的所以LLM对语言的掌握一定是语境敏感的它对每个单词的理解不是基于它的词典意义,而是基于它在各种句子中的作用

那么,LLM应该是什么样子的呢LeCun的观点是,LLM的训练目标应该是让它知道每一句话的背景知识,通过观察周围的单词和句子来拼凑正在发生的事情这样它就可以无限使用不同的句子或短语作为输入,以合理的方式继续对话或继续写文章根据人类撰写的段落进行训练的系统经常会相互交谈,因此它们应该有开始有趣对话所需的大致理解

LLM有肤浅的理解

很多人不愿意说LLM的行为是善解人意,也不愿意认为LLM是聪明的批评者认为LLM只是在做某种模仿,真的有道理因为LLM对语言的理解,虽然乍一看很强大,但其实很肤浅这种肤浅的理解似乎很熟悉:教室里所有的学生都在大声说话,但他们不知道自己在说什么——他们只是在模仿教授或他们所读的课文,他们只是模仿得很像

这恰恰反映了现实世界的属性:我们往往不知道自己其实知道的很少,尤其是我们没有从语言中获得任何知识。

LLM对一切都有这种肤浅的理解像GPT—3这样的系统,通过屏蔽句子/文章中可能的单词,让机器猜出最可能的单词,最终纠正错误的猜测这个系统最终会被训练成熟练地猜出最有可能的单词,所以它会成为一个有效的预测系统

可是,用语言解释一个概念的能力不同于实际使用它的能力系统可以解释怎么做长除法,但是做不到该系统还可以解释哪些单词是不应该说的冒犯性单词,然后毫无压力地说出来语境知识体现在背诵语言知识的能力上,而不是处理问题的能力上

对于语言使用者来说,处理问题的能力是必不可少的,但能够处理问题并不意味着具备相关的语言技能这种情况在很多地方都有体现比如要求学生在科学课上做演讲,但得到的分数主要是根据他们的实验结果尤其是在人文学科之外,能够谈论一些东西往往是肤浅的,或者说让事情顺利进行的技能更有用,更重要

一旦我们深入到表面之下,就更容易看到这个系统的局限性:他们的注意广度和记忆大致只够一段如果我们在和LLM对话,这很容易被忽略,因为人们往往只关注最后一两个回复和将要收到的回复

但处理更复杂对话的技巧,如积极倾听,回忆之前的对话,坚持谈论某个话题以表达某个特定观点,同时避免干扰等,都要求系统有更强的注意力和更大的内存容量这进一步削弱了系统的理解能力:我们可以很容易地通过改变我们的观点和每隔几分钟说另一种语言来欺骗系统如果你必须退回太多步才能回答,系统会从头开始,接受与旧评论一致的新观点,用另一种语言跟随你或者承认你相信你说的任何话形成一个连贯的世界观所必需的理解远远超出了这个系统的能力

在语言之外

放弃一切知识都是语言知识的错误观点,可以让我们认识到有多少知识是非语言知识书籍记录了许多我们可以利用的信息,小册子,纸张,图表和城市地图也是如此除了文字所体现的信息,动物和人类的自然特征,人工制品,心理和生理特征都充满了可供人类利用的信息

这说明,在语言之外,世界本身就展示了很多信息,供人类去探索和利用同样,社会习俗和分离仪式也只能通过模仿传递给下一代很多人类的文化知识都是象征性的,光看一眼就能传承下去这些微妙的信息模式很难用语言表达,但接收信息的人仍然可以理解它们可见,非语言理解对人类的发展非常重要

勒村指出,人类的知识用文字记录的并不多,非人灵长类的知识在灵长类的交流中几乎捕捉不到。

我们之所以认为语言重要,是因为语言可以用很小的格式传达很多信息,尤其是印刷术和互联网出现以后,语言可以复制信息,广泛传播可是,用一种语言压缩信息并不是没有成本的,这需要我们花费大量的精力对信息密集型的段落进行解码比如人文课程可能会要求学生做大量的课外阅读,或者大量的课堂时间必须花在复习较难的文章上,等等虽然资料有了,但是要深入了解还是很费时间的

这就解释了为什么经过语言训练的机器能知道这么多,却知道这么少机器获得了人类知识的一小部分,但这一小部分人类知识可以是关于任何事情的有点像镜子系统给人很深的错觉,几乎可以反映任何东西但问题是,镜子只有一厘米厚,如果我们试图探索它,我们会撞到我们的头

可见人类有着深刻的非语言理解,使得语言有用正是因为我们对这个世界有了深刻的理解,我们才能很快理解别人在说什么这种更广泛的,上下文相关的技能是人类自古以来的基本知识

非语言的理解允许感知出现,并使感知得以生存和繁荣所以对于AI研究者来说,寻找AI中的常识是比关注AI语言更重要的任务

最后,乐存总结说,LMM没有稳定的身体,无法长时间感知世界,所以他们只能更加注重语言,所以LLM的常识总是肤浅的我们的目标是让人工智能系统关注问题中的世界,而不是语言本身——尽管LLM并不明白这两者的区别仅仅通过语言,我们无法达到深刻的理解学习LLM之后,我们可以看到我们从语言本身中学到的东西是多么的少

参考链接:

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。

相关热词搜索:

上一篇: 倪启明科研,为健康的医美产品而生
下一篇:最后一页