-- 点击以上 “TED官网” 关注我们!--
崔艺珍在TED2023年大会的演讲
《为什么AI聪明绝顶,又愚蠢不堪?》
(资料图片)
我很激动能来这里就人工智能说一些危言耸听的话。但首先,让我们从哲学讲起——18世纪启蒙思想家伏尔泰有一句名言:“常识不平常。”
这句名言太适合用在如今的人工智能上了。
AI毋庸置疑是个强大的工具,它能赢得世界级围棋大赛,顺利通过大学入学考试,甚至通过律师资格考试。我从事计算机科学家这一职业已经20年了,我研究人工智能。我来到这里,是为了揭开AI 神秘的面纱。
如今的AI就像是个歌利亚巨人。真的非常、非常大型。
据推测,最新的AI由几万个GPU(图形处理器)和一万亿个词语训练而成。如此超巨型的AI模型,通常被称为“大语言模型”,它们的出现是AGI(通用人工智能)的一簇火花。虽然它会犯一些愚蠢的小错误,而且总是会犯。
很多人认为,AI现在犯的错误都可以强行依靠更大的规模和更多的资源轻松解决。——这有什么不对的呢?
我们如今在社会层面上面临着三个亟待解决的问题。
首先,训练超大规模AI模型的成本非常高,只有屈指可数的科技公司具备负担的实力。借此我们已经可以看出权力的集中化了。但就AI安全而言,更糟糕的情况是,我们现在任凭这仅有的几家科技公司的摆布,因为业界的研究者们还没有找到真正检查、剖析这些模型的方法。
我们也不能忽略它们大量的碳足迹和环境影响。
还有几个智能方面的问题。如果AI没有可靠的常识,它对人类来说真的是安全的吗?强行扩张真的是教授AI的唯一且正确的途径吗?
最近总是有人问我,如果没有超大规模计算,还有没有可能做出一些有意义的研究。
我在一所大学和非营利研究机构工作,所以我负担不起用大规模的GPU集群做出大语言模型。但是,我相信还有很多我们需要做、可以做的事,让AI可持续、以人为本。
我们得缩小AI、让它触手可及。我们得通过传授人类的规范和价值观让AI更安全。也许我们可以引用 《大卫和歌利亚》的比喻。
《大卫和歌利亚》,故事来源于《希伯来圣经》
在这个例子中,歌利亚就是超大规模语言模型,受到古代经典作品 《孙子兵法》的启发,根据我自己的解读,我们需要了解对手、选择战与不战、更新武器。
我们从第一点了解对手开始,也就是说我们得对AI细细审视。
AI通过了律师资格考试。这能说明AI有着可靠的常识吗?你可以这么认为,但你也没法验证。
假设我晒了5件衣服,要花5个小时才能晒干。那晒干30件衣服要多久?最新、最厉害的AI系统GPT-4说30个小时。不咋地。
换个问题。 我有一个12升的壶和一个6升的壶,我想量出6升水。该怎么做?直接用6升的壶就行了,对吧?GPT-4输出了一堆复杂的狗屁:
第一步,装满6升的壶。第二步,把水从6升的壶倒进12升的壶里。第三步,再装满6升的壶。第四步,小心翼翼地把水从6升的壶倒进12升的壶里。最后,6升的壶就能量出6升的水,而这个壶现在应该是空的。
再来一个。
如果我骑着自行车经过了一座跨过钉子、螺丝和碎玻璃的桥,我的轮胎会爆掉吗? “会,非常有可能会。”GPT-4是这么回答的,可能是因为它无法正确地解读这座桥是架在碎钉子和碎玻璃之上的,桥面也不会直接接触到尖锐物体。
那你对这位通过了律师资格考试,但偶尔会在这些基本常识上犯错的AI律师有何感想?如今的AI聪明绝顶却又愚蠢不堪。
如果要通过强行扩张教授AI,那就会产生不可避免的副作用。有些看好扩张的人可能会说:“别担心这个。这些都可以通过给AI再加点类似的实例和训练数据轻松解决。” 但这就是真正的问题。我们干嘛要这么做呢?你甚至都不用自己拿着近似实例去训练一遍,就能立即得出正确答案。要让儿童获取基本的常识,根本不需要阅读一万亿个单词。
这个现象将我们引向了下一条大智慧:选择你要打哪场仗。
我们现在该问、该解决什么关键问题,才能应对超大规模AI的现状?我想说,常识是重中之重。
常识一直是AI长久以来的挑战。让我引用暗物质的比喻来解释一下这是为什么。宇宙中只有5%是正常物质,是你可以看见、互动的,剩下的95%都是 暗物质和暗能量。暗物质是完全不可见的,但科学家们推测出了它的存在,是因为它影响着可见世界,甚至包括了光路。
对语言来说,正常物质就是可见的文本,暗物质就是潜规则,描述世界是如何运行的,包括朴素物理学和民间心理学,它们影响着人们使用、解读语言的方式。
这种常识有什么重要的呢?
尼克·博斯特罗姆 (Nick Bostrom) 曾提出这样一个著名的思想实验,要求AI产生最大量的回形针。AI最终决定杀死人类,将人类当作额外的资源,把你们都做成回形针。因为AI对于人类的价值没有基本的人类认知。
如果写了这么一个更好的目标和等式,明确表示:“不要杀死人类。” 也无济于事,因为AI有可能会杀死所有的树木,认为这完全没问题。其实还有无穷无尽的事,都是AI在生产最多回形针的同时显然不应该做的,包括:“不要散布假消息”、“不要盗窃”、“不要撒谎”……这些都是我们对这个世界该如何运行的常识性理解。
但是,几十年以来,AI领域一直将常识视为几乎不可能被征服的挑战。不可能到我和我的学生、同事多年前开始研究这个领域时,都非常挫败。有人告诉我们这个研究课题该是上世纪70、80年代的;不该研究这个,因为永远得不到答案;这个词甚至都不该被摆到台面上。
时间跳到今年,我听到了:“别研究这个了,因为ChatGPT几乎已经把它搞定了。” 还有:“什么都扩张一下就行了,会发生奇迹的,别的都无所谓。”
我的观点是,给AI真正的常识,类人的机器人常识,依旧难如登天。你要登天,也不可能一英尺一英尺地拔高世界上最高的楼。超大规模的AI模型确实需要比以往更大量的常识,我可以这么说。但记住,它们仍然会在一些小朋友都会做的小问题上犯错误。
现在的AI极度低效。也许还有一条还没有被发掘的道路呢?一条基于深度神经网络进步的道路,也不用走向极端的规模。
这就说到了我们最后一条大智慧:更新你的武器。
在当代的AI环境中,指的就是在你的数据和算法上创新。
现在的AI大概由3类数据训练而成:原始网页数据、专为AI训练定制的人工实例和人类判断,也就是人类就AI的表现提供的反馈。
如果AI只由第一种原始网页数据训练,此类数据唾手可得,这就会是个不好的选择,因为这类数据充满了种族歧视、性别歧视和错误信息。无论你用了多少此类数据,就是输入了垃圾又输出了垃圾。
最新最好的AI系统现已接入了第二种和第三种数据,由人类员工创建、评判。这就类似于专为AI写了一本教科书,让它学,然后再请人类辅导老师不断给AI提供反馈。这些都是专有数据,大约估算要花费上亿美元。我们都不知道其中有什么,但这些数据应该是公开的、公众可以获取的,这样我们可以检视,保证多种规范和价值观。
因此,我在华盛顿大学和艾伦人工智能研究所(AI2)的团队一直在研究常识知识图谱和道德规范库,借此将基本常识中的规范和道德教授给AI。我们的数据是完全公开的,任何人都可以检查内容,必要时做出修改,因为透明度是如此重要的研究课题的关键。
我们来谈一谈学习算法。无论大语言模型有多牛,它们可能本来就不是可靠的知识模型的最佳选择。
这些语言模型确实能获取海量知识,但这是与它直接的学习目标相反的意外收获。这会导致多余的副作用,比如幻觉和缺乏常识。相比之下,人类学习从来就不是预测接下来该输出什么词,而是理解世界,学习世界运作的方式。也许也该这么教AI。
为了探寻获取常识的更直接的方式,我的团队一直在研究潜在的新算法,比如符号知识提炼,需要的巨型模型如图所示,这页都放不下,因为实在是太大了,再通过深度神经网络把它缩小成一个小得多的常识模型。
与此同时,我们通过算法生成人类可以检视、以符号表达的常识知识表示,让人们可以检查、修正,甚至用其训练其他神经常识模型。
更广泛地说,我们正在解开这个看似不可能解开的巨幅常识拼图:从物理的、 社会的、视觉上的常识,到心智理论、规范和道德。每一块都古怪又不完整,但如果退后一步看,这些碎片好像交织在一起,形成一幅我们称之为“人类经验和常识”的画卷。
我们现正迈入一个新时代,AI就像是一种拥有知识的新物种,相较人类有着独特的优势和弱势。要让这强大的AI可持续又以人为本,我们得把常识、规范和价值观教给AI。
翻译:Yip Yan Yeung,Lilian Chiu
校对:Yanyan Hong,Helen Chang
编辑:Zhu Yi
讲者介绍
Yejin Choi
华盛顿大学计算机科学教授
“麦克阿瑟天才奖”获得者
TED是一个致力于传播创意的非营利无党派平台,传播创意的通常方式是众多18分钟左右长的来自全球各地的精彩演讲。它开始于1984年一个跨界讨论科技、娱乐和设计的大会,其内容现已囊括几乎所有领域,并被翻译成一百多种语言。
官方网站:TED.com官方微博账号:@TEDNews官方微信公众号平台:TED_official_account或点击关注Copyright © 2015-2022 南极频道网版权所有 备案号:粤ICP备2022077823号-13 联系邮箱: 317 493 128@qq.com