人工智能经常被认为是一项将颠覆世界的技术。概念诞生65年来,无数电影和小说塑造了各种经典的人工智能角色,AI(人工智能)迅速成为人类未来世界蓝图的重要组成部分。然而,在人工智能不断拓宽我们对未来想象的同时,也出现了“AI统治世界”、“AI监控隐私”等负面论调。
在所有粉碎了人类宇宙中心信仰基石的科学革命中,人工智能绝对是我们又爱又恨的一个。李世石被AlphaGo打败后的眼泪已经干了,但人类对AI的恐惧和想象还在无限蔓延。那么,AI真的比我们聪明吗?
在AlphaGo击败韩国棋手李世石之后,一位比利时程序员基于DeepMind发表的最新论文,推出了开源的Go AI项目—— LeelaZero。有人试图与之对抗,结果是莉拉在19向桌上取得压倒性胜利,在25向棋局上无一例外地落败。这说明只接受过19路围棋训练的人工智能Leela,只能打19路围棋。即使那些数据一直存储在它的数据库里,它也不知道如何将19路Go的训练体验移植到25路Go。
那么问题来了,一直被认为最终会超越人类的人工智能不聪明吗?图灵奖获得者、脸书首席人工智能科学家Yann LeCun在他的新书《科学之路:人,机器与未来》中告诉我们:AI真的不是你想的那样。
《科学之路:人,机器与未来》 2021.08中信出版集团。
AI,真的不是你想的那样
人工智能正在改变人们对自己的看法,不断冲击着人类特有的“物种”傲慢。在文艺作品中,AI危险而美好,但在各方面都比人类更强大,更有创造力。然而在现实中,AI的应用往往是常识性的无知,动作缓慢,能量密集。
当你盯着人工智能看的时候,人工智能不一定会盯着你看,因为它不知道你为什么盯着它看(至少现在还不知道)。究其原因,是人工智能缺乏常识、感知能力,甚至没有办法根据场景变化来学习和使用存储的知识。
DeepMind训练了一个可以玩经典雅达利电子游戏的系统。该系统总共由80场比赛组成,每场比赛至少需要80个小时的训练,勉强能达到合格水平,而一个人只需15分钟就能做到。但实际上,这80个小时是机器实时玩游戏时所花费的训练时间。训练结束后,它可以以更快的速度(比人类)玩游戏,甚至可以同时玩多个游戏。也就是说,如果系统运行的时间更长,就会达到人类无法企及的超高效率。
然而,并不是所有应用AI的系统都有足够的时间成本在更长的时间内接受更多的训练,比如在自动驾驶领域。自动驾驶系统中的AI必须在路上跟随汽车才能获得更多的训练数据。——在学习如何避免撞车之前,它必须驾驶数百万小时,并模拟造成数千起撞车事故。如果汽车掉下悬崖,系统会说“哦,我一定错了”,但这只会稍微纠正它的策略。第二次,汽车可能会以不同的方式掉下悬崖,然后系统会再次纠正。以此类推,在系统彻底想通如何避免掉下悬崖之前,汽车必须像这样反复掉下悬崖数千次(不止一次),其实施难度和资金成本可想而知。
以上两个例子足以说明一点:AI不是天才,不能轻易获得“智慧”。实现人们所说的特定事件中的“智能”需要大量的训练和数据支持,但这一过程中的时间成本和计算能力远超人们的普遍预期。
人工智能悖论:至关重要的常识
今天的人工智能有一个悖论:它极其强大和专业,但它没有常识。
现在让我们回顾一下上面提到的Go AI —— LeelaZero。如果Leela想要在25路游戏中立于不败之地,那么她需要更多专门针对25路Go游戏的数据和更长的自我游戏训练,这样她才能最终赢得整场比赛。但是,Leela不知道Go的基础知识是不同面孔共有的,她不知道类比和共情。这也反映了AI的另一个“不聪明”的部分,——缺乏人类常识。
没有常识的人工智能是什么?叫醒你的Siri、Alexa、天猫精灵或者萧艾,试着和它聊上(最多)两分钟,你或多或少会有一些感觉。杨丽坤在《科学之路:人,机器与未来》中也对此进行了详细描述:
翻译系统有时可能会在不知情的情况下犯一些有趣的错误。自动驾驶汽车可以从A点到B点行驶,但它不知道司机是什么。比如,虚拟助手可以上报交通信息,转接到你订购的电台,但如果你告诉它:“Alexa,我的手机掉进浴缸了。”它不会知道这意味着你的手机是湿的,需要更换,因为它只能在训练范围内工作。要想系统有效地回答问题,Alexa必须具备一些常识,也就是一些关于世界运行方式及其物理规律的约束知识。
常识非常重要,它限制了我们与世界的联系。
它能填补空白,弥补隐含的信息。我们看到一个坐在桌子旁的人,可能看不到他的腿,但知道他肯定有腿,因为我们对人类有一定的了解。我们的大脑还整合了物理学的基本定律,比如,如果有人打翻了眼前的玻璃杯,那么杯子里的水就会洒得满桌子都是。我们知道如果不拿住某个东西,它就会掉下去。我们还能够意识到时间流逝、万物运动。
我们在生命的头几个月和几年中逐渐了解世界的模型——我有意使用了与人工智能领域相同的词汇,这使我们可以将某个普通的句子补充完整。这个句子的其余部分并没有向我们提供有关整个句子的所有信息,但我们还是能够将这个句子补充完整,因为我们知道世界的运行规律。同样,当我们阅读一个文本时,可以或多或少预测到下一个句子;当我们观看一个视频时,能够或多或少预测到接下来一连串的动作和反应。
由此可见,人类常识对于培养人工智能的学习能力至关重要,否则它只是一个功能强大、专业化高,却没有任何概念、文化、什么都不懂且耗能极高的应用程序。
人类大脑——永远的神
到目前为止,人类的学习方法比任何一种人工智能的学习方法都更为有效。在人脑中,额叶专用于获取有关世界运转规律的常识,这就是智力的本质。动物学习的方法与人类学习的方法大致相同。有些物种的天赋更高,在鸟类中,乌鸦就特别有天赋。在海洋动物中,章鱼非常聪明。再说说猫,它们没有人类的推理能力,但依然比最聪明的机器拥有更多的常识,老鼠也一样。所有这些动物都通过观察来学习世界运转的规律,获得了可以增加生存概率的预测模型。如果人类能制造出像老鼠或松鼠一样聪明的机器,人工智能事业或许就成功了。
也就是说,即便是最先进的人工智能系统也存在局限性,它们可能还不如一只猫聪明。此外,人工智能不仅在智识上比不上人类大脑,在功耗的节省上也远远落后于人类大脑。
虽然现代科学已经了解了大脑学习的原理,知道了大脑的结构,但重现其功能所需的计算量是无比巨大的,大约是每秒 1.5×1018 量级的操作。现在一块 GPU (图像处理器)每秒可执行 1013 次计算,功耗约为 250 瓦。为了达到人脑的计算能力,必须将 10 万个这样的处理器连接上功耗至少 25 兆瓦 的巨型计算机才能实现。这巨大的能量消耗是人脑的 100 万倍!
所以,AI比你更聪明吗?
最后,你要是问 AI 聪明吗?在某种程度、某个范围、某个具体的事件上,在掌握了大量数据和长时间的训练之后,它可以做到更快速的反应、进行更深入的分析并处理更多的并行任务,这时你可以说,AI是聪明的。但在普遍意义的学习能力上,在我们所生活的这个复杂的世界模型里,它还没能积累起足够的世界知识以产生某些常识,你也可以说,AI 是不怎么聪明的。
也许你要提起那些仿真机器人来反驳我了,比如“索菲亚”。索菲亚是一位面带神秘微笑、长着一双玻璃眼珠的美丽的光头女人,“她”在2017 年的许多舞台上都大放异彩。“她”动人的脸庞能够呈现数十种不同的表情,在调侃一个记者关于地球上有太多机器人的担忧时,“她”笑道:“您好莱坞电影看太多了 !”这个经典笑话让她如此酷似人类,以至沙特阿拉伯在当年授予了“她”沙特国籍。实际上,“她”只是一个由工程师预先设定好一系列标准答案的“木偶”。当我们与“她”交流时,所有的谈话内容均会经过匹配系统处理,并从得到的答案中选择最合适的一个输出。索菲亚欺骗了人们,“她” 只是一个完成度很高的塑料制品,只不过是我们(被这个激活了的物体所感动的人类)赋予了它某些智能。
于是,让AI变聪明也就成为了科学家们研究的首要任务。杨立昆在新书《科学之路:人,机器与未来》也阐述了人工智能研究的真正挑战:
“这些人工智能应用将会改变社会,但是,直到机器能够像动物和人类一样有效地学习,直到它们能够通过自我监督学习获得世界模型,直到它们积累起足够的世界知识以产生某些常识,这一切才会成为可能。”
本文摘编自中信出版集团8月新书《科学之路:人,机器与未来》。
《科学之路:人,机器与未来》内容简介:
“图灵奖”得主、“深度学习三巨头”之一、“卷积神经网络之父”……由于在人工智能领域的突出贡献,杨立昆被中国计算机科学界和企业界所熟知。杨立昆的科学之路,谱写了一段关于勇气的宣言。他为了知识本身求学,而不是文凭,他用自己的经历,证明了通过激烈的考试竞争进入名校不是科学成功的唯一路径。他广泛阅读,为他科学思维的形成奠定了坚实的理论基础。他特立独行,做自己感兴趣的事情,即便那件事在短时间里不被人看好。在人工神经网络研究的低谷期,他寂寞地坚持,终于取得了举世瞩目的成就。人工智能正在颠覆人类社会,未来机器能思考吗?杨立昆的这部著作,讲述正是人工智能在我们面前崛起——这个历史上绝无仅有的时刻发生的故事。
编辑/王雅静
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/52833.html