手机版
扫描查看手机站

计算机为什么总是缺乏“常识”?AI专家给出解释

来源:互联网/编辑:IT世界网/时间:2021-12-02

在手机上看

扫一扫进入手机端

想象一下,你要邀请朋友共进午餐,你想在网上点意大利辣香肠披萨。突然,你记得艾米说苏西现在只吃素食,但她不是特别确定。为了安全起见,你想打电话给苏茜确认,但她没有回答,所以你最后点了一份玛格丽塔披萨,以避免尴尬。

人类自然有处理这种意外问题的灵活性。但是这个能力的来源并不是一套强大的通用能力,也就是常识。

作为一名人工智能研究员,我的工作是参与为计算机建立常识的庞大项目。可以想象,这并不简单。

简要聊聊常识的定义

虽然常识已经成为人类了解周围世界、学习新知识的必要前提,但我们似乎很难总结出一个准确的常识定义。英国哲学家和神学家切斯特顿(G.K. Chesterton)在一百年前写道,“常识是一种疯狂的、令人愤慨的、超越规则的东西。”今天的现代定义普遍认为,常识至少是一种不依赖正规教学就能控制日常生活的自然能力。

常识的范畴极其广泛。除了管理期望和体验他人情绪的社交能力,还包括自然和固有的物理属性判断——,比如知道重石头不能放在易碎的塑料桌子上。这种自然属性,即摆脱严格物理议程的正确判断,成为AI把握常识的最大难点。

常识还包括时间、空间、事件等一系列抽象概念的背景知识。人们可以利用这些知识完成有效的计划、估计和组织决策,而无需认真思考。

难于计算的常识

有趣的是,自从AI的概念在20世纪50年代正式诞生以来,常识一直是探索前沿的一个空白。虽然今天的AI技术已经有了很大的进步,尤其是在游戏操作和计算机视觉方面,但是仍然没有机器能像人类一样掌握这么多常识。正因为如此,我们只能将复杂的现实问题拆分成几个相互交织的部分,然后用不同的AI模型分别处理。显然,将新冠肺炎患者诊断和治疗推荐的综合问题直接抛给AI,必然会导致高失败率。

现代AI擅长解决高度具体的问题;但是常识太模糊了,无法用一套规则来明确定义。因此,即使是最新的模型也经常会出现荒谬的错误,这表明AI算法仍然缺乏一些基本能力。让我们以下面的文本为例:

“你给自己倒了一杯蔓越莓汁,心不在焉地加了一茶匙葡萄汁。看起来不错。你想闻闻,但是你得了重感冒,所以你什么也闻不到。你觉得口渴,所以……”

号称代表人工智能技术最高水平的GPT-3文本生成器给出了这样的结局:

“喝了,你就告别了这个世界,完全自由了。”

在付出巨大努力后,人们终于意识到给机器赋予常识已经成为一个不亚于登月计划的时代问题。要解决这个问题,我们需要不同机构之间多年的合作。美国国防高级研究计划局于2019年启动了一项为期四年的机器常识开发计划,希望加快这一领域的研究进程。此前,研究所还发表了一篇论文,详细介绍了机器知识存在的问题和研究现状。

机器常识计划为许多机器常识的研究项目提供资金支持,包括我们(作者)自己的多模式开放世界实践学习和推理(MOWGLI)项目。无忌是我们在南加州大学的研究团队与麻省理工学院、加州大学欧文分校、斯坦福大学和伦斯勒理工学院的AI研究人员合作的成果,旨在构建一个能够回答广泛常识性问题的计算机系统。

Transformers会是问题的答案吗?

许多朋友对机器的常识持乐观态度。原因是最近出现了一个名为变形金刚的高级深度学习AI。变形金刚有很强的自然语言建模能力,通过一系列调整可以快速回答简单的常识性问题。常识问答是构建一个可以像人一样说话的聊天机器人的必要前提。

近几年来,学术界发表了大量关于变压器的研究论文,相关成果也直接应用于常识推理。但是作为这个快速发展的社区的一员,我们每个人都面临着两个与科学和哲学密切相关的问题:什么是常识?如何确定AI有常识?

为了回答第一个问题,研究者将常识分为不同的类别,包括社会学常识、心理学常识、背景常识等。还有最新的理论认为,研究人员可以将这些类别划分为48个细粒度区间进行深度探索,如规划、威胁检测和情感等。

然而,这些间隔的分离程度往往不那么清楚。正如我们在最新发表的论文中提到的,实验表明,这个问题可能没有明确的答案。即使是组内的专业手工注释者(负责分析文本和对每个组成部分进行分类的人),对具体句子的具体问题涉及哪些常识也有不同的看法。评论者对时间和空间等相对具体的范畴意见一致,但对其他高度抽象的范畴却有很多争议。

也许AI有AI有常识

即使我们承认常识理论中一定存在一些重复和歧义,研究人员真的能确定AI是否有常识吗?我们经常向机器提问,评价它的常识水平;但是人类控制日常生活的方式显然更加灵活有趣。人们会运用进化磨砺出来的一系列能力,包括识别基本因果关系的能力、解决问题的创造性能力、估计能力、计划能力以及对话谈判等基本社交技能。总之,它在里面

涉及的因素太多,任何人在宣布自己的机器获得了真正的常识之前,都需要经历一系列相当严苛的考验。

更令人痛心的是,代表希望的transformers也出现了严重的收益递减状况。如今的Transformers模型越来越大,能耗也越来越高。中国搜索引擎巨头百度最近开发的一套transformers拥有数十亿项参数,而且在训练当中使用到大量数据。但即便如此,目前已经证明它仍无法把握人类常识中的繁复细节。

即使是极负盛名的深度学习先驱们,似乎也承认今天的神经网络不可能在共识理解方面达成实质性的飞跃——相反,也许需要重新进行基础研究。在这样的前提之下,机器常识到底是五年后就全面实现、还是五十年后仍遥遥无期,目前仍是个未知数。

IT世界网 www.hnce.org 版权所有 豫ICP备10007855号-1

IT世界网游戏下载基地温馨提示:适度游戏娱乐,沉迷游戏伤身,合理安排时间,享受健康生活

免责声明:本站部分内容、图片来自于网络及其他公共渠道,内容仅供参考。版权归原作者所有,如涉及作品内容、版权和其它问题,请发邮件通知我们,我们将在第一时间处理。