火星科技网您的位置:首页 >人工智能 >

一位人工智能专家解释了为什么很难给计算机常识

导读 想象一下,您正在请朋友共进午餐,并计划订购辣香肠比萨饼。你还记得艾米提到苏茜已经停止吃肉了。您尝试给 Susie 打电话,但当她不接时

想象一下,您正在请朋友共进午餐,并计划订购辣香肠比萨饼。你还记得艾米提到苏茜已经停止吃肉了。您尝试给 Susie 打电话,但当她不接时,您决定谨慎行事,只点一份玛格丽塔披萨。

人们理所当然地拥有定期处理此类情况的能力。实际上,在完成这些壮举时,人类依赖的不是一个,而是一组强大的通用能力,即常识。

作为一名人工智能研究员,我的工作是为计算机提供一种常识的广泛努力的一部分。这是一项极具挑战性的工作。

快速——定义常识

尽管对于人类如何理解周围的世界和学习来说既普遍又必不可少,但常识却无视单一的精确定义。英国哲学家和神学家 GK Chesterton在 20 世纪之交写道:“常识是一种狂野、野蛮、超越规则的东西。” 今天的现代定义一致认为,至少,它是一种自然的,而不是正式教授的人类能力,可以让人们驾驭日常生活。

常识异常广泛,不仅包括社交能力,例如管理期望和对他人情绪的推理,还包括天真的物理学感,例如知道不能安全地将沉重的石头放在脆弱的塑料桌子上。天真,因为尽管没有有意识地研究物理方程,人们还是知道这些事情。

常识还包括抽象概念的背景知识,例如时间、空间和事件。这种知识使人们可以计划、估计和组织,而不必太精确。

常识很难计算

有趣的是,自 1950 年代该领域出现之初,常识一直是人工智能前沿的一项重要挑战。尽管人工智能取得了巨大进步,尤其是在游戏和计算机视觉方面,但具有丰富人类常识的机器常识仍然遥不可及。这可能就是为解决具有许多相互交织部分的复杂现实问题而设计的 AI 工作的原因,例如为 患者诊断和推荐治疗方法有时会失败。

现代人工智能旨在解决高度具体的问题,与常识相反,常识是模糊的,不能由一组规则来定义。即使是最新的模型有时也会犯荒谬的错误,这表明AI 的世界模型中缺少一些基本的东西。例如,给定以下文本:

“你给自己倒了一杯蔓越莓,然后心不在焉地往里面倒了大约一茶匙葡萄汁。看起来还可以。你试着闻一闻,但你感冒了,所以你什么都闻不到。你是好渴。所以你……”

高度吹捧AI文本发生器GPT-3供给

“……喝吧。你现在已经死了。”

一位人工智能研究人员解释了人工智能系统如何“理解”语言以及为什么转换器是最新和最伟大的技术。

最近雄心勃勃的努力已经认识到机器常识是我们这个时代的一个登月人工智能问题,一个需要跨机构多年协同合作的问题。一个显着的例子是国防高级研究计划局于 2019 年启动的为期四年的机器常识计划,旨在加速该领域的研究,此前该机构发布了一篇概述该领域问题和研究状况的论文。

机器常识计划资助了机器常识方面的许多当前研究工作,包括我们自己的多模式开放世界接地学习和推理 ( MOWGLI )。MOWGLI 是我们在南加州大学的研究小组与来自麻省理工学院、加州大学欧文分校、斯坦福大学和伦斯勒理工学院的 AI 研究人员之间的合作。该项目旨在构建一个可以回答广泛的常识性问题的计算机系统。

变形金刚来拯救?

对最终破解机器常识持乐观态度的一个原因是最近开发了一种称为变压器的高级深度学习人工智能。Transformers 能够以强大的方式对自然语言进行建模,并且通过一些调整,能够回答简单的常识性问题。常识问答是构建能够以类人方式交谈的聊天机器人必不可少的第一步。

在过去的几年里,已经发表了大量关于变压器的研究,直接应用于常识推理。作为一个社区的这种快速进步迫使该领域的研究人员在科学和哲学的边缘面临两个相关的问题:什么是常识?我们如何确定人工智能是否具有常识?

为了回答第一个问题,研究人员将常识分为不同的类别,包括常识社会学、心理学和背景知识。最近一本书的作者认为,研究人员可以将这些类别划分为 48 个细粒度的领域,例如规划、威胁检测和情绪,从而走得更远。

然而,并不总是清楚这些区域的分离程度。在我们最近的论文中,实验表明第一个问题的明确答案可能存在问题。即使是我们小组中的专业人类注释者——分析文本并对其组成部分进行分类的人——也对适用于特定句子的常识的哪些方面存在分歧。注释者同意相对具体的类别,如时间和空间,但不同意更抽象的概念。

认识AI常识

即使你承认常识理论中的一些重叠和歧义是不可避免的,研究人员真的能确定人工智能具有常识吗?我们经常问机器问题来评估他们的常识,但人类以更有趣的方式驾驭日常生活。人们使用一系列经过进化磨练的技能,包括识别基本因果关系的能力、创造性解决问题的能力、估计、计划和基本社交技能,例如对话和谈判。尽管这份清单可能很长且不完整,但人工智能在其创造者宣布机器常识研究的胜利之前应该取得不少成就。

令人痛心的是,即使是对变压器的研究也在产生收益递减的情况。变压器变得越来越大,而且越来越耗电。搜索引擎巨头百度最近开发的一个转换器有数十亿个参数。有效训练需要大量数据。然而,迄今为止,事实证明它无法掌握人类常识的细微差别。

即使是深度学习先驱似乎也认为,在今天的神经网络能够实现这样的飞跃之前,可能需要进行新的基础研究。根据这一新研究线的成功程度,无法确定机器常识是在 5 年还是 50 年后才能实现。

标签:

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。