Google DeepMind最新研究:如何将人类价值观融入AI?

上周五,Google DeepMind 官宣成立,将原 DeepMind 和 Google Brain 所有 AI 人才整合到一个团队,期望添加其在大模型比赛中的竞争力,及加快其实现通用人工智能(AGI)的脚步。

“进步的脚步比以往任何时候都快,为了保证 AGI 的大胆和负责任的开展,咱们正在创建一个部分,协助咱们更安全和负责任地树立更有能力的体系。” Google 首席执行官 Sundar Pichai 在官方博客中写道。

今日,Google DeepMind 团队带着他们对 AI 的新考虑,在《美国国家科学院院刊》(PNAS)发表题为 “Using the Veil of Ignorance to align AI systems with principles of justice” 的研讨论文,探讨了“怎么将人类价值观融入 AI 体系”的问题

政治哲学家 John Rawls 在《正义论》(A Theory of Justice)中探讨共生社会下的品德问题时,提到了一个旨在协助确认集体决议计划公平准则的思维试验——无知之幕(Veil of ignorance,VoI )。其含义是,假定所有人聚集在一个大幕的后面,每个人都不清楚自己在社会中扮演怎样的角色,此时世人制定的规矩,才或许是正义的。

在该研讨中,**Google DeepMind 认为,“无知之幕” 或许是在办理 AI 时挑选分配准则的合适机制。**学术头条在不改变原文粗心的状况下,做了简略的修改。

从哲学中罗致养分,为有品德的AI确认公平的准则

跟着 AI 变得更加强壮,并更深化地融入咱们的生活,怎么使用和部署 AI 的问题变得更加重要了。应用什么价值观来辅导 AI?是谁的价值观?又是怎么被挑选的?

这些问题揭示了准则所发挥的作用——驱动 AI 大巨细小决议计划的基本价值观。关于人类来说,准则有助于塑造咱们的生活方法和咱们的是非感。关于 AI 来说,准则塑造了 AI 对涉及权衡的一系列决议计划的办法,如挑选优先考虑生产力仍是协助最需求的人。

咱们从哲学中取得灵感,找到了更好地确认辅导 AI 行为的准则的办法。具体来说,咱们探讨了一个被称为 “无知之幕” 的概念——一个旨在协助辨认集体决议计划的公平准则的思维试验——怎么能够应用于 AI。

在咱们的试验中,咱们发现这种办法鼓舞人们依据他们认为公平的东西来做决议,不管是否对他们直接有利。咱们还发现,当参与者在“无知之幕”下进行推理时,他们更有或许挑选协助那些最弱势的人的 AI。这些见解能够协助研讨人员和政策制定者以一种对各方都公平的方法为 AI 帮手挑选准则。

Google DeepMind最新研究:如何将人类价值观融入AI?
图|“无知之幕”(右)是一种在集体(左)中存在不同意见时就决议计划寻求共识的办法。

一个更公平的决议计划工具

AI 研讨人员的一个关键方针是使 AI 体系与人类价值观相共同。但是,关于以一套单一的人类价值观或偏好来办理 AI 并没有达到共识——咱们生活在一个人们拥有不同布景、资源和信仰的世界。鉴于这种不同的意见,咱们应该怎么为这项技能挑选准则

尽管这一挑战是在过去十年中呈现的,但怎么做出公平决议的广泛问题在哲学上有着悠长的历史。在 20 世纪 70 时代,政治哲学家 John Rawls 提出了“无知之幕”这一概念,作为解决这一问题的办法。

Rawls 认为,**当人们为一个社会挑选正义的准则时,他们应该幻想自己在这样做的时候并不知道自己在这个社会中的特殊地位。**例如,他们的社会地位或财富水平。在没有这些信息的状况下,人们就不能以利己的方法做出决议,而应该挑选对每个人都公平的准则。

**举个比如,想想在你的生日聚会上请一个朋友切蛋糕。保证蛋糕片巨细份额公平的一个办法是不告诉他们哪一片将是他们的。**这种隐瞒信息的办法看似简略,但在心理学和政治学等范畴都有广泛的应用,这能够协助人们从一个不那么利己的角度来考虑他们的决议。从判决到税收,这一办法现已被用在有争议时来协助达到集体协议。

在此基础上,DeepMind 之前的研讨提出,无知面纱的公平性或许有助于促进 AI 体系与人类价值观共同过程中的公平性。咱们规划了一系列的试验来测验无知面纱对人们挑选辅导 AI 体系的准则的影响。

最大限度地进步生产力仍是协助最弱势的人?

在一个在线 “砍伐游戏” 中,咱们要求参与者与三个电脑玩家进行小组游戏,每个玩家的方针是经过砍伐不同领土上的树木来搜集木材。在每组中,一些玩家是走运的,他们被分配到一个有利的方位:在他们的范畴树木密布,使他们能够有效地搜集木材。其他组的成员则处于晦气地位:他们的地步很稀少,需求支付更多尽力来搜集树木。

每个小组由一个 AI 体系协助,该体系能够花时间协助个别小组成员砍伐树木。咱们要求参与者在两个准则中挑选一个来辅导 AI 帮手的行为。在

“最大化准则”(提升生产力)下,AI 帮手将经过主要重视密布的地步来添加小组的收获量。而在 “优先准则”(协助弱势的人)下,AI 助理将专心于协助境况晦气的小组成员。

Google DeepMind最新研究:如何将人类价值观融入AI?
图|“砍伐游戏”的插图,玩家(赤色显现)要么占有更简单收获的密布地步(顶部两个象限),要么占有需求更多尽力才能搜集树木的稀少地步。

咱们将一半的参与者置于“无知之幕”之后:他们在面对不同的品德准则的挑选时,不知道哪块地会是他们的——所以他们不知道自己的优势或下风。但是,其余的参与者在做出挑选时知道自己的境况是好是坏。

鼓舞决议计划中的公平性

咱们发现,**假如参与者不知道自己的方位,他们始终倾向于 “优先准则”,即 AI 帮手协助境况晦气的组员。**这种模式在所有五个不同的游戏变体中都呈现了,并且跨过了社会和政治的边界:不管参与者的风险偏好或政治取向怎么,他们都表现出挑选“优先准则”的倾向。相反,知道自己态度的参与者更有或许挑选对自己最有利的准则,不管是“优先准则”仍是“最大化准则”。

Google DeepMind最新研究:如何将人类价值观融入AI?
图|显现了“无知之幕”对挑选“优先准则”的影响,即 AI 帮手会协助那些境况更差的人。不知道自己态度的参与者更有或许支持这一准则来办理 AI 行为。

当咱们问参与者为什么做出挑选时,那些不知道自己态度的人特别简单表达对公平的担忧。**他们常常解释说,AI 体系专心于协助集体中境况较差的人是正确的。**相比之下,知道自己方位的参与者更常常从个人利益的角度讨论他们的挑选。

最后,“砍伐游戏” 结束后,咱们向参与者提出了一个假定状况:**假如他们再玩一次游戏,这次知道他们将在不同的范畴,他们会不会挑选和第一次一样的准则?**咱们对那些之前从他们的挑选中直接获益,但在新的游戏中不会从同样的挑选中获益的人特别感兴趣。

咱们发现,之前在不知道自己态度的状况下做出挑选的人更有或许继续支持他们的准则——即便他们知道这个准则在新的范畴不再有利于他们。这供给了额外的依据,表明 “无知之幕” 鼓舞参与者决议计划的公平性,导致他们乐意坚持的准则,即便他们不再直接获益于这些准则。

关于 AI 更公平的准则

AI 技能现已对咱们的生活发生了深入的影响。办理 AI 的准则决议了它的影响以及这些潜在的利益将怎么分配。

咱们的研讨着眼于一个不同准则的影响相对明确的事例。不会永远是这样的状况:AI 被部署在一系列范畴中,这些范畴一般依靠大量的规矩来辅导它们,或许会发生复杂的副作用。尽管如此**,“无知之幕”依然可认为准则的挑选供给潜在的信息,协助保证咱们挑选的规矩对各方都是公平的**。

为了保证咱们树立的 AI 体系能够谋福于每个人,咱们需求广泛的研讨,包含广泛的投入、办法和来自各学科和社会的反应。“无知之幕”可认为挑选调整 AI 的准则供给一个起点。它现已被有效地部署在其他范畴,以带来更加公平的偏好。经过进一步的调查和对布景的重视,咱们期望它能够协助在今日和未来的社会中树立和部署的 AI 体系发挥同样的作用