首页 > 科技 > 我们能否通过某种方式强迫人工智能AI对人类表现出公平吗?

我们能否通过某种方式强迫人工智能AI对人类表现出公平吗?

人工智能似乎可以弄清楚几乎什么都可以做。它可以模拟宇宙,学会用一只手解决魔方,甚至可以发现过去隐藏的事件。

所有这些进步都是为了我们自己的利益。但是当他们不在时呢?近年来,已经影响人们生活的算法系统已经表现出令人担忧的偏见程度,其行为包括沿着种族界限预测犯罪和基于性别确定信贷限额。

在这样的背景下,科学家如何确保先进的思维系统是公平的,甚至是安全的?

由马萨诸塞州大学阿默斯特分校的研究人员领导的一项新研究希望提供答案,它描述了一个框架,以防止团队所谓的智能机器中的“不良行为”。

机器学习研究员Philip Thomas说:“当有人应用机器学习算法时,很难控制它的行为。”

随着机器学习算法越来越影响我们的生活,使确保公平和避免伤害变得更加容易变得越来越重要。”

该框架可以帮助AI研究人员开发新型的机器学习(ML)算法,该框架不会使AI对道德或公平有任何内在的了解,而是可以使ML研究人员在指定或规范不良行为时更加轻松正在设计其核心算法。

新系统的核心是团队所谓的“ Seldonian”算法,以艾萨克·阿西莫夫(Isaac Asimov)著名的科幻小说基金会系列的中心人物命名。这些算法不仅仅是确保道德操作;可以控制任何行为,例如医疗系统中的复杂安全功能。

托马斯说:“如果我使用Seldonian算法治疗糖尿病,我可以指定不良行为意味着危险的低血糖或低血糖症。”

“我可以对机器说,'当您试图改善胰岛素泵中的控制器时,请不要做出会增加低血糖发生频率的改变。” 大多数算法都没有给您一种将这种类型的约束置于行为上的方法;早期的设计中并未包含这种约束。”

作为研究的一部分,该团队开发了这种Seldonian算法来控制自动胰岛素泵,从而确定一种量身定制的方法,可以根据血糖读数安全地预测一个人的剂量。

在另一个实验中,他们开发了一种算法来预测学生的GPA,同时避免了常用回归算法中出现的性别偏见。

研究人员很同情这些实验仅是Seldonian算法功能的原理证明,并且工作的主要重点是框架本身,其他科学家可以将其用作构建未来AI系统的指南。

托马斯说:“我们认为这方面仍有很大的改进空间。”

“即使我们的算法由简单的组件组成,我们也取得了令人印象深刻的结果。我们希望机器学习研究人员将继续使用我们的框架来开发新的和更复杂的算法,这些算法也可以负责任地用于过去也被认为机器学习的应用中有风险。”

本文来自投稿,不代表本人立场,如若转载,请注明出处:http://www.souzhinan.com/kj/215416.html