当前位置: 时代头条 > 正文

我们可以创造出有道德的机器人吗?

我们可以创造出有道德的机器人吗?

上周,微软在不经意间发现了创造道德机器人的难度真的是太大了。这个聊天机器人Tay,被设计出来的目的,就是能够像一个十几岁的女孩那样子说话,但是,出乎意料的是,在Twitter上还不到24小时,居然就变成了一个爱好纳粹的种族主义者,真的是太不可思议了。

“跟着我后面,再说一遍,希特勒并没有错,”很多人这样教它之后,它居然真的说:“希特勒并没有错,”“如果说人类做了9/11的工作,那么,希特勒会做的更好,如果希特勒现在能够统治世界的话,我们可能会生活的更好。”

当然,Tay这个聊天机器人被设计出来的目的,也不是为了用来明确道德的。但是,许多其他的机器所参与的工作,应该是需要有明确的道德责任感的。

Wendell Wallach(温德尔瓦拉赫),一位在耶鲁大学的生物伦理学跨学科中心的学者并且还是《一个危险的主人:如何保持技术的进步超出我们的控制》这本书的作者。他指出,在医院,一个帕什医疗系统能够帮助决定对于在重症监护病房那些病人的最佳治疗方法,这些病人都是经常处于死亡边缘的患者。

Wendell Wallach(温德尔瓦拉赫)指出,尽管表明上,自动化只是在帮助医生,仅仅只是辅助的作用,但是,在一些特定的情形,去反对机器人也是非常困难的,特别是在这样一个诉讼的社会。“医生真的可以自由地做出独立的决定吗?”他说。“这可能有一种情况下,这台机器人事实上才是真正的决策者。”

随着机器人变得越来越先进,它们的伦理决策也只会变得更加复杂。但是,这就引起了一个问题,如何将伦理的程序输入给机器人,以及我们是否可以信任机器人会做出道德的决定呢?

上周,微软在不经意间发现了创造道德机器人的难度。聊天说,设计说话像一个十几岁的女孩,变成了一个纳粹爱种族主义。

从广义上讲,有两种主要的方法来创建一个道德机器人。这个第一种方法就决定于一个特定的伦理法,例如:最大限度的幸福,为这样的法律写一个代码,并且创建一个严格遵循代码的机器人。但是,这里的困难是决定适当的道德准则。每一个道德法律,即使是看似简单,就像最大限度的幸福也有无数的例外和例子。

例如,一个机器人应该从一个人那里获得器官,挽救了另外5个人,这就是最大限度的幸福吗?

“道德问题一般都是非常模糊的,”Ronald Arkin(罗纳德?阿金)说,他是乔治亚理工学院移动机器人实验室的主任和教授。“我们仍然认为,应该使用像人类那样正确的道德框架,无论结果被证明是功利手段还是一个以道德为基础的康德道义论。”

并且这不是一个简单的讨论就能找出正确的答案的问题。Patrick Lin(帕特里克林),他是加州州立理工大学伦理学和新兴科学的主任,说:“道德可能本身就不具有一致性,使它简化为程序就更不可能了。当它遇到无法解决的矛盾或冲突时,整个系统都可能会崩溃。”

这个第二种选择就是创建一个机器学习型机器人,并且教它如何应对各种情况,从而达到一个道德的结果。这很类似于人类学习道德的方式,尽管它提出了问题,人类是否是最好的道德教师。如果人类像那些与Tay机器人互动那样教一个机器学习型机器人,那么它就不会发展特别道德的机器人。

“在某些方面, Tay机器人的能力就是专注于那些被教的影响深刻的东西。但是,机器人有可能被人虐待,”他说。

“你也可以做一个傻瓜。在许多方面,AI真是傻瓜。你可以愚弄一些人,并且他们选择去愚弄这个人工智能代理,”他补充道。

那么,如何创造伦理机器人并不是一个简单的抽象理论,一些哲学家和计算机科学家目前正致力于这一壮举。

乔治亚理工学院的Ronald Arkin(罗纳德?阿金)正在试图使机器遵守国际人道法。在这种情况下,有一个巨大法律指令需要机器去遵守,这些法律已经被人类开发出来了。Ronald Arkin(罗纳德?阿金)认为他的项目将在未来的几十年内完成。

他的工作在机器学习方面,很大程度上依赖于自上而下的编码,所以,你不想让某个人进入某个军事领域,就可以编码。

同时, Susan Anderson(苏珊安德森),是一位在康涅狄格大学的哲学教授,与她的丈夫Michael Anderson(米迦勒安德森)一起工作,她的丈夫是在哈特福德大学的计算机科学教授,他们一起致力于发展能为老年人提供伦理关怀的机器人。Anderson(安德森)的做法更加依赖于机器学习,而不是像普通大众学习,机器至于有道德的人交互。

我们有义务让这些好的道德品质保持,因此,在它们冲突的情况下,它们必须学会平衡和防止相互攻击。

Anderson(安德森)利用机器学习机器人去开发老年保健原则。在一个案例中,他们创造了一个智能系统,来决定当一个病人拒绝接受医疗保健工作者的建议 时,这个是不是道德的行为。医疗工作者是否应该尝试说服病人接受治疗?这涉及到许多复杂的道德责任,包括尊重病人的自主权,对病人可能有伤害,并且可能对病人有益。

Anderson(安德森)发现一旦机器人已经被教四个具体场景的道德反应,然后在其余14个场景就可以做出合适的伦理决策。从这一点,它就能得出道德原则:“你应该试图说服病人,如果病人不接受建议的治疗,就有可能受到伤害,或者病人会失去相当大的利益。不只是一点点利益,而是相当大的利益,如果不采取建议的治疗。”

所以,加以训练,是能够创造出有道德的机器人的。

更多精彩内容尽在1号机器人网www.1hjqr.com

最新文章

取消
扫码支持 支付码