当前位置: 时代头条 > 正文

人工智能:信任之惑

What It Will Take for Us to Trust AI

人工智能:信任之惑

处于发展初期的人工智能(AI)已经引发了一些不加掩饰的焦虑。备受尊重的技术专家和商界领袖纷纷对(负责任的)AI研发表示担忧;好莱坞则抓着反乌托邦式的人工智能故事百拍不厌。

这并不新鲜,也并非不可理喻。不管是发生在科技领域还是发生在其他领域,改变总是会激发人们的想象力。改变也往往会让我们有些手足无措。

不过以我之见,在造福社会方面,AI的潜力比我们已知的所有科技都要大。AI系统可以从浩如烟海、复杂无序的信息中学习,并将这些信息转化为可以付诸行动的见解。有了AI系统,从日益增长的电子数据中——每天增长千兆兆字节——找出治愈癌症、掉转气候变化趋势、解决全球经济复杂问题的秘诀就不是天方夜谭了。

我们也可以期待,区区数年之后,用AI系统来协助我们作出职业、人生选择的技术就会普及。其实,许多行业和政府已经开始这样做了。不过,如果我们想要尽享人工智带给社会、行业带来的红利,我们首先需要信任它。

任何人际关系中,信任都是慢慢培养出来的,人类对AI系统的信任也会是如此。简单地说,我们会信任那些行为方式与我们所设想的一致的事物。但这并不意味着光靠时间就可以解决AI领域的信任难题了。AI系统必须从一开始就被制造成这样的模式:和人类建立以信任为基础的关系,并在这个框架中运行。

当务之急是找出AI系统中的偏见并将它最小化。偏见会经由训练用的数据或算法被导入AI系统。用来训练AI的是经过专人审核过滤的数据,而这些数据可能包含偏见,比如对于某一特定族群的偏见等,这可能是因为数据本身有偏差或,也可能是因为审核过滤数据的人在筛选过程表现出了自己的偏见。处理这项信息的算法也可能含有偏见,它们被研发者有意或无意地写入了代码之中。研发者们目前才刚开始正视这个问题。不过大多数专家都相信,通过对这些系统进行全面的检测,我们能够在系统投入使用前找到偏见、减少偏见。

在管控偏见之上,更高层次的问题在于算法的可依据性。这是指AI系统必须能够解释它们是怎么得到某一结论的,又是为什么得出了这一结论,这样人类才能够评估这个系统的理论基础。为了保证决策过程的透明度,也为了让责任变得可控,医药、金融、法律等许多领域已经把以证据为基础的审计能力纳入了日常要求之中。很多时候,AI系统可能会需要在对话中(而不是在报告里)解释它们的原理,这样人类才可以需要了解多少细节就了解多少细节。

另外,AI系统能够也应该配备这样的机制:根据当下的情境,比如任务、个人、领域、文化,使用一套恰当的道德理念。这并不像听起来这么困难。道德系统是围绕规则来建立的,就像电脑算法一样。这些规则可以在研发、配置、使用过程中添加。而且因为这些系统有学习能力,研究者相信,经过一段时间,AI系统就可以通过观察人类行为来自行填补部分的空缺。

以既满足行业需求又满足大众需求的方式来应对这些问题,这是AI系统研发者的责任。这一点在科技行业中也已经完全得到了认同,IBM也正是因此才会和自己最强劲的一些竞争者合作——包括谷歌、微软、亚马逊、脸书——开展“AI伙伴”计划。这是一个独特而开放的合作计划,旨在引导人工智能领域的道德走向。

对于正在考虑使用人工智能的商界领袖们来说,他们应该要把信任和可依据性纳入判断使用与否的标准当中去。他们还应该在这两点上考虑周全:这项科技要怎样被引入整个体系,要在体系的哪些地方使用。他们也应该与技术提供商合作,将他们不希望AI出现的行为找出来,并且在必要的情况下对这些行为进行纠正。

但是,我们绝不可以就此推迟对人工智能的应用。我们每天都因为明明能够知道却没能知道的事情付出巨大代价:我们不知道病人的身体是哪里出了问题,不知道某个重要的自然资源在哪里能找到,业不知道全球经济中隐藏了哪些危机。我们相信,对于许多这些不够明确、徒劳低效的事情,人工智能大有可为。

人工智能无疑是一项强大的科技。像对待所有强大的科技一样,在它的研发和配置过程中,我们必须格外用心。应用这项科技去解决与社会相关的复杂问题,这是我们的职责,同样地,在研发它时,采用让它可以培养信任感、守护人类的方式,这也是我们的职责。换句话说,建立信任感对于人工智能的应用至关重要。我们也相信,人工智能的应用对于人类来说也至关重要。

格鲁·巴纳瓦系IBM认知计算首席科学官。

最新文章