No021 专题:数字科技开启娱乐新时代

编号021

专题:数字技术开启娱乐新时代

序列化02

如何应对黑盒AI

系列报告

深度学习是一种扩大神经网络规模的方法,可以解决难以以更高准确度查看数据趋势的复杂问题。通过分析结构简单的神经网络中神经元之间连接的强弱,似乎可以在获得图像识别的答案后,大致了解人在做出决定时关注哪些方面。然而,随着神经网络层数的增加,底层的决策规则变得更加难以破译。

此外,当前的人工智能可以根据复杂的条件做出决策,同时考虑数十到数百个参数。当人类做出决定时,他们会通过关注几种类型的参数来简化问题并得出答案。人类几乎不可能理解人工智能决策背后的原因,因为人工智能会仔细考虑无数参数。

即使我的判断犯了严重错误,我也不知道为什么

现在,不知道人工智能给出的答案的基础有哪些缺点?总而言之,存在一些不便之处,导致人们在最想利用人工智能力量的领域犹豫是否使用人工智能。

智能音箱和智能手机上提供的个人助理(例如 Apple 的 Siri、微软的 Cortana 和亚马逊的 Alexa)使用基于 AI 的语音识别功能。尽管这些人工智能的识别率有了很大提高,但仍远未达到完美。即使你问了一个问题,也有很多情况是你问错的。但即使你的私人助理误解了你,除非你是工程师,否则你可能不想知道原因。这是因为不会出现重大问题或损坏。

然而,在某些情况下,本以为即使 AI 做出错误决定也不会出现重大问题的应用程序却出现了重大问题。例如,存在基于图像数据搜索相似图像的搜索服务。通常,我们倾向于认为即使图像识别软件误识别了图像,也不会造成任何大问题。即使搜索结果与指定图像不同,您也可能会觉得搜索精度不好。然而,在一个案例中,一家IT公司开发的图像识别服务在确定一名黑人女性面部图像是大猩猩后,因人权原因被迫暂时停止运营。如果发生这种情况,服务和运营公司的信誉将会下降。如果机器出现缺陷,通常的做法是调查原因并考虑对策。然而,目前的人工智能并没有具体说明其决策的原因,因此很难调查原因。

事实上,深度学习存在“过拟合”以及黑盒处理等棘手问题。学得越多并不一定能提高判断的准确性。例如,在上面的图像识别示例中,用作训练数据的照片故意由大部分白人制成,这导致计算机在没有意识到的情况下得知白人面孔是人脸。你学得越多,你就越会被针对学习数据中包含的意外偏差的特定决策规则所铭记。然后,图像识别最终会做出与我们最初想象不同的判断。如果人工智能能够为其决策提供理由,那么这些错误的原因就会被弄清楚,并可以迅速采取行动。

您对AI给出的答案满意吗?

此外,在人工智能有望应用的领域中,令人惊讶的是,有很多情况人们不仅想知道答案,还想知道答案的基础。

例如,人工智能会读取简历上的内容,并将大量申请人缩小到少数候选人进行面试。既然应聘者的范围缩小了,自然会有很多人被判定不被AI录用。被拒绝的人一定想知道自己为什么被拒绝。即使公司的决定不能被推翻,拒绝的理由也可能包含需要改变的暗示。不过,AI的判决中并没有提及拒绝的原因。由于人工智能的判断是客观的,因此有一种安全感,招聘标准不会混入主观性和偏见,但很多人可能会在不知道原因的情况下不满意。首先,如果雇用某人的公司不知道他们为什么雇用他们,他们就不知道如何充分利用该人。

还有更严重的情况。当登记为器官捐献者的人死亡并且选择合适的接受者进行器官移植时,就是这种情况。最近,人们正在考虑使用人工智能根据症状、血型、有无排斥反应等各个方面来选择最合适的候选人。被人工智能选中的患者不会询问他们为什么被选中,但继续等待很长时间而没有被选中的患者可能需要一个令人信服的解释来解释选择他们的标准。

此外,整合各种测试结果并诊断疾病的人工智能的开发正在取得进展。人工智能可以同时关注多种因素,或许能够比人类做出更准确、更早的诊断。然而,这些人工智能也没有提供其决策的理由(图 5)。患者能否根据诊断结果进行有风险的治疗?通常,患者在做出治疗决定之前会听取医生合乎逻辑且易于理解的解释。因此,当人工智能确定一个人生病时,解释该决定有效性的责任就完全落在医生身上。那时,如果你的医生说:“由于某种未知的原因,人工智能诊断出你患有糖尿病,你会怎么做?”我们立即开始治疗吧。”“你会怎么做?

[图5]诊断疾病的AI是否有可能在不提供诊断原因的情况下继续治疗?
来源:总务省公开资料、大阪大学科学产业研究所原聪先生《“AI解释”的现状与未来》
诊断疾病的人工智能是否有可能在不提供诊断原因的情况下继续治疗?

另一方面,人工智能在医疗领域的应用的一个例子是分析 X 射线等图像,以发现即使是经验丰富的医生也会错过的微小病变。在这种被称为图像解读的工作中,即使人工智能的判断依据未知,也不会有什么大问题。如果AI确定存在病变,彻底的重新检查可以提供可供医生做出诊断的数据。

我们为您带来 TELESCOPE 杂志的最新信息。推特