No021 专题:数字科技开启娱乐新时代

编号021

专题:数字技术开启娱乐新时代

序列化02

如何应对黑盒AI

系列报告

如何面对互不理解的伴侣

然而,当人类和人工智能共存时,会出现一个棘手的问题。很难理解AI合作伙伴为何做出这样的决定。这是一个不便之处,因为人工智能中导致决策结果的过程是一个黑匣子。

人工智能常常会给出超出人类想象的令人惊讶的答案和判断。而且,很多时候,人工智能比人类做出的答案和判断更正确。当人们提出意想不到的意见时,他们通常想知道为什么会得出这样的意见。这是自然的。如果不知道原因,根据人工智能产生的结果执行下一个任务的人就会怀疑是否可以按照最初设想的那样继续执行任务。然而,人工智能并没有告诉我们任何有关其决策的原因。人们只需相信人工智能的判断是正确的并执行规定的任务即可。

但是,不要忘记一些重要的事情。尽管人工智能经常做出极其正确的决定,但它很少犯错误。你不能完全相信它。因此,AI室友需要学习如何与安静的同事打交道,以及如何以不同于人与人之间沟通的方式与他们打交道。

这是当今社会面临的一个重大问题。展望人类与人工智能共存时代的到来,各行业、各专业角度纷纷探索如何有效利用人工智能这一黑匣子答录机。

配备人工智能的产品的用户并没有意识到他们正在培养人工智能

机器学习是现代人工智能的基础技术,具有一种称为“涌现”的特性。涌现是通过学习出现的新功能和属性的属性。换句话说,它的工作原理不需要设计师一步步手动指定人工智能的思维过程。正是这种突发性导致人工智能做出意想不到的决定。

新兴人工智能的功能和属性根据包含人工智能的设备的使用方式、拥有者以及放置位置的不同而有很大差异。对于不具有紧急属性的传统设备,设计人员可以完全控制设备的功能和属性。在诸如个人计算机之类的硬件和软件分离的设备中,可以通过组合每个设备的规格来自由地改变功能和属性,但是设备通常不可能达到意想不到的状态。

然而,就人工智能而言,功能会根据用户使用方式的不同而发生变化,而用户自己并没有意识到他们正在改变人工智能的功能。因此,一旦出现问题,责任归谁就变得极其不明确。如果人工智能长大后做出错误的决定,那么抚养它的人就会因为错误的决定而感到尴尬。

人工智能做出了设计师无意的决定

*1”的方法以防止过度拟合。

此外,近年来,出现了无需人工干预即可学习的人工智能,称为“强化学习”,这使得设计者越来越难以预见人工智能的功能和属性(图2)。强化学习是一种人工智能自行学习的技术,无需人类提供学习数据或数据指示的模型答案。 AI在使用环境中自行行动,收集数据,根据预先要求的结果的达成程度接收奖励(积分),并自主修改其学习行为以接收尽可能多的奖励。与传统人工智能相比,设计师参与的空间较小,因此虽然它可能会产生意想不到的优异结果,但它是一项麻烦的技术,很难保证功能和可靠性。

[图2]人工智能无需教师或教材数据干预即可自主学习的强化学习
(左)普通监督学习中的学习组合,(右)强化学习中的学习组合
创建者:伊藤元明
强化学习,人工智能无需教师干预或教材数据即可自主学习

[脚注]

*1
正则化:一种防止 AI 在学习时过度思考模型的数学方法。在学习的时候,对模型的复杂度进行惩罚,让模型变得尽可能简单。
我们为您带来《望远镜》杂志的最新信息。推特