AI 几个可怕行为背后,折射的是人类无能与无知

ZDNet 上周有一篇很有趣的文章,提到人工智能领域 9 个毛骨悚然的案例。文章链接在这里,感兴趣的读者可以直接点开阅读,我在这里仅就其中的几个案例做一些简要分析。

如果每个案例用一句话来概括,大概是这个样子的:

  1. AI 程序同类相食;
  2. FB Chatbot 创造了自己的语言;
  3. 被人类教坏的 Twitter 机器人 Tay;
  4. Google Assistant 之间的「对话」;
  5. 机器人 Sophia 对人类命运的「预言」;
  6. Target 超市的精准预测;
  7. Tay 2.0 继续被人类教坏;
  8. 将乌龟识别成为来复枪的图片识别应用;
  9. 特斯拉自动驾驶系统将前方卡车识别成天空,造成的车毁人亡。

类似这样数字开头的文章,无论中文还是英文,不管内容质量如何,都有着不小的传播能量。仅就 ZDNet 的这篇文章来看,还是有几个值得探讨的地方。

首先,Target 超市和特斯拉的案例,放在人工智能领域多少有点牵强。前者更多的数据挖掘,而且是 2010 前后的事情,当时被认为是「大数据」的一个重要应用案例,现在被包装为人工智能智能决策的「新故事」。

而后者,根据最后美国国家安全交通局的报告,特斯拉车主的这起事故,与特斯拉自动驾驶系统没有关系,而是驾驶员在自动驾驶系统已经发出提醒的时候,没有及时采取刹车措施,最终造成了惨剧。

img

其次,关于 FB Chatbot 创造了「语言」的事儿,则是媒体的误解。这事是 Facebook 人工智能实验室用生成对抗网络(Generative Adversarial Networks)开发了一套系统。简单来说,Generative Adversarial Networks,很多人简称为 GNN,可以理解为两个神经网络相互对抗的架构,利用这个架构,可以快速提升整个系统的智能水平。

而所谓机器人产生了新语言,Facebook 人工智能实验室是这样解释的:

While the idea of AI agents inventing their own language may sound alarming/unexpected to people outside the field, it is a well-established sub-field of AI, with publications dating back decades.

Simply put, agents in environments attempting to solve a task will often find unintuitive ways to maximize reward. Analyzing the reward function and changing the parameters of an experiment is NOT the same as “unplugging” or “shutting down AI.” If that were the case, every AI researcher has been “shutting down AI” every time they kill a job on a machine.

该研究小组的成员之一,佐治亚理工学院的访问学者 Dhruv Batra 同时强调媒体渲染「AI 创造了新语言」的报道是「(骗取点击)的标题党以及不负责任的行为」。

从这个案例进一步引申,所谓 AI 程序同类相食的事情,也有夸大之嫌。这个案例来自 Quora 的回答,AI 研究者 Mike Sellers 回忆自己早年间在 DARPA 的一段工作经历。

Mike 设计两个 AI 程序,分别命名为「亚当」和「夏娃」,Mike 模拟了苹果树的场景,然后让两个 AI 程序吃树上的苹果,并将吃苹果这件事和感到愉快绑定起来,而吃其他的,如树、木头则不会感到愉快。

随后,Mike 又引入另一个程序,名字叫「斯坦」,这个 AI 程序被设置为「喜欢独处」,并经常在「亚当」、「夏娃」吃苹果的时候自己溜达。

然后就发生了一个惊人的一幕,当「亚当」和「夏娃」吃完苹果的时候,她们发现「斯坦」似乎也很好吃,于是两个 AI 程序开始轮流咬起了「斯坦」,最终「吃掉」了「斯坦」。

表面看起来,这个案例的确是「AI 程序同类相食」,但被忽视的一面则是,从始至终,这三个程序的设计和模拟过程,都是有人类参与的;每一次程序的操作所引发的权重变化(比如程序是否「感到愉快」),也是人类工程师所设定的。因此,发生上述场景,与其说是 AI 程序「觉醒」,倒不如说是程序设计的 Bug。

Mike 在这个回答的最后写道:

We had to reconstruct some of this after the fact from the agents’ internal telemetry. At the time it was pretty horrifying as we realized what had happened. In this AI architecture, we tried to put as few constraints on behaviors as possible… but we did put in a firm no cannibalism restriction after that: no matter how hungry they got, they would never eat each other again. We also fixed their body mass, how fast they got full, and changed the association with someone else from one of food to the action of eating: when you have lunch with someone often you may feel like going to eat when you see them again — but you wouldn’t think of turning them into the main course!

第三,可怕的 Tay,是人类社会丑恶面的真实体现。Tay 是微软在 2016 年 3 月推出的一个 Twitter 机器人,她的说话方式非常类似于十九岁的美国女性,然后通过和 Twitter 用户的互动(比如回复、转推)来进一步学习如何发表观点。

但很快,Tay 就失控了,比如下面这个回复,Tay 说出了「我在警察面前嗑药」。而其他的发言,还包括种族主义的言语。

img

接着,微软将其下线。微软最后也发表了公开道歉

We are deeply sorry for the unintended offensive and hurtful tweets from Tay…

Tay is now offline and we’ll look to bring Tay back only when we are confident we can better anticipate malicious intent that conflicts with our principles and values.

Although we had prepared for many types of abuses of the system, we had made a critical oversight for this specific attack. As a result, Tay tweeted wildly inappropriate and reprehensible words and images. We take full responsibility for not seeing this possibility ahead of time.

尽管随后 Tay 再次上线,也就是 Tay 2.0 ,但依然没有「从良」的迹象,最终微软将其永久下线。

在这个机器人「觉醒」的案例里,Tay 从「出生」开始似乎就是一张白纸,一如人类的孩子。而通过社交媒体的大环境,Tay 所「学」到的,只是一套污言秽语甚至种族歧视的语言,从这个角度去看,与其说这是一个关于人工智能的实验,倒不如说,这是一个关于社交媒体的社会实验。也从一个层面说明了一点:所谓人性的善恶,更像是环境所制造的结果。

第四,将乌龟识别成为来复枪这个案例,更有意义的解读则是当下人工智能尤其是图像领域的局限性。正如这个实验谈到的,「一像素攻击(One Pixel attack)」对于误导图像识别非常关键。比如在这篇论文里,研究者发现仅仅修改一个像素,就可以干扰 70.97% 的图像识别,因此论文作者认为,深度学习网络设计者必须考虑此类看似低维的攻击。

img

不久前也就有一个类似的案例。研究者在一个图像识别系统里设计了一个客厅的场景,系统非常正确地识别到椅子、人和书架(如上图)。接着,研究者将一个大象的图像引入到这个场景里,此时系统就开始出现了「故障」(如下图),比如在进行了一番「识别」之后,系统将椅子识别为沙发,而把大象识别成了椅子。
img

研究人员用「The Elephant in the Room」这样一个一语双关的标题发表了一篇论文。该论文认为,当下图像识别系统是不稳定的,而且一些局部变化还能引起全局影响,最终造成整个图像识别的错误。

综上来看,ZDNet 所选取的几个所谓 AI 可怕行为,除了一些被偷换概念的案例外,更多的「可怕」,则是媒体在报道上的误解与无知,以及在某些宏大命题,如人类被机器取代、人机对立上的炒作。

事实上,这些「可怕」更是人工智能当下局限性的真实写照。程序设计的不完善、算法的不透明以及 AI 程序生存环境之恶劣(参考 Tay 的遭遇),才是 AI 程序如此「可怕」的根本原因。

上周五的《纽约时报》上,两位 AI 领域的资深研究者 Gary Marcus 和 Ernest Davis 撰文指出,人工智能根本无力解决假新闻问题,虽然这篇文章是对扎克伯格寄希望于人工智能帮助 Facebook 度过难关的回应,但同样也可以用在本文的结尾,以回答所谓 AI 的可怕行为:

Understanding the significance of the passage would also require understanding multiple viewpoints. From the perspective of the international organization for scouts, making condoms available at a global gathering of 30,000 to 40,000 hormone-laden adolescents is a prudent public health measure. From the point of view of WND, the availability of condoms, like the admission of girls, gays and lesbians to the Boy Scouts, is a sign that a hallowed institution has been corrupted.

We are not aware of any A.I. system or prototype that can sort among the various facts involved in those four sentences, let alone discern the relevant implicit attitudes.