AI 几个可怕行为背后,折射的是人类无能与无知

ZDNet 上周有一篇很有趣的文章,提到人工智能领域 9 个毛骨悚然的案例。文章链接在这里,感兴趣的读者可以直接点开阅读,我在这里仅就其中的几个案例做一些简要分析。

如果每个案例用一句话来概括,大概是这个样子的:

  1. AI 程序同类相食;
  2. FB Chatbot 创造了自己的语言;
  3. 被人类教坏的 Twitter 机器人 Tay;
  4. Google Assistant 之间的「对话」;
  5. 机器人 Sophia 对人类命运的「预言」;
  6. Target 超市的精准预测;
  7. Tay 2.0 继续被人类教坏;
  8. 将乌龟识别成为来复枪的图片识别应用;
  9. 特斯拉自动驾驶系统将前方卡车识别成天空,造成的车毁人亡。

类似这样数字开头的文章,无论中文还是英文,不管内容质量如何,都有着不小的传播能量。仅就 ZDNet 的这篇文章来看,还是有几个值得探讨的地方……

本文属于 Dailyio 会员专属内容,请登录您的会员账号或者订阅 Dailyio 会员查看全文。

作为 I/O 会员计划的 2.0 版本,Dailyio 定位于一个由会员付费支持的内容产品,也努力打造一份深度洞察和全球视野的科技商业评论

订阅 Dailyio 会员后,你的会员邮箱每周会收到至少 2 篇(每篇不低于 2000 字)独家科技商业评论,文章内容将围绕当天全球范围内的科技事件,解读其背后的产业和社会意义。

这些内容不会停留在事件表面的人云亦云,我希望提供一个多元化、多维度以及全球性的分析角度,探索科技、互联网之于当下与未来的深刻影响。

你可以通过这些文章,看看是否合自己口味:

同时,Dailyio 旗下的 Weeklyio 专栏,每周还会提供开放、免费文章,点击这里可以查看,如果你喜欢这些文章的选题和风格,那么一定会喜欢 Dailyio 的会员专属内容。

赵赛坡

View posts by 赵赛坡
科技博客作者、播客主持,Dailyio的创始人、出品人。独立运营付费科技评论「Dailyio」,关注诸如人工智能、云计算、自动驾驶等新技术,更关注技术之于社会、个体的意义。