人工智能的新黑盒子

沸沸扬扬的 Google 与五角大楼人工智能合作争议基本终于有了答案。负责 Google Cloud 的高管 Diane Greene 在 6 月 3 日宣布,Google 在该项目合作到期后,不再继续参与其中

而上周,Google CEO 皮查伊透过官方博客进一步介绍了 Google 对于未来人工智能的使用原则和底线,以下是科技媒体爱范儿的翻译:

  • 对社会有益。
  • 避免制造或者加深不公平的偏见。
  • 在开发中进行测试以确保安全。
  • 对人类负责。
  • 隐私原则。
  • 坚守对卓越科学的追求。
  • 在使用中考虑首要用途、技术的独特性及适用性、使用的规模这三个因素。

四个底线包括:

  • 对于那些将产生或者导致伤害的整体性技术,我们会确保其利大于弊,并将做好确保安全的相关限制。
  • 不会将 AI 用于制造武器及其它将会对人类产生伤害的产品。
  • 不会将 AI 用于收集或使用用户信息,以进行违反国际公认规范的监视。
  • 不会将 AI 用于违反国际法和人权的技术开发。

Google 这一系列举措旨在摆脱自己被包装为战争帮凶的形象,同时也希望人工智能行业内部形成一个共识,将人工智能用在所谓「好」的方面,多做些对社会「有益」的事情。

但事情绝非这么简单。

本文是 Dailyio 面向会员的付费内容,如果您是会员,请登录后查看。或者通过这里成为付费会员获取这份内容。

Zhao Saipo

View posts by Zhao Saipo
赵赛坡,科技博客作者、资深科技观察家、付费科技评论 Dailyio 创始人、出品人,覆盖 3000+ 付费用户。 曾担任 TechTarget 中国区记者、频道主编、AI 自媒体「机器之心」前联合创始人。