Google 的 AI 伦理探索之路、欧盟出台 AI 伦理指南以及三个核心议题

AI 伦理监管的探索还将继续,欧盟委员会数据代表 Andrus Ansip 的这句话颇为应景:

The ethical dimension of AI is not a luxury feature or an add-on. It is only with trust that our society can fully benefit from technologies……

本文是 Dailyio 面向会员的付费内容,如果您是会员,请登录后查看。或者通过这里成为付费会员获取这份内容。

被贩卖的 AI 片面性,你需要认识人类自己还是认识机器?

如果将讨论继续下去,会涉及越来越多的心理学、哲学以及伦理学知识,不过有趣的是,这些看似是围绕机器该做什么的讨论,其落脚点都在人类身上,或者可以这样理解,上述讨论只回答了问题的一个答案:人类到底是什么?

但这个问题还需要另一个答案,那就是怎么回答「人工智能/机器学习到底是什么?」

本文是 Dailyio 面向会员的付费内容,如果您是会员,请登录后查看。或者通过这里成为付费会员获取这份内容。

人工智能的新黑盒子

沸沸扬扬的 Google 与五角大楼人工智能合作争议基本终于有了答案。负责 Google Cloud 的高管 Diane Greene 在 6 月 3 日宣布,Google 在该项目合作到期后,不再继续参与其中

而上周,Google CEO 皮查伊透过官方博客进一步介绍了 Google 对于未来人工智能的使用原则和底线,以下是科技媒体爱范儿的翻译:

  • 对社会有益。
  • 避免制造或者加深不公平的偏见。
  • 在开发中进行测试以确保安全。
  • 对人类负责。
  • 隐私原则。
  • 坚守对卓越科学的追求。
  • 在使用中考虑首要用途、技术的独特性及适用性、使用的规模这三个因素。

四个底线包括:

  • 对于那些将产生或者导致伤害的整体性技术,我们会确保其利大于弊,并将做好确保安全的相关限制。
  • 不会将 AI 用于制造武器及其它将会对人类产生伤害的产品。
  • 不会将 AI 用于收集或使用用户信息,以进行违反国际公认规范的监视。
  • 不会将 AI 用于违反国际法和人权的技术开发。

Google 这一系列举措旨在摆脱自己被包装为战争帮凶的形象,同时也希望人工智能行业内部形成一个共识,将人工智能用在所谓「好」的方面,多做些对社会「有益」的事情。

但事情绝非这么简单。

本文是 Dailyio 面向会员的付费内容,如果您是会员,请登录后查看。或者通过这里成为付费会员获取这份内容。