沸沸扬扬的 Google 与五角大楼人工智能合作争议基本终于有了答案。负责 Google Cloud 的高管 Diane Greene 在 6 月 3 日宣布,Google 在该项目合作到期后,不再继续参与其中。
而上周,Google CEO 皮查伊透过官方博客进一步介绍了 Google 对于未来人工智能的使用原则和底线,以下是科技媒体爱范儿的翻译:
- 对社会有益。
- 避免制造或者加深不公平的偏见。
- 在开发中进行测试以确保安全。
- 对人类负责。
- 隐私原则。
- 坚守对卓越科学的追求。
- 在使用中考虑首要用途、技术的独特性及适用性、使用的规模这三个因素。
四个底线包括:
- 对于那些将产生或者导致伤害的整体性技术,我们会确保其利大于弊,并将做好确保安全的相关限制。
- 不会将 AI 用于制造武器及其它将会对人类产生伤害的产品。
- 不会将 AI 用于收集或使用用户信息,以进行违反国际公认规范的监视。
- 不会将 AI 用于违反国际法和人权的技术开发。
Google 这一系列举措旨在摆脱自己被包装为战争帮凶的形象,同时也希望人工智能行业内部形成一个共识,将人工智能用在所谓「好」的方面,多做些对社会「有益」的事情。
但事情绝非这么简单。