我曾在多期会员通讯里强调,深度学习不过是机器学习众多算法的一种,更无法直接对等于人工智能。人工智能资深从业者、Anfy srl 公司 CEO Fabio Ciucci 日前撰文指出,深度学习远非人工智能的未来,这个行业还需要更多创新,以下是我对这篇长文的解读。
某种意义上,深度学习是只是机器学习的 1%,而机器学习则仅仅是人工智能的 1%。
但现实里,「深度学习」继续扮演着人工智能的代名词。部分原因在于包括 Google、Facebook 等硅谷企业刻意营造的一种氛围——由于这些公司几乎都在应用深度学习,因此将深度学习引申到人工智能的高度。
比如, AlphaGo 就一次次登上媒体头条并被媒体冠上「深度学习」驱动,但故事的另一面则是,AlphgGo 的成功更离不开蒙特卡洛决策树的作用。更颇具讽刺意义的是,比如像 XGBoost 这样的决策树算法在多个领域都要比深度学习有更好的成绩,但因为缺乏大公司以及媒体的关注,从而也无法真正证明自己。
二
这里并非否定深度学习的作用,事实上,人工智能过去几年能够重新引发公众的热情,的确离不开深度学习所带来的重要作用。但我们依然可以期待新的算法可以解决深度学习本身的「黑盒子」难题,也就是即便可以解决一个问题但无法解释为何要这样做,想象一下,倘若真的将这个「黑盒子」应用在法律问题或者自动驾驶上,会面临怎样的尴尬?
另一方面,深度学习系统过分依赖于训练数据,而不会过分关注数据的真假、现实社会数据还是虚拟环境数据。当然,人类也会相信虚假新闻,但这种认知往往有其一定的环境,比如年龄、比如学历,而深度学习系统对于数据的认知,永远停留在一个维度。
而如果我们去翻阅历史,20 年前,HTML 可谓全球最热门的标记语言之一。但 HTML 随着移动互联网的兴起而逐步衰弱,就像现在移动 App 里很少提及 HTML 的一样,留给深度学习的时间也不多了。
深度学习的历史可以追溯到上世纪 70 年代,通过隐层的神经网络来训练数据,能够带来更好的训练效果,而且数据越多,成绩也越好。这与今天的情况十分类似,所不同的是,摩尔定律让计算能力变得强大而又廉价,移动互联网让数据量、数据类型成为取之不尽的资源,这些进步都让深度学习算法层面的改进变得微不足道。
尤其是,深度学习的各个分支版本,不管是卷积神经网络、递归神经网络还是长短时记忆,都无法解决其自身固有的难题,也就是解释为何做出这个决策。
这种解释能力的缺乏严重制约了深度学习的应用场景,同时也给大量使用深度学习的公司带来隐患,比如当 Google 面临欧盟反垄断调查时的首要问题是:为什么这个搜索结果要排在另一个结果之前?再比如,当越来越多标榜将深度学习应用到金融领域的场景里,当用户的贷款请求被深度学习算法所驳回时,能否解释这其中的理由到底是什么?
又或者一个极端的案例。你可以让机器学习 100 本书的内容,其中 40 本书的内容是关于战争、死亡是坏的,另外 60 本书则是关于希特勒的纳粹观点非常正确,那么这个被训练出来的机器(程序)就是 100% 的纳粹分子,但这个程序不会告诉你为何会成为这样的结果,是因为这些内容的四六分布导致这样的结果?还是因为希特勒的观点过于吸引人?
三
深度学习的另一个困境是对数据无节制的需求。但现实是,数据保护已经开始在全球范围内展开,从 2018 年 5 月 25 日开始,欧盟将实行有史以来最严格的数据保护措施,这份名叫《通用数据保护规范(General Data Protection Regulation,GDPR)》的要求,无论公司总部在哪儿,无论数据存储和处理地点在哪儿,只要与身处欧盟的人做生意,或者监视欧盟公民的行为,就必须遵从GDPR。再进一步解释:如果你收集欧盟公民的数据,你就受到GDPR的管辖。
这项法规对于数据保护范围大大扩展,包括基因数据、电子邮件、IP地址等等。而且,用户可以对由各家公司保存的受保护数据有更细致的权力。各家公司对用户的邮箱、电话号码等具体信息的使用必须得到用户的明确同意,而将它们做为整体使用也必须得到明确同意。
这对欧洲的深度学习企业以及在欧洲开展业务的中美企业来说,毫无疑问都是一个坏消息。如果在没有得到用户授权的情况下使用相应数据,其将面临全球营收的 4% 的重罚,请注意是全球营收的 4%。当数据量再次成为企业部署深度学习的重要障碍时,这些企业或学术机构的发展路径也会发生相应的变化。
更重要的一点,在 DDPR 规定里,倘若算法拒绝了一笔贷款的请求,人类员工必须介入其中,了解为何做出这个决策,但现在这个举措有两方面的问题,其一,人类根本无法精确解释算法的做法里;其二,倘若人类从头开始搞清楚算法做出如此决策的原因,原本为了提升效率的算法模型事实上成了增加成本的鸡肋。
四
不久前,IBM Watson 在被引入美国法院审判时也出现诸多争议,由于过往数据显示黑人犯罪比例高,导致 Watson 在决策时常常像人类法官一样做出带有偏见性的决策。而在一个男权之上的社会,大量公司高管都是男性,此时倘若引入深度学习作为招聘工具,则很有可能招来更多男性。
这种根深蒂固的偏见几乎普遍存在于所有的机器学习算法中,但很显然,深度学习最难测试与调整,同时又由于其广泛的应用场景变得更加引人瞩目,微软几次三番上线在 Twitter 上线聊天机器人,又几次三番地下架,其原因就是当一个深度学习应用程序面临真实社会场景时[1],其所做作为已经超出了应用开发者的控制,甚至都无法让其「浪子回头」,唯一的做法就是下架。
你当然可以说这不是算法的问题,而是社会环境的自然映射,可问题的关键在于,围绕人工智能,甚至围绕机器学习,还有大量的选择余地,深度学习不应该、也没有这么大能力承担如此重大的任务,在人类迈向智能社会的伟大征程之中,我们理应有更好的工具。
- 一个有趣的事实,微软在中国的聊天机器人小冰,由于国内严格的言论控制,反而没让这个机器人学坏。 ↩