如果你细心留意最近一两年人工智能领域的进展,不难发现一个颇为有趣的现象,如果说 2016、2017 年是这个概念被炒作、被「PPT 化」的时间段,那么到了 2017 年下半年,尤其是从 2018 年元旦到春节这段时间,人工智能领域的热度「意外」地被区块链、比特币以及其他加密货币所取代。
这个关注度的转变直接引发了两个深刻的变化:其一,所谓 AI 创业不再是最炫酷的领域,这意味着融资变得困难;其二,随着 AI 热度的下降,从创业者、巨头到投资人,都开始关注人工智能的落地实践,由此也奠定了 2018 年人工智能发展的总基调:从产品到客户、从技术到案例、从影响 C 端消费者到惠及 B 端企业。
麦肯锡 AI 报告
我曾不止一次地在 Dailyio 会员通讯里谈过这个变化,同时我也多次表示,这其实是一个非常利好的变化。通过这个变化,可以让全行业对于 AI 的边界——能做什么、不能做什么——有一个正确的认知,不管是从短期的行业应用还是中长期的全行业 AI 化都有巨大好处。
在本月麦肯锡发布的一份分析报告里,也对 AI 边界做了一番分析。首先,AI 所带来的经济变革,具有巨大的经济效应,麦肯锡给出的一个数字:未来,AI 将在 19 个垂直行业里每年创造出 3.5 万亿到 5.8 万亿美元的价值。
所下图所示,旅游、运输/快递、零售将是最有可能被 AI 驱动进而快速增长的行业。
在下图里,可以进一步看到未来 3 年不同行业对于 AI 的投入变化。
事实上,AI 之于行业以及国家经济发展的判断已经得到越来越多的关注。
根据加拿大政府本周发布的一条消息,今年 12 月份加拿大将举办 G7 成员国的人工智能峰会。虽然目前的具体日程还尚未公布,但有个细节值得关注,此次会议将在加拿大蒙特利尔举行,会议举办地和举办时间基本也和 NIPS(Neural Information Processing Systems)重叠,后者是深度学习、机器学习领域最大规模的年度会议,两个会议之间会不会擦出一些火花,也非常值得期待。
其次,要实现上述的美好远景,当下 AI 也面临诸多困难。比如当下人工智能发展的「主力部队」其实是机器学习,它不仅需要海量的数据,还需要大量由人类参与并标注的数据,倘若没有这些标注的数据,所谓机器学习、深度学习的算法几乎没有任何用武之地。
再比如机器学习决策的「黑盒子」效应,算法的不可解释性让 AI 决策的道德边界受到质疑,尤其是在算法设计过程中,人为的偏见,从种族到性别再到年龄、职业的偏见,是否会影响最终决策的公平、公正,一直是行业关注的话题。
由于日益成长的市场需求,特别在欧盟 GDPR 出台后,基于数据的 AI 决策亟需解释。包括 IBM、微软等公司都在试图解开这个「黑盒子」里的秘密,以 IBM 新发布的 OpenScale 为例,这个基于云端的 SaaS 产品,可以去扫描、检测系统中的 AI 产品,从中检测出可能的决策偏见并提供相关解释,但这个领域还处在相对早期的阶段,离完美解释一个 AI 决策还有相当长的时间。
AI 与 FB 的新「战斗」
尽管没有足够的证据证明,俄罗斯人利用 Facebook 操纵了两年前的美国总统大选,但 Facebook 上泛滥的假新闻、仇恨内容已经是不争的事实。
随着 11 月份美国中期选举即将到来,Facebook 也拿出了应对策略,他们设立「War Room(选情战情会议室)」,这个会议室成员来自 20 多个产品团队,包括情报分析、数据科学、运营、法律政策以及产品人员,他们的目的就是快速定位 FB 信息流里的选举相关内容,鉴别到底是虚假内容还是仇恨言论。
本周 FB 邀请众多媒体参观了这个位于 Facebook 总部的会议室,你可以在这里查看 CNN 的视频报道。
《纽约时报》曾在一个月前做过一次独家探访,并介绍了运作模式:
Once a problem reaches the War Room, the dashboards will be set to spot and track unusual activity, while data scientists and security experts take a closer look. Mr. Chakrabarti said the team was particularly on guard for posts that manifested “real-world harm,” and planned to remove posts that tried to disenfranchise voters by giving incorrect polling data or spreading hoaxes like encouraging people to vote by text message.
简而言之,面对各方压力,扎克伯格的 Facebook 已经放弃了一贯以来所坚持的「技术至上」主义,试图通过人力来弥补技术,尤其是 AI 的不足。
如果回顾 2018 年扎克伯格在 Facebook 未来发展与 AI 技术之间的表态和行动,也可以进一步看出当下人工智能的局限性。
4 月初的国会听证会上,扎克伯格表示会持续推进人工智能应对仇恨言论的研发工作:
Zuckerberg said that the company is increasingly developing AI tools to flag hate speech proactively, rather than relying on reactions from users and employees to flag offensive content. But according to the CEO, because flagging hate speech is so complex, he estimates it could take five to 10 years to create adequate A.I. “Today we’re just not there on that,” he said.
但对于当下,扎克伯格承认,还需要大量人类员工来解决这类问题:
For now, Zuckerberg said, it’s still on users to flag offensive content. “We have people look at it, we have policies to try and make it as not subjective as possible, but until we get it more automated there is a higher error rate than I’m happy with,” he said.
为此,FB 将在今年年底将内容审核人员扩充到 20000 人。
4 月底的财报分析师会议上,扎克伯格说出的这段话多少令人不适:
One of the pieces of criticism we get that I think is fair is we’re much better able to enforce our nudity policies, for example, than we are hate speech,The reason for that is it’s much easier to make an AI system that can detect a nipple than it is to determine what is linguistically hate speech, so this is something I think we will make progress on and we’ll get better at over time. These are not unsolvable problems.
撇开这句话的表述是否恰当,这里反应出了人工智能在产业界的困境:计算机视觉的发展速度远远快速自然语言理解。
而这段表述也成为今年 5 月 Facebook 年度开发者大会 F8 的主旨,Facebook CTO Mike Schroepfer 又一次强调,人工智能将成为保证 Facebook 社区安全运行的重要工具。比如他在接受 Wired 记者采访时这样说道:
If I told you that there was a human reading every single one of your posts before it went up it would change what you would post……
我曾在当时的会员通讯里指出了一点:
也正是这样的假设,构成了今后 FB 应对舆论质疑的重要观点,这是硅谷对于技术、效率的迷恋,FB 也将自己的未来与人工智能的未来,尤其是自然语言理解的未来捆绑在一起。
但正如 Quartz随后所报道的那样,很多分析师并不认同扎克伯格对于「AI 一定会拯救 FB」的承诺:
“Mark Zuckerberg is being realistic when he says ‘we will have A.I. tools that can get into some of the nuances’ in 5–10 years, but there are a lot of nuances and not all of them will be able to be automated away,” Babakar says.
Other researchers disagree on Zuckerberg’s timeline, with the disclaimer that technological predictions are always difficult to make.
这一系列略显乐观的承诺随着 7 月份新一季财报的数字而失去任何意义,当 FB 高层认为由于众多原因(包括操纵选举的指控、剑桥分析分析滥用用户数据等),导致用户增长以及用户活跃度下降后,FB 的股价也应声下跌,创造了有史以来美国股票单日的最大跌幅纪录。
一个可以遇见的情况是,Facebook 还将持续在人工智能领域发力,比如上月推出有屏智能音箱 Portal,就试图通过社交与视频、图像技术的结合,进一步增加用户粘性;再比如其在 AI 基础研究的投入,根据福布斯的报道称,预计到 2020 年,FB AI 实验室人员的规模将翻番,从现在的 200 人左右增长到 400 人,这些研究成果,包括图像、自然语言理解的研究突破,都会应用到 Facebook 产品中。
但另一个显而易见的问题也摆在 FB 面前,AI 技术的局限性,目前尚无法让这个庞大的社交媒体自动化运行,还需要巨大的人参与其中。而且这也远非过往仅仅依靠底层甚至第三国家的审核员可以应付,「War Room」如此高的科学家、工程师配置,目前也尚不知晓能否应对即将到来的中期大选,那么两年后的总统大选呢?如果类似「War Room」成为一种常态,Facebook 是否也应该重新定义 AI 的位置呢?这一切疑问只能留个时间来回答了。
Google 如何赋予手机相机 AI 能力
本月,随着 Google Pixel 3 系列和华为 Mate 20 系列手机的发布,2018 年的智能手机「军备竞赛」已经落幕。全球范围内的几个玩家,包括苹果、三星、华为、Google 都拿出了不同的解决方案,在撇开外观、性能对比之后,如果将目前消费者最看重的相机来进行对比,则呈现出三大阵营:
- 苹果、三星:软(调教算法)硬(摄像头配置)均衡并一体化;
- 华为:优先保证硬件配置,其次是软件的优化;
- Google:AI 算法优先,硬件配置或许无所谓;
上述三个阵营里,Google 的做法略显极端,但如果你领教过 2017 年 Pixel 2 的成像效果,或许你也会惊叹到 Google 为何能在一个后置摄像头的前提下,做出一个如此强大的手机相机。
在本月中旬发布的 Pixel 3 系列里,Google 继续以一个后置摄像头横行天下。硬件层面,Google 在 Pixel 里继续内置了一个专属的图像处理器,在这个基础之上,将 Google 的 AI 能力,尤其是计算机视觉能力,输出到这台小小的手机上。
据两个例子,Top Shot,类似于 iPhone 中的 Live Photo,会记录用户按下快门前后的几秒图像,但 Google 做到了一点:让手机自动帮助用户挑选最好看的照片。
另一个就是 Night Sight,也就是夜视功能,不同于其他手机夜拍时的多张合成,而是通过对大量图片的机器学习,Pixel 3 的相机可以自动增强照片的颜色,所带来的就是更好的夜拍成效效果,下图就是一个非常直观的案例对比。
其他的创新功能还有很多,详细的介绍可以参加这篇文章。过去一年多时间,围绕手机拍照领域的变化非常快,华为利用硬件堆积加软件调校走出了一条全新的道路,也引发了行业的震动。而 Google 继续坚持 AI 唯上的理念,不断将过往基于云端的图像处理能力——如果你用过 Google Photo,一定会机器自动修复的照片所震撼——下沉到智能手机上,也给整个行业带来新的思考:到底 AI 给予智能手机拍照的提升,是仅仅局限在后期的磨皮还是前期的成像?以及,当 AI 拍照的场景识别逐渐沦为积累的时候,AI 还能如何主动、自动给相机带来质的变化?(完)