055:苹果的一周:新品、收购以及 AR 战略落地的第一步

本周围绕苹果的新闻动态参杂了太多情绪。

周一,库克现身中国,向中国媒体畅谈 iPhone 的未来,并在北京走访多个创业公司,引发一波波的自我 PR 照;周二的时候,苹果极其低调又令人失望地地发布了几个「新品」:红色的 iPhone 7/7P、低配版的 iPad 以及众多 Apple Watch 的表带;周三,苹果宣布收购 iOS 效率工具 Workflow,随后新一版 Workflow 不再支持 Pocket、Telelgram等多个 App,引发用户和开发者对于苹果未来如何整合 Workflow 以及 iOS 自动化前景的担忧。

如果以相对客观的叙述方式去回顾这周苹果的一系列动态,有几点是可以确定的:其一,春季发布会基本取消,虽然有消息称 4 月可能会在苹果新总部召开所谓的春季发布会,但倘若 4 月发布新品,6 月的 WWDC 大会马上就到,这个时间间隔实在是太短了。

其二,iPad 生产线的重新规划,iPad Mini 已死,至于传闻中的 10.5 英寸的 iPad 系列会不会出还有待观察,目前的 iPad Pro (两款)、iPad (一款)的规划会形成未来 iPad 系列产品组合。

其三,收购 Workflow 带来的想象空间很大,但相对于 2010 年收购 Siri 并迅速整合到 iPhone 中,Workflow 的整合速度或许并没有那么快,毕竟这并非一个足以让大众尖叫的功能,6 月的 WWDC 大会,iOS 11 也不会以此作为下一代 iOS 的杀手级功能。正如苹果在确认这笔收购的声明,整个表态未提及任何效率、自动化:

The Workflow app was selected for an Apple Design Award in 2015 because of its outstanding use of iOS accessibility features, in particular an outstanding implementation for VoiceOver with clearly labeled items, thoughtful hints, and drag/drop announcements, making the app usable and quickly accessible to those who are blind or low-vision.

参照过往苹果收购的习惯,首先,收购金额不会公开;其次,关闭产品线,整个团队迅速整合到苹果产品团队里。从这个角度去看,可以自由使用 Workflow 的时间已经不多了,像我这样的重度使用者,不得不考虑如何迁移大量的工作流程。

相比于上述新品和收购,紧随红色版 iPhone 7/7P 一并发布的一个应用 Clips 则暗含了苹果的巨大野心。

4569726ebc814b701aa5ad72954ce15a.jpg

简而言之,可以拍摄短视频的工具,你不需要了解什么是时间轴、声轨,你只需要按下拍摄按钮,然后添加各种滤镜、对话气泡、表情、音乐等,就能做出一个视频。

看起来,这是一个 iMovie 的简化版,以及 Snapchat 的克隆版。科技媒体 Mashable 这是这样的定义

Apple’s new video app is part Snapchat, part iMovie..

但 Mashable 还注意到了一点:整个 App 的设计是机器学习驱动的(and full of AI):

The first and most obvious place you’ll see this is the real-time video filters that make your clips look like a comic book or a pencil sketch, similar to what you’d see in an app like Prisma or Facebook’s ongoing camera experiment.

Clips also uses subtle image recognition to detect the faces of people you know (based on your contacts list) who appear in your videos. Similarly, if you say a friend’s name while recording, the app will register that as well. Recognized friends are then surfaced in a special area of the iOS share sheet where you can get one-touch shortcuts to send the clips via the Messages app. (Sort of like Apple’s version of suggested Facebook’s photo tagging suggestions.)

某种意义上说,Clips 肩负着 iOS 设备走向增强现实( AR )的艰巨任务。Bloomberg 梳理了苹果 AR 团队的重要成员:

  • Mike Rockwell,前杜比公司执行副总裁,目前负责苹果整个 AR 团队,直接向苹果硬件高级副总裁 Dan Riccio 汇报;
  • Fletcher Rothkopf,曾负责 Apple Watch设计;
  • Cody White,前亚马逊 Lumberyard 游戏引擎工程师;
  • Duncan McRobert:前 AR 公司 Meta 的软件开发总监;
  • Yury Petrov:曾在 Oculus 工作;
  • Avi Bar-Zeev:曾参与微软 Hololens 与 Google Earth 的工作;

至于这个团队的最终目的,当然是押注 AR 的交互方式,研发新一代 AR 设备,比如 AR 眼镜, 但 Bloomberg 的线人也表示,这个产品上市还有很长的距离。这也意味着,现阶段的苹果的 AR 战略,基本还是围绕 iPhone、iPad 摄像头周边的计划,也是此次推出 Clips 的真正意义。

也正如我在第 16 期会员通讯里对于 Snap 宣布自己是一家相机公司后的观点:从社会层面来说,相机改变过了人们对于事物所有权看法,如桑塔格所言:「拍摄就是占有被拍摄的东西。」

其次,相机又塑造了相机又塑造了我们看世界的方式。每个人的相机都是「处于如饥似渴状态的意识伸出的最佳手臂」,这些相机是对人类视力、记忆的延伸,更是一种与世界的关系,桑塔格将其描述为「一种慢性窥淫癖的关系,它消除所有事件的意义差别」

当快门按下,形成照片之时,整个世界已经领先这张照片几秒钟甚至几分钟。所以,你会很悲哀地发现一件事情:你的相机不过是在记录过去罢了,而且是精心挑选的过去。

这何尝又不是另一种增强现实呢?

也因此,Clips 的出现这更像是 AR 战略的第一步:用 iOS 摄像头切入这个市场,仿照 Snapchat 的社交化思路,通过社交化传播方式扩大用户规模,毕竟,iPhone、iPad 的用户群体广泛,相较于苹果过去在以功能推动硬件销售的策略[1],Clips 对于硬件的要求更低。而从去年的 iOS 10 开始,苹果的机器学习策略开始发生一些变化,不再仅仅局限在之前强调的所谓「设备智能」[2],这些变化都让 Clips 有着光明的前景。


  1. 比如 live photo 就作为 iPhone 6s 时的重要功能卖点。  ↩
  2. 关于这点,可可参考我在去年写的一篇文章《一文读懂苹果和Google 的人工智能理念、布局和预期》  ↩