TA的每日心情 | 奋斗 2019-11-19 15:09 |
---|
签到天数: 1 天 [LV.1]初来乍到
|
EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
AI,或许是苹果现在最不想听到的词汇。
& | {% F/ ]9 R2 x8 Q' j7 r
8 i' T6 T" t* o1 q曾几何时,苹果的Siri独步全球,让全世界都意识到智能语音助手并不是“人工智障”,而且也是最早将机器学习等人工智能技术融入系统功能里的手机企业,我想大家应该都还记得过去只有苹果的相册支持人像自动分类等功能。: C( y9 }, @' G: j+ T2 d: Z' w, @: O
/ ?$ \4 \1 u8 u; J# W1 @% U
除此之外,苹果在影像算法、预测输入、Face ID等多种功能上都大范围使用机器学习技术,优化功能的体验。甚至可以说,iPhone的成功除了A系列芯片的强大外,早就开始拥抱AI技术的iOS功不可没。7 ~: C, U0 H) V- x+ M* j0 ~3 V8 u
; E, N, |) l% \( A) K% B1 _: O$ ^
5 C$ N M: T6 P* l9 D
图源:苹果
- | P4 D( ^' A( _7 d9 j
( O9 x- f. Y' R/ U6 p/ i; B9 u但是,在进入AI大模型时代后,苹果似乎一夜间变成了落后者,刚刚结束的WWDC 2025上,苹果对AI服务的更新计划甚至可以用“乏善可陈”来形容。以至于WWDC首日结束后,苹果的股价直接来了个自由落体,从6月9日到13日,持续5天的WWDC让苹果的股价从9日的最高点205美元一度跌到196美元。
2 p6 v; \) z T- m) F8 W7 m" i8 p 5 b$ q4 H0 r) Z7 D9 N# X# P
虽然苹果一向不太在意短期的股价波动,但是市场以及用户的质疑也确实给苹果带去了不少压力,或许是有意也可能是无意,来自彭博社的一篇文章,揭示了苹果正在推进的多个AI项目。' ~9 K3 L; D( G5 v; c& X9 E* V1 g' O
I- _; K2 t6 M% [ k# X
其中一些是早已披露的项目,比如更智能且具备感知能力的Siri,也有一些是首次披露出细则,比如Knowledge聊天机器人,受此影响苹果股价有了短暂回弹。接下来,就让我们一起来看看苹果的AI蓝图里到底都有什么?
6 A$ ]0 j( W8 i 6 k& j" e+ p+ c) v1 g
三箭齐发!苹果AI蓝图曝光0 G+ ~" e- s9 A& I2 _* Q @' m
8 q8 I/ H: W. L; e% P3 M8 K L: S& E% o4 I d4 M
从文章透露的信息来看,苹果内部正在推动的服务型AI项目主要有三个:1、Siri 2.0;2、Knowledge聊天机器人;3、常驻助手(Copilot)。其中常驻助手是基于Siri打造的后台智能AI,并非独立的新AI助手。( l6 \3 Z! l+ \5 C8 ]
% V, I8 q. i" q其中Siri 2.0是苹果在WWDC上主要讲解的AI项目,有兴趣的朋友可以看看我们在10日发布的相关文章:AI Siri来年再议!苹果AI「大转弯」:不画大饼了?,这里就不再重复叙述了,我们来聊聊另外两个项目。6 ^* E& z/ `( ?1 H& w4 o
' \" z3 ?! Q8 [* k: m& l% k8 l先来看看Knowledge聊天机器人,这个AI项目的首次曝光是6月1日,著名的苹果爆料者Mark Gurman在一篇文章中披露了Knowledge的存在,并将其称为“从开放网页抓取信息的ChatGPT式应用”。
) x* S% _7 K" b9 w
: c u2 s' X; x3 x- F1 H) F2 i9 f6 X( p2 H; \/ b5 y! R
$ R9 e. [0 c, X5 V9 F3 l图源:OpenAI
( J6 X6 |9 V8 f, F ) `4 g( o1 E( M1 n5 U/ S
单看这个形容,只能说初步了解Knowledge的使用方式,而在后续的文章里,则给出了更加明确的功能说明。据介绍,Knowledge是一块基于网页app运行的AI问答服务,Knowledge是员工的称呼,正式项目名可能是“AppleGPT 2.0”,数据主要来源于“Safari 搜索索引 + NewsKit 报道摘要 + Apple Maps POI”,由前 Siri 负责人 Robby Walker 牵头推进。" C, s- b0 S/ v4 T
' g, g R# G0 ^9 T5 a4 d7 T某种程度上,Knowledge就是一个分摊了部分Siri功能的网页版AI助手,比Siri更轻度、更简单。Knowledge可以在不使用麦克风、摄像头的情况下,仅依靠网页数据就可以为用户提供备忘、日历以及邮件草稿等功能。7 u/ c, o+ }- Y
: h* o4 v) }# _此外,用户也可以直接将其看作是AI版的Safari搜索引擎,当你需要搜索某个问题的答案时,Knowledge可以为用户提供整合式的AI回答。或许你会想问,为什么不直接整合到Siri里?这就要聊到苹果的AI战略了,苹果对于AI确实很看重,以至于给自己设置了许多目标:比如Siri在全场景下的体验一致性。
% G2 s. d$ V7 r/ x . Z/ p1 I8 x( U& D" x8 e; O* x; h
简单来说,苹果希望Siri可以在联网和非联网状态下,都能够提供相同的AI体验,这对iPhone的端侧算力要求太高,以至于一直难以落地。即使后续借助新一代芯片和优化得以实现,Siri在系统权限和用户隐私数据方面的权重过高,也让苹果并不希望将其用在需要与网络进行频繁交互的app上。6 U$ \) _1 u- Y
* w5 J( P( k& M- u6 N2 l6 s! \* z7 O
$ F3 U3 X4 D$ b0 w4 C% Y) q9 Z7 ~; B
- {; U/ V* a0 q4 U3 u a图源:苹果 3 D/ r2 H Q+ l6 @3 h; i
Q- i- h" V3 m3 ~- h# h所以,分拆出一个独立的“聊天机器人”来负责轻量级的AI应用就是个不错的方案,而且苹果似乎也在借此测试不同提示词系统,看看哪一套系统更高效,或者具备更好的理解能力。
8 Q- f6 M F- e) K {: [/ b; K
. i5 ]4 @' z" A: F+ g7 e$ S那么Copilot又是个啥(实际发布时大概率要改名)?这玩意就有意思了,根据曝光的资料来看,常驻助手并非一个独立的app,而是一个基于系统的全局服务。如果说Siri是被动的助手,那么Copilot就是主动助手,在用户没有主动提出要求的情况下,Copilot可以根据麦克风、地图定位等各种数据,结合AI模型智能判断用户的需求。6 s+ d8 D% N6 [' a: g# A c2 c
! g; h S, M( y% g' Y* b
举个例子,当你走到机场的登机口时,Copilot会根据你的行程安排、GPS定位和登机时间等数据,自动弹出电子登机牌,或是结合Apple Watch等设备给予主动建议,比如当你健身完,根据身体消耗和用户的饮食菜单及喜好智能推荐菜谱,甚至可以直接帮用户检索周围的外卖店铺,提供推荐、下单和付款的一条龙服务。2 h/ V. \5 g `4 o' ?, L; C
% T2 A/ t. g7 [在苹果的计划里,Copilot将采用端侧的安全芯片与统一推送链路,确保这个服务在运行时可以确保用户隐私的安全。更进一步地说,苹果或许打算将Copilot打造成贯穿整个苹果生态的智能体,并作为苹果的智能中枢来联动各个设备,并给予用户无缝的AI服务。0 j' T4 g6 g' G2 ?3 b- E2 o
* I, K s# L& a
不过,相较于Siri 2.0和Knowledge,Copilot目前给到的信息还非常少,所以更具体的功能和体验还有待后续的进一步曝光。虽然总体来说还是一块“饼”,但是至少比苹果在WWDC上公布的Siri 2.0要更吸引人一些,而且从中不难看出苹果对AI生态有着更多的思考,那就是让AI“无处不在”。# g$ l0 J$ H: \* b" i9 X
: p6 A% s, ?2 b5 l2 r" [苹果AI落地为何困难重重?
9 c% L$ R$ l( S' x* k) F: G* F" b. ?. x
) M6 S7 O) q5 w t# U1 ]9 \苹果在AI领域的进展确实有些出乎大家的预料,在2023年AI大模型刚刚被众人所熟知时,苹果就已经启动了名为“Ajax”的AI大模型项目,并且在次年开始发布相关论文及成果,彼时大家都认为苹果应该会在2024年成为最早普及AI的企业之一。- @; f, S7 B7 K: v2 g% A$ W
$ r- f" S( ]0 ^
但是事与愿违,苹果的Apple Intelligence上线时间严重延误,即使是最早上线该功能的北美地区,WWDC 2024上展示的功能也依然没有全部上线。而且在Apple Intelligence上线后,用户也发现这个功能的体验远不如苹果宣传的完善,这也进一步加剧了市场及用户对苹果AI项目的不信任。! `) D% Q. d! V) f' Z; t
4 k* p+ P+ {& j1 @; b- h
' m1 `; N' ^4 L4 \ Z; I4 C8 n
$ E0 Y0 I1 T9 G! X图源:苹果
+ k% R) Q) k- T+ H4 n
4 e& j( ]0 e& D& Q到了2025年,当我们复盘苹果的AI战略时,不难发现苹果最大的问题或许是“想要的太多”。自研AI大模型、全面的用户隐私保护、严苛的数据安全要求以及系统级的AI服务响应,以上要求只要实现一个,可以说都能在AI领域夺得头筹。/ h) r, { a; u( i E& }" v
, S* Q8 N( p+ f
但是苹果对用户数据和隐私的保护要求,严重限制了自研AI大模型的进度,以至于要求助OpenAI,使用ChatGPT来支撑初代苹果AI功能的模型需求。然后又因为开放的数据权限太少,导致以ChatGPT为基础的Apple Intelligence难以提供真正的个性化AI体验。' v. [$ `0 j9 d3 D" A g
) L6 I) J: p. Y" E虽然从用户角度来看,苹果能够如此重视隐私和数据安全确实让人欣慰,但是大家也有一个疑问:苹果真的能够在兼顾隐私的情况下,确保AI功能的体验吗?至少在苹果看来是有可能的,因为直到WWDC 2025结束,苹果也仍在强调将优先考虑以本地AI大模型+AI芯片来满足用户需求。
5 s* k% `% r& s; D5 n+ w% H 7 w5 I5 z3 S7 A% T( O4 {6 C. u
更进一步地说,苹果让用户在任何时候都能得到体验一致的AI功能的想法很好,但是现阶段想要实现也是十分困难。因为云端算力与端侧算力的巨大差距,让两端的AI模型在参数上差距几乎不可弥补,只能是云端去迁就端侧,那么苹果又要如何在参数远不如竞争对手的情况下,让AI的体验能够达到一线水平呢?$ @( o+ }- F2 \: I6 ]$ x6 D. C. r
& s6 F, ^& W; W v+ y$ Z
4 O1 R0 `9 c# @: r% E/ K g1 j" S! C: L4 L7 g! j# w; n2 N) B9 r
图源:苹果 4 t; x& }( ^8 W1 I
9 V2 G9 \; G- B/ O" ]8 t+ K2 E或许只能寄希望于苹果的AI团队真的可以通过深度优化,让自研的AI大模型具备极高的推理效率和性能吧。更直接地说,苹果或许还缺少一个“DeepSeek”时刻,只有彻底优化和改变AI大模型的底层推理,才有机会实现苹果的愿景。
; ]% ]4 @7 _. D4 H; L: s2 s
: e! V! d: {$ U k; b# R6 B' n$ u为了进一步提升AI项目的速度,我们可以看到苹果近期也进行了频繁的人员调动,苹果希望通过集中力量的方式来让最紧要的项目可以如期交付。没错,说的就是在WWDC 2025上公布的Siri 2.0,虽然距离预订上线的时间还有六个月以上的时间,但是苹果显然对原本的Siri团队不太满意,希望借助更换领队的方式来提高团队的效率。
6 L6 I4 u! w' d% s* G9 e* [ V ' _( w; B9 B! y9 T |9 p% a
事实上,此前就有媒体报道称Siri团队的AI项目进度太慢,iOS团队决定推进自己的AI项目。不过Siri团队估计也是有苦难言,据称受限于Siri的遗留数据和以前的机器学习模型,想将其与新的AI模型进行整合难度很大,只能对Siri进行大范围的重构。
: B0 C1 k/ ^3 J6 F. j! y5 b( E' A 5 D' H4 K- |( {$ G
整体来看,苹果AI项目所面临的问题确实不少,但是相较于其他手机品牌的AI计划,无论是功能表现还是对用户数据的保护,都称得上是最佳,如果2026年可以如愿上线Siri 2.0,那么一切都还有希望。" b: b' x" O4 _( @8 ?& j& ?
9 {9 q8 R" a6 F+ l1 k7 B6 K『本文转载自网络,版权归原作者所有,如有侵权请联系删除』 |
|