上手嚐鮮Apple Intelligence:ChatGPT負責Intelligence,Apple負責失望

作者 | 王兆洋郵箱 | wangzhaoyang@pingwest.com

我有一臺可以用Apple Intelligence的iPhone 16pro,懂蘋果的人都知道這裡面的門道有多深。

於是在10月24日蘋果推送iOS 18.2 的首個開發者測試版後,我第一時間下載體驗了這個最接近正式系統的版本。

這也是蘋果首次推送有ChatGPT的Apple Intelligence。

當一切就緒,我體驗了這次推送裡的幾個核心功能,也是蘋果此前發佈Apple Intelligence時重點畫餅的功能:

更聰明的Siri;

筆記應用裡的ChatGPT輔助寫作;

“相機按鈕”長按喚起的Visual Intelligence;和

我最終並沒有體驗的AI畫圖功能

1

“更聰明的Siri”

在Apple Intelligence裡,Siri可以只通過叫它“Siri”喚起,而喚起時整個屏幕會有一個動畫效果,像是被一道彩虹波紋劃過,屏幕也會跟着微微顫抖幾下。

當你用語音喚醒,波浪從底部蕩起。

當你用開關鍵喚醒,波浪從右側盪漾開來。

你基本可以在任何界面隨時喚起Siri。

這是個初看很高級的效果,不過也已經在此前的一些iPhone之間的觸碰交互上出現過。

我試了試用語音讓Siri打開一些app,完成截屏,“幫我寫一個筆記,內容是xxx”,它都可以快速響應。已經有了調用和直接操作app,尤其是自帶的app的能力。

而且,你現在可以跟Siri對話時說的更自然,比如我在詢問天氣時,說錯了地名然後改正,它也可以理解。

但目前跨app的能力依然有限。

我嘗試讓它把正在播放的音樂分享給朋友,它回答:我做不到,我只能分享截屏,然後自顧自截取了屏幕,問我,分享給誰。

這就讓現階段更能夠體現Siri更聰明的那些地方,都來自它首次可以調用的ChatGPT。

你不需要有ChatGPT的賬號,就可以在Siri裡使用它。當然,你也可以登陸你的賬號,來留存記錄。沒有賬號似乎更符合蘋果的宣傳:在隱私層面更加安全。

ChatGPT提供的基本上是一個低配版GPT-4o的功能,你可以語音問它,然後它會回答。比如需要提供菜譜,提供旅遊計劃等。(這幾個是我看一些開發者體驗時用的例子,我也試了試,試的過程我一直在想,我爲什麼不打開ChatGPT去裡面完成這些任務呢?)

而且,當你只是召喚Siri時,Siri也會主動問你是否要請ChatGPT幫忙。或者你也可以直接說:Siri,ask ChatGPT。

對,走到庫克家門口敲門讓庫克出來然後告訴他,請幫我去找Sam Altman的即視感。

當我讓Siri完成一個任務:識別我屏幕上的內容然後告訴我更多的信息時,它問我,可以把截圖發給ChatGPT麼。然後它發送了截圖給ChatGPT。ChatGPT完成了回答。

但這類任務的穩定性有些奇怪,有幾次ChatGPT又說它無權處理截圖。

而在我讓它完成另一個任務時——識別我在聽的歌,然後告訴我更多關於這首歌的信息,基本證明了,蘋果沒有給ChatGPT直接接觸系統的權限,所以鏈條變成Siri聽,識別,然後問我:可以發給ChatGPT幫忙麼,然後ChatGPT出現。

我還試圖完成一個任務,通過語音讓Siri把默認搜索改成Google。這其實是一個典型場景——用自然語言來完成手機的設置。但Siri先是問我是否可以請出ChatGPT幫忙,然後請出ChatGPT,給了我一個如何改設置的網絡搜索答案。

這種讓人無語的操作背後,蘋果的糾結更加明顯了——它似乎默認了ChatGPT是更聰明的那一個,遇到稍微複雜的難題就要找它,但同時,它又處處防着ChatGPT,不給它在自己地盤上完全施展的空間。

於是,ChatGPT顯得很智能,而蘋果在裡面參與的一切,都顯得讓人有些失望。

而且,這種糾結會持續下去,此前蘋果強調的隱私,與ChatGPT強調的用戶數據都要拿來訓練模型之間的衝突如何解決,看起來也會是個更大的問題。

1

筆記應用裡的ChatGPT輔助寫作

筆記裡的AI寫作功能基本都由ChatGPT提供。

在下端的工具欄,有一個專門的按鈕。

點擊後出現一個新的AI操作界面。說實話,也不太好看,因爲和整個app完全是不同的風格了,給人感覺是一個外來的強加的角色被喚醒了。

然後它的功能也很基礎,像所有AI寫作都有的那些:改寫,修正檢查,輸入你的Prompt等。除此之外,它還有總結、整理要點等模版功能,點擊後出現的結果不會在輸入區域,而是在這個操作板下方。

所以,顯得很擁擠。

而且,在UI上,AI寫作時的效果,像是一個3歲兒童往你的屏幕上貼了個他最愛的blingbling的長條貼紙,下一秒出來的彷彿不是AI寫的字,而是小馬寶莉。

我第一次在蘋果的實際產品體驗上,找到了它那些自我感覺良好的中文翻譯給我的詭異感。

1

長按“相機按鈕”喚起的Visual Intelligence

iPhone 16 pro系列多出來的那個相機控制按鍵,在發貨後被很多很多人詬病。幾乎所有使用過的人都會感慨爲了提高拍照體驗真的需要一個這東西麼。

但看起來就像很多網友替蘋果爭辯的那樣,蘋果這個按鍵不是爲了拍照,而是一個AI功能的啓動按鍵。

這個設計在理論上確實很重要。

“按鍵”在AI硬件時代重新顯現出來它的意義——它可以減少用戶操作步驟,這和大模型帶來的交互潛力一致,蘋果的思路似乎是:一個“Siri”,一個增加的實體按鍵,前者對應語音交互,後者對應視覺。這兩個是大模型的最重要交互方式,各自必須在手機的機身上就有一個一鍵觸發的入口,避免任何划動屏幕等多餘的動作。就一步,這倆AI功能就要立刻開始服務用戶。

這裡面最關鍵的是,用戶對這倆功能的使用要足夠高頻,功能本身也要足夠強大。

當你長按相機按鈕後,就可以進入Visual Intelligence的模式(我甚至懷疑,當人們都放棄用這個鍵拍照後,它會變成Visual Intelligence的專屬鍵,然後單擊、雙擊、觸控划動等都會服務於對應的視覺AI功能)。

在同樣的彩虹波浪動效之後,屏幕出現一個拍照按鈕和兩側的兩個選項:問ChatGPT,和用Google搜。

這幾乎完美展示了蘋果在AI上的處境——自己地盤上的重要任務,卻都交給了別人。

當你點了Ask後,ChatGPT會不管你到底要ask什麼,直接給你一個它看到的此刻的圖片的看圖說話。

接下來是ChatGPT大顯神威的時刻。

我拍了一張照,並讓ChatGPT基於照片寫一篇小作文。它快速做到了。

這一下子多了很多想象空間。視覺識別後,基於這些信息進行接下來的任務。

而蘋果自身則依然有些拉垮,它的跨app能力還是沒有發揮作用。我讓它複製這篇小作文到筆記應用,它卻開始搜索互聯網。雲端和端側模型能力的差距看出來了。

還有一個問題是,我也不知道支持Apple Intelligence但沒有相機控制按鈕的iPhone 15們,要怎麼啓用visual intelligence。蘋果會再單獨做個app,還是或者就直接不支持了。總之,閹割的種類又多了。

1

我沒體驗AI畫圖功能,因爲第一眼就覺得它太不蘋果了

看看這個升級後就會自動出現的貓頭app的圖標,和它的界面。誰會想到它是蘋果做的呢。

你可能的確可以用你的蘋果做一堆沙威瑪傳奇那樣的圖片出來。

但真的想要體驗文生圖,圖生圖,甚至圖生視頻,有比這個app更好的選擇。

目前Apple Intelligence還有一些沒有推送的功能,其中在此前發佈會裡最令人期待的就是通過Siri識別iPhone屏幕上正在發生的一切事情,然後基於你的指令幫你完成任務。也就是一個超級Siri agent。

但它會在月底的正式推送中到來麼?還是會如蘋果說的“分階段”在未來推送?

沒人知道。

同樣沒人知道的是,蘋果的AI團隊們是不是把精力都用在了開發這個超級Siri agent上,才讓前面這幾個蘋果自己提供的AI體驗有些拉垮讓人失望。

希望是這樣的。希望,蘋果,大的在後面。不然,這手機遲早有一天要改叫OpenAiPhone了。