AI手機,新的“數據黑洞”?
2025年,AI手機消息頻頻。
近日,蘋果被證實與多家中國廠商洽談,推動蘋果在中國手機中落地AI功能。
許多人可能對去年一場手機發布會上用AI一鍵下單2000杯咖啡的事記憶猶新。
當時在場所有人發出歡呼,卻很少有人想到一個問題: 手機內置的AI助手是如何一鍵喚醒瑞幸小程序或者APP、并且實現、支付的?
隨著人工智能浪潮席卷,硬件創新已走到摩爾定律極限,AI手機也正在成為兵家必爭的賽道。
2025年,AI一定會帶來變化,這種在行業內幾乎已經形成共識的判斷,也讓手機廠商把部署端側AI作為重要的硬件實踐場景,并冀望借此帶來手機消費市場的新機會。
陸續有不少手機廠商推出AI手機:最早是三星,隨后蘋果也開始加入,2023年9月,蘋果推出了搭載了蘋果人工智能的手機iPhone16;國內市場的競速者們也快速入局:OPPO在其海外手機上結合谷歌的大模型——Gemini,實現了AI功能;2024年10月,榮耀推出了AI手機……
根據第三方研究機構Canalys的數據,2024年,全球有16%的智能手機出貨,到2028年,這一比例將上升至54%。
當AI手機越來越智能,你的手機可能比你自己更懂你。它獲知你所思所想,并幫助你完成所有事務;它儲存了你所有的生物數據,會根據你的健康狀況提出規劃;它掌握你所有的生活習慣、口味偏好,能夠給你點一份你最喜歡的外賣……
一切都那么美好、便利,但在我們不易察覺的另一面,這可能意味著, 在你的身邊,將存在一個數據的“黑洞”, 在不知情的情況下不斷吸食你的個人信息進入黑洞中,在未被解釋的情況下,生成新的數據,左右你的生活與選擇。
智能體新命題
新技術奇點時刻,往往帶來革命性的產品,背后蘊含著商業邏輯的顛覆,也帶來了新的行業挑戰。
在移動互聯網時代,APP掌握了用戶的流量入口,在AI Agent時代,流量入口成為了智能體,例如手機,更尖銳的問題是,與移動互聯網時期單個APP不同,AI手機要提供服務,需要掌握個人數據的全集——例如位置信息、通訊記錄、瀏覽習慣、生物特征等數據,這讓數據隱私保護的范圍和鏈條更為復雜。
“手機,是一場數據革命。” 尚隱科技有限公司CEO張仁卓如是說。
在這場數據革命之下,對于隱私數據的使用更加隱蔽、復雜、難以界定;原有的法律法規難以適應AI智能體時代的隱私保護規則;云廠商、大模型廠商、APP廠商以及手機廠商在數據使用上的責任究竟如何厘清邊界,確保在危險或惡性事件發生時,有人為此負責??
我們與多位業內人士交流,試圖理清,智能體時代下的數據泄漏風險何在?在當下又該如何預防?
“這是一個新命題。”一位從事數據隱私保護多年的專家表示,“但提出問題本身,就是意義。”
爭奪流量入口,是一切與數據有關的商業底層邏輯。另一個邏輯則是,在生成式AI時代,需要借助個人數據提供服務的相關方變多,其中不可避免進入了如今隱私保護法規的“盲點”。
移動互聯網時代,APP是流量入口,APP廠商通過獲得用戶允許的個人數據,進行脫敏處理之后,為其所用。
在AI Agent時代,大模型降低了人機交互的門檻,人們通過自然語言即可與機器進行溝通,此時,AI Agent取代APP,成為了與用戶交流溝通的方式,也成為了流量入口,這意味著數據的控制權,手機也希望為用戶直接提供服務。
但與移動互聯網時代不同的是,相比于APP對個人信息獲取的范圍,手機所需要的個人信息更多,是所有個人數據的全集,其接觸的數據更深、更為底層。從生態來看,這將會造成新的“贏家通吃”,也使消費者的面臨更復雜的信息迷宮,泄漏的風險大,甚至陷阱重重,難以預料。換句話說,AI手機成為了數據泄露的高風險點,并且這種泄漏造成的后果,更甚于移動互聯網時代的APP。
首先,手機擁有對數據的更高權限。過去,APP是個人信息的主要收集者,但這并不意味著手機就無法接觸到個人數據,只是彼時手機廠商如果需要獲取數據,恐怕需要跟眾多APP廠商進行繁瑣的拉扯與博弈,在用戶同意授權的前提下。這種高權限的體現在于,第一,用戶無法刪除手機出廠自帶的應用;另外,手機的一些應用是可以在后臺無感知運行,例如我們如今隨叫隨到的“Siri”、“小愛同學”等,用戶很難察覺哪些應用還在運行中,數據可能就在這個過程中不知不覺中被讀取;一旦AI手機助手能夠幫你操作手機,如果讓手機幫忙點一杯咖啡,最后會跳轉至支付界面,需要用戶手動輸入,但業內人士表示,從技術上并不需要手動輸入密碼,手機完全有能力獲知密碼信息。
其次,手機所接觸的數據更多、更敏感也更為深入。“手機最牛的在于它的屏幕。”一位數據隱私保護專家表示,他通過屏幕與人發生交流,而用戶通過手機屏幕了解一切信息,屏幕的控制權在手機廠商手中,這就意味著,當用戶在屏幕上展示信息的那一刻,就相當于向手機廠商公開了全部數據——它可以通過屏幕窺探到你的所有隱私。曾經,屏幕可能只是展示信息的功能,未來“屏幕可能就是一個流量入口”。
技術與監管的博弈
面對這種高權限以及全方位獲取個人數據的角色,如今并沒有明確的約束其獲取數據能力的法律或規定。
數據鏈條中,涉及手機廠商、云廠商、APP廠商,或許還包括第三方模型廠商。而數據獲取途徑也增多,“你無法每一項都詢問一次同意。”前述專家表示。這并不僅是復雜度的問題,而是難以界定的處理方式。
在新技術快速發展之際,技術總是先于法律法規先行。
目前手機廠商獲得推進端側大模型分為意圖框架、識屏+模擬點擊兩大路線,意圖框架需要獲得app廠商支持和加入,雙方共建生態。而識屏+模擬點擊的路線,指的是通過對手機屏幕截屏、理解和分析屏幕內容,通過模擬點擊腳本,實現繞過第三方app授權,即可操作手機內部功能,這種方式顯然更加快捷。
目前,通過一句指令,讓手機點開外賣APP幫用戶點一杯外賣的方式,其更多采用的是“識屏+模擬點擊”的技術路線,并開啟了“無障礙權限”功能。“這種方式一定會導致嚴重的安全隱患,以及‘踢皮球’的問題。”前述數據安全專家表示。其中的關鍵,就是“無障礙權限”功能。這一功能,也被視為是最高風險等級的功能,該功能一開,相當于一扇被去掉了鎖的超市大門。
最初,“無障礙權限”原本是為了方便殘障人士使用手機而設置的特殊功能,另一個使用無障礙權限的合法場景是自動化測試,可以打破各個APP之間的沙箱隔離機制。
漢華信安總經理彭根長期從事手機端側安全研究,其在一次研討會中指出,無障礙權限能做四件事——監控屏幕,即對所有的內容,都在監控范圍內,并且監控速度很快,在零點幾秒的時間,屏幕的所有文字都會被讀走;另外,代替用戶進行點擊、滑動、輸入;第三,打破沙箱隔離機制。
所謂的“沙箱隔離機制”,是一種安全技術,用于限制APP的訪問權限和操作范圍,確保每個應用程序是在獨立、封閉的環境中運行,防止其對系統和其他應用程序造成干擾和破壞。但無障礙權限則可以打破這種安全機制,甚至優先于用戶自身,讀取全部手機的信息。無障礙權限,被定為“高危權限”,在點擊一次“同意”之后,手機很可能不會再做出提醒,因此用戶極容易在不知情的情況下開啟了無障礙權限,也就相當于將自己的隱私暴露給了手機。
用戶是否可以感知到手機正在后臺獲取數據?識屏功能能否被識別?筆者嘗試詢問了多位技術專家,均表示目前尚且無法從技術上解決這個問題。
另一方面來自手機AI的技術帶來的隱患,來自端云的結合。
當數據存儲在本地時,用戶自己就是終極個人信息處理者,但在大模型時代,本地部署很多時候無法滿足其對數據量以及功能的需求,端云結合的方式不可避免。
在端云協同中,數據流通的鏈路逐漸增多,涉及到的相關方也增多,不光是手機廠商,還有云廠商、APP廠商,甚至可能涉及到第三方大模型廠商,每個鏈路、每一個環節都不同程度參與了數據的收集和處理,甚至影響整個服務的提供,數據的交互流通也變得更加復雜。如何分配以及明確每個環節的責任,這給了數據隱私保護政策的制定,帶來了困難。
?“下游產品對人工智能的使用可能遠超于人工智能系統開發人員最初的設想,此時應如何平衡與區分各方主體的責任?再者,就具體的責任承擔而言,應當要求人工智能系統的開發人員和部署人員在多大程度上、多長時間內保留何種類型的系統文檔材料,以實現問責判斷。”金杜研究院合伙人寧宣鳳、吳涵等人在一篇文章中提及。
除了風險,也涉及到利益分配。一位長期從事數據隱私政策研究的專家表示,如果手機可以讀取所有的數據,同時也包括APP通過收集個人信息,并進行加工處理后的數據,這當然需要APP廠商付出成本,如果手機廠商零成本獲取這些數據,對APP廠商而言并不公平。“從這個角度來說,單純從個人信息的角度來分析,是不夠的。”前述專家表示。
“這并不是一個單純的一事一議的這樣一種治理的回應,不是一個權限的管理,它是原權限、原治理的問題。”北京大學政府管理學院教授馬亮表示。
此外,在流通過程中,大模型至今無法解決的“數據黑箱”,同樣使用戶并不知道數據最后如何被流通,又是如何被處理。
手機廠商的嘗試
一些手機廠商在信息保護方面做了嘗試。
一些手機廠商在宣傳中,提出關注端側AI的能力,但如今的現實是端側很難實現一些復雜的AI功能,端云結合依然是手機廠商難以繞過的坎兒,一個堅不可摧的云服務城墻至關重要。
當端側AI在如今大模型的今天很難實現的情況下, 私有云,對于手機廠商來說或許是一個更好的選擇。
尚隱科技有限公司CEO張仁卓在一次論壇中,描述了蘋果和谷歌在數據安全上的做法。
以蘋果公司為例,在蘋果的生態中,不光集合了蘋果自身的AI,還接入了其他大模型公司,還有一些小模型公司,蘋果AI努力采用本地AI代理的模式,另一方面,蘋果在私有云上拓展了一塊安全性很高的空間,這個安全性很高的空間體現在,第一是無狀態的計算,數據上下游之間沒有關系。
舉一個簡單的例子,當用戶隨機進了一個餐館,這個餐館不會知道用戶以前進了哪些餐館。另一點則是沒有特權訪問,包括蘋果自身,也不能在未經用戶同意的情況下訪問用戶數據,同時蘋果將用戶特征的信息隱藏,并提供了可驗證的透明度。如果需要使用第三方AI時,蘋果的做法是,不提供IP,第三方AI不存儲數據。
谷歌的做法邏輯與蘋果類似,其采用的密封計算技術,便可理解為,在云上開辟一塊空間,供AI使用。數據在傳輸、存儲和處理時均保持加密狀態,即使在內存中處理,數據也保持加密狀態,防止未經授權的訪問。在這樣的狀態下,多個參與方在不暴露各自數據的情況下進行聯合計算,同時,會在數據分析、機器學習等場景中保護用戶隱私。
AI風險,敏捷治理
目前業內共識,更多還是基于原有的法律,更準確地說,是基于舊有法規的新組合方式。
?“現有的法律和法規對于目前的AI助手,仍然適用”。多位從業者表示。對于AI手機,目前最重要的就是對收集的信息的處理和使用的問題,而無論是網絡安全法、個人信息安全保護法等,都對信息使用和處理作了相關規定。另外,中國在信息領域的監管還在及時適時而變,增加新的內容。“目前監管已經在關注,或者說已經在介入監管了。”專家表示。
美國的做法或許是一個參考,美國NIST在今年1月26日發布的《AI風險管理框架1.0》是一個很好的參考。
美國在數據安全上,依靠各州法律以及行業自律。在這份AI風險管理框架中,包括治理、映射、測量和管理的四個板塊。
治理模塊包括了法律法規、風險活動級別確定、責任劃分與認定、勞動力的多樣性和公平性以及文化宣傳、反饋機制、第三方風險管理;映射主要用于確定特定場景與其對應的AI風險解決方案,例如會對AI系統的預期用途以及風險作出背景評估、考慮參與者的多樣性、理解AI技術的目標、商業價值以及監督機制的評估等;測量主要采用定量和/或定性的工具、技術和方法來分析、評估、測試和監控AI風險及其相關影響,例如一些可信度評估、涉及的自然人評估等;管理主要是將相關資源分配給相應的AI風險,進行風險處置。
這樣的方式,既對AI風險進行框定,確保這些行為在框架內的運行,又給了一定的自由空間。既有事前的預防,也有事后風險的跟蹤。
“有關您個人信息權益的條款重要內容,我們已用加粗形式提示,請特別關注。”這是在下載DeepSeek時,點擊《隱私政策》,上面詳細披露了九點隱私政策相關的內容,包括如何收集和使用個人信息;如何保護個人信息;如何實現管理個人信息的權利;如何保護未成年人的個人信息;如何更新版本政策以及聯系方式。
在DeepSeek的隱私政策中,提及了APP如何委托處理、共享、轉讓、公開披露個人信息的細節。例如合法原則、正當與最小必要原則、安全審慎原則等,甚至在條款中,披露了第三方共享的清單,提出若具體功能和場景中涉及關聯方和第三方、第三方提供服務,則合作方范圍包括關聯方和第三方。
一些新的條款也在及時調整與增加,并根據已有的法律法規,針對具體問題做出新的調整和組合。
2025年1月1日生效的《網絡數據安全管理條例》,對于進一步的自動化處理,甚至是人工智能一些新技術做了特殊的規定,要求網絡數據處理者如何使用自動化工具訪問數據的,需要對它帶來的服務進行影響評估。還有就是不得干擾服務的網絡質量的正常運行,這是很針對AI手機數據收集問題。還要求提供生成式服務的數據處理者應該加強對數據的安全管理,采取措施防止數據泄露,我們可以看到這些問題都是密切相關的。
個人信息保護影響評估,也是目前針對AI手機隱私保護的可行方式。前述專家表示,他如今的主要工作就是針對這些AI助手,進行個人信息保護影響的評估。
中國《個人信息保護法》要求,在某些情況下進行個人信息保護影響評估 (PIA) ,以確保個人信息處理活動的合法性和安全性,一共有五種場景:
-
處理敏感個人信息:敏感個人信息包括生物識別、宗教信仰、醫療健康、金融賬戶、行蹤軌跡等;
-
利用個人信息進行自動化決策:如通過算法進行用戶畫像、自動化推薦等;
-
委托處理個人信息、向第三方提供個人信息或公開個人信息;
-
向境外提供個人信息;
-
其他對個人權益有重大影響的個人信息處理活動。
其中評估的內容包括,個人信息處理的目的、方式等是否合法、正當和必要;評估數據處理活動可能對個人權益 (如隱私、財產、名譽等) 產生的影響以及所采取的保護措施是否合法、有效并與風險程度相適應。
現在針對AI手機所出現的新的場景就屬于第五點的內容,“如果我們可以用評估的視角提前介入,就能夠把風險降低到可控范圍,讓應用先落地做起來。”前述專家表示。
“讓子彈飛一飛。”是目前業界更為贊同的做法, 盡可能不傷害行業的發展,進行敏捷治理。 “敏捷治理”或許是一種思路,觀韜中茂律師事務所合伙人王渝偉曾在采訪中提出了這個觀點,在一開始先制定頂層框架,在過程中不斷調整監管治理和風險控制的措施,在一些案例中不斷表明監管的態度,并不斷調整監管思路并釋放這種信號。