Apple 技術如何實現具備隱私保護的個人化 AI
數以百萬計的人每天透過 iPhone 使用公用的生成式 AI工具,如 ChatGPT、Gemini …. 等等。但使用這些工具時,實際上是將資料與雲端服務提供者共享,這未必是件好事。
不過,還有另一條可行之路:當無法用 Apple 裝置本機處理的工作時,首先交由自己的 AI Mac 叢集,來處理。在商業環境中,這形成一套可由授權端點(如使用者本人、使用者的 iPhone,或員工的裝置)遠端存取的本地部署 AI。優點是使用者分享的任何資料、提出的任何請求,都會由安全控管的設備與軟體來處理。
您可能正在執行開放程式碼的 Llama 大型語言模型 (LLM) 來分析業務文件和資料庫,並結合在網路上自行找到的資料,讓現場操作人員能夠存取相關最新分析。在這種情境下,不妨在辦公室環境中安全部署數台配置大量記憶體的 Mac,或是一台二手的 M1 Max Mac Studio,透過自行選定的安全遠端存取方案,以及自有的端點安全設定與 MDM 工具來控管存取權限。可以選擇使用 Apple 的 ML 框架 MLX,安裝所需的模型,或改用其他解決方案,例如 Ollama。已經有人開始嘗試這類使用模式,實際體驗顯示,其效能表現相當穩定。這多要歸功於 Apple Silicon 晶片的整體表現,以及其在記憶體管理上的高效率。
Apple 也持續在這個方向上推進,專注於提升效率與整體表現。據報導,Apple 將允許使用者透過 Thunderbolt 5 介面建立臨時 Mac 叢集,大幅簡化 Mac 團隊的部署。這不僅能帶來更高的效能,也能整合多台機器的記憶體資源,形成更強大的運算能力。
這一點相當重要。LLM 對資源的需求極高,若能夠輕鬆地將多台 Mac 叢集化,意味著本地部署 AI 解決方案將可以處理更複雜的問題。此外,macOS Tahoe 26.2 也將讓 MLX 完整存取 M5 晶片上的神經加速器,為 AI 帶來即時且顯著的效能提升。
與此同時,開發者也正大量使用 Apple 的 Foundation Models,直接在應用程式中存取 Apple Intelligence 的 LLM。若希望親自測試這些技術的潛力,可以嘗試支援相關功能的應用程式,或探索名為 AFM 的專案,透過命令列直接執行這些模型。
人工智慧的持續普及仍在推進之中 — 這是必要的!唯有如此,才能打破少數人對全球頂尖 AI 模型的壟斷。在很大程度上,Apple 矽晶片在每瓦效能上的優勢正逐步展現其真正價值;AI 本就是 Apple 設計 Mac 晶片時的重要目標之一,這樣的發展也是順理成章。試著想像當使用 visionOS 裝置,查詢安全存放於家中或辦公室的 Mac AI 叢集時,這種個人化 AI 部署模式能帶來多大的助力。
這只是推動本地裝置端邊緣 AI(edge AI)發展的其中一種可能結果,而且這個目標實現的速度可能想像中還要快。
