使いたくなければ、「ノー」と言えばいい…ついに、「Apple Intelligence」で露わになったアップル独自の戦略
スマホの中の個人的アシスタント
Apple Intelligenceの特徴の1つは、「デバイスの中で、アプリをまたいで動作する」ことだ。
基調講演では、次のような例が示された。
「母と私とオリビアが写っている写真を見せて」
「このあいだ、妻が送ってくれたポッドキャストを再生して」
「先週ジョズがシェアしてくれたファイルは?」
どれも、人間なら簡単に処理できるものばかりだ。だが、AIにとっては、「複数の人を見分ける」「あいまいな日付でファイルを探す」など、複数のアプリやデータにまたがる、かなり面倒な内容が含まれている。
これを処理するにはどうしたらいいか?
答えは、「各アプリごとに、どんなことがおこなわれたかの履歴を記録し、それらを活かして動作する」ことだ。
まさに「スマホの中にいる個人的なアシスタント」としてAIを機能させるのが、アップルの計画なのである。
他社の「オンデバイスAI」との違いは?
前回の記事で説明したように、「機器の中でAIを動かし、それを個人のアシスタントのように使う」という発想自体は珍しいものではない。マイクロソフトやGoogleも、自社のAIを「オンデバイス化」し、OSに組み込み始めている。
しかし、アップルには、他社とは違う点が2つある。
1つは「複数の機器に搭載している」ということだ。
Apple Intelligenceは、アップルが自社開発して製品に搭載している「Appleシリコン」で動作する。
より正確にいえば、MacやiPadで採用されている「M1からM4まで」のプロセッサーと、iPhone 15 Proシリーズに使われている「A17 Pro」に限定されており、「新しくて性能が高い」製品でのみ動作するかたちだ。
すなわち、Proシリーズではない通常のiPhoneでは動作せず、これは、アップルにしては「足切り」の基準がかなり高い方針だ。逆にいえば、今秋の発売が予測される「新型のiPhone」には、おそらくA17 Proと同等以上のAI処理性能をもつプロセッサーが使われ、Apple Intelligenceが動作するものになるだろう。
「スマホのみ」「PCのみ」との差別化
いずれにしても、他社が現状では「スマホのみ」「PCのみ」を領域としているのに対し、アップルはより幅広い製品にApple Intelligenceを適用させている(ただし、Googleはいずれ、「(自社の生成AI技術である)Gemini搭載のAndroid」をテレビや自動車にも拡大していく方向性にある)。
MacやiPadを使っている人にはiPhoneユーザーが多く、その逆もまた真なりということから、双方で「同じようにAIがはたらく」のはわかりやすく、使い勝手もいいはずだ。
「アップルが他社と異なる」もう1つのポイントとはなにか?