Apple は、Apple Intelligence の導入により、仮想アシスタント Siri を大幅に改良する予定です。この新しい AI システムは Siri の機能を強化し、ユーザーにさらに直感的で効率的な体験を提供します。
Apple Intelligence の最初のリリースでは、いくつかの限定された Siri 機能が導入されます。ただし、ユーザーは、最も重要なアップグレードが来年の春に展開されると期待できます。
開発者向けのベータテストは1月に開始される予定で、強化されたSiri機能の一般公開はiOS 18.4のアップグレードと同時に予定されています。
現在の機能と比較すると、Apple Intelligence による Siri の改善は別格です。Google と Samsung Google AI 分野で大きな進歩を遂げていますが、Apple は現在の AI 機能を上回る態勢を整えています。
Siriの機能強化
Apple Intelligence の導入により、Siri にさまざまな魅力的な機能が利用できるようになります。ユーザーは、写真の編集やシームレスなアプリ間機能など、Apple アプリ内でのアクションをこれまでにないほど制御できるようになります。
Siri は、画面上のコンテンツに基づいてアクションを予測して推奨する機能も備えます。これらの機能強化により、全体的なユーザー エクスペリエンスが大幅に向上し、Siri はより直感的で欠かせないツールになります。
Siri のインターフェースには、従来の円形の画像ではなく、画面ベゼルの内側に脈動する虹が表示されます。この更新されたインターフェースにより、ユーザーは Siri を操作する際に視覚的に魅力的でダイナミックな体験をすることができます。
さらに、高度な言語モデルであるChatGPTと Siri の統合により、アシスタントの理解力と応答能力が向上します。ユーザーは Siri とのより自然で会話的なやり取りを期待でき、より直感的で役立つ仮想アシスタントになります。
Apple はまた、Siri の製品知識を深め、アシスタントが基本的な技術サポートを提供できるように取り組んでいます。デバイスの設定に関する質問に答えたり、一般的なソフトウェアの問題を解決したりと、Siri は Apple ユーザーにとって信頼できるガイダンスとサポートの源となるでしょう。
さらに、Apple の将来計画には、カメラを内蔵した AirPods の開発も含まれています。これらの AirPods には赤外線センサーが搭載され、Apple の Vision Pro と連携して、手のジェスチャーや動きの検出が可能になります。
Meta の Ray-Banメガネと同様に、これらの AirPods のカメラは、画像を処理し、ユーザーに周囲の環境に関する情報を提供するために使用できます。このテクノロジーは、Apple ユーザーがデバイスを操作し、周囲の世界をナビゲートする方法に革命をもたらす可能性があります。