アップルがWWDCで発表したAI機能
今回は「アップルがWWDCで発表したAI機能」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Appleの開発者会議「Worldwide Developer Conference(WWDC)」の開幕前、同社がついに生成系人工知能(AI)の競争に参入するのではないか、という期待が高まっていた。結局、WWDCで生成AIプロジェクトが発表されることはなく、多くの人が落胆した。
しかし、WWDCで発表されたさまざまなソフトウェアやハードウェアでは、多くの先進的な機能がAIによって実現している。本記事では、WWDCでのさまざまな発表の中から、AIに関連するものを紹介する。
Apple初の複合現実(MR)ヘッドセットであるVision Proは、最初に装着者の顔をスキャンした後、同社の先進的な機械学習技術を使って、装着者の顔と手の動きをリアルタイムで反映するリアルな仮想アバターを作成する。
さらに、このヘッドセットは、音声コマンドだけでなく、ハンドトラッキングとアイトラッキングでも操作可能だ。「Siri」などの音声認識技術は、AIの初期の代表的な例である。
パーソナライズされた音量は、ユーザーの周囲の環境とリスニングの好みを基に、時間をかけてユーザーの音量体験を微調整していく新機能だ。
ユーザーのリスニングの好みを理解して、それを反映させるために、この機能は機械学習を利用している。
強化された自動入力を通して、iPadはPDF内のフィールドを識別し、「連絡先」に保存された情報を利用して、個人情報を自動入力できるようになる。
このアプリの目玉の1つは、「写真」や「ミュージック」といったほかのアプリでのユーザーのアクティビティーや位置情報に基づいて、パーソナライズされた提案を行う機能だ。
ユーザーの行動を分析し、その結果に基づいて自然言語プロンプトを生成するジャーナルアプリの機能では、AIが使用されている。
「iOS 17」では、自動修正と単語予測が改良され、精度が向上している。Appleによると、iOS 17のキーボードは言語モデル「Transformer」を利用することで、これらの改良されたテキスト機能を実現している。言い換えると、AIが使われているということだ。