【コラム】いずれメタバースは、あなたをモニターし行動を操作する世話役AI「ELF」で埋め尽くされる
今回は「【コラム】いずれメタバースは、あなたをモニターし行動を操作する世話役AI「ELF」で埋め尽くされる」についてご紹介します。
関連ワード (会話型、信頼、探索等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、TechCrunch様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
メタバースはマーケティング上の誇大広告に過ぎないという人もいれば、社会を一変させると主張する人もいる。私は後者に属するが、多くの人が提唱しているようなアバターで埋め尽くされたアニメの世界について言っているのではない。
むしろ、社会を変えるような真のメタバースは、現実世界上の拡張レイヤーであり、10年以内にショッピングや社交からビジネスや教育まで、あらゆるものに影響を与え、私たちの生活の基盤になると考えている。
関連記事:【コラム】Web3の根拠なき熱狂
また、企業が管理するメタバースは社会にとって危険であり、積極的な規制が必要だと考えている。なぜなら、プラットフォームのプロバイダーは、SNSが古いと感じるようなやり方で消費者の操作が可能になるからだ。多くの人は、データ収集やプライバシーに関する懸念に共感しているが、メタバースで最も危険なテクノロジーであろう人工知能を見落としているのではないか。
実際、メタバースのコアテクノロジーを挙げろといわれれば、たいてい人はアイウェアを中心に、グラフィックエンジンや5G、あるいはブロックチェーンなどを挙げるだろう。しかし、それらは私たちの没入型未来の仕組みに過ぎない。メタバースにおいて糸を操り、私たちの体験を創造(操作)するテクノロジーはAIなのだ。
人工知能は、私たちのバーチャルな未来にとって、注目を集めるヘッドセットと同じくらい重要な存在になるだろう。そしてメタバースの最も危険な部分は、他のユーザーと同じような見た目で、他のユーザーと同じように行動するが、実はAIによって制御された模擬人格である課題志向の人工主体だ。彼らは私たちに「会話的操作」を行い、人工主体が本物の人間でないことに気づかないうちに、広告主に代わって私たちをターゲットにするだろう。
特に、AIアルゴリズムが表情や声の抑揚を読み取って私たちの感情状態を監視しながら、私たちの個人的な興味や信念、習慣や気質に関するデータにアクセスするようになると危険だ。
SNSにおけるターゲット広告が操作的だと思うかもしれないが、これはメタバースで私たちに関わる会話型エージェントの比ではない。彼らは人間のどんな販売員よりも巧みに私たちに売り込み、単にガジェットを売るだけでなく、最も資金を支払った人のために政治的プロパガンダやターゲットとなる誤報を押し付けてくるだろう。
そして、これらのAIエージェントは、メタバースにおける他の人と同じように見え、同じように話すので、広告に対する私たちの自然な懐疑心は働いてくれない。これらの理由から、私たちはAIによる会話エージェントを規制する必要がある。特に、AIが私たちの顔や声の情緒にアクセスでき、私たちの感情をリアルタイムで私たちに対して利用することが可能になる場合だ。
これを規制しないと、AIドリブンのアバターの形をした広告は、あなたが疑っているのを察知して、文章の途中で戦術を変え、あなた個人にインパクトを与える言葉や画像にすばやく照準を合わせてくるだろう。2016年に書いたように、AIが学習して世界最高のチェスプレイヤーや囲碁の棋士に勝てるなら、消費者を揺さぶることを学習して私たちの利益にならないものを買わせる(そして信じさせる)のは朝飯前だ。
しかし、私たちに向かってくるすべてのテクノロジーの中で、メタバースにおいて最も強力かつ精緻な強制力を持つことになるのは、私が「エルフ」と呼ぶものだ。この「デジタル生活促進者(electronic life facilitators、ELF)」は、SiriやAlexaのようなデジタルアシスタントの自然な進化形だが、メタバースでは姿なき声にはならない。消費者ごとにカスタマイズされた擬人化された人格になるだろう。
プラットフォームのプロバイダーは、これらのAIエージェントを仮想ライフのコーチとして販売し、あなたがメタバースを探索している間、1日中しつこく付きまとう。そして、メタバースは最終的に現実世界の拡張レイヤーとなるので、デジタルエルフは、あなたが買い物をしていても、仕事をしていても、ただぶらぶらしているだけでも、どこにいてもあなたと一緒にいることになる。
そして上記のマーケティングエージェントのように、これらのエルフたちは、あなたの顔の表情や声の抑揚、そしてあなたの生活の詳細なデータ履歴にアクセスし、あなたに行動や活動、製品やサービス、さらには政治的見解に至るまでをそっと促すようになる。
そして彼らは、今日のような粗雑なチャットボットではなく、身近な友人、親切なアドバイザー、気遣いのできるセラピストのような、人生において信頼できる人物として認識されるようになるキャラクターとして具現化される。しかも、友人にはできないような方法で自分のことを知り、血圧や呼吸速度に至るまで、自分の生活のあらゆる面を(信頼できるスマートウォッチを通じて)モニタリングする。
そう、これは不気味だ。だからこそプラットフォームのプロバイダーは、付きまとってくる人間サイズのアシスタントというよりも、あなた自身の「人生の冒険」の魔法のキャラクターのように見える、無邪気な特徴と物腰を持つ、かわいくて脅威を感じさせないエルフを作るのだろう。これが私が「エルフ」という言葉を使って表現した理由だ。エルフは、あなたの肩越しにいる妖精、あるいはグレムリンやエイリアンのような見た目かもしれないからだ。こうした小さな擬人化したキャラクターは、耳にささやいてきたり、私たちの前に飛び出して、こちらに注目して欲しい拡張世界のものに注意を引かせたりすることができる。
これが特に危険な点だ。規制がなければ、こうした「人生のお世話役」はお金を払った広告主に乗っ取られ、現在のSNSのどんなものよりも優れた技術と精度であなたをターゲットにすることになるだろう。そして、今日の広告とは異なり、これらの頭の良いエージェントは、かわいい笑顔やくすくすした笑いとともにあなたの周りを付きまとい、一日をガイドすることになるのだ。
このようなことが実際にどのように起こるのか、ポジティブな面もネガティブな面も伝えるために、2030年以降にAIが私たちの没入型ライフをどのように導いていくのかを描いた短いストーリー、「Metaverse 2030」を書いた。
最終的に、VR、AR、AIの技術は、私たちの生活を豊かにし、向上させる可能性がある。しかしこれらが組み合わさると、イノベーションは特に危険なものになる。これはこのような技術に共通する強力な特性、つまりコンピュータで作られたコンテンツがたとえ意図的に作られた捏造であっても、本物であると信じさせることができるという特性が理由だ。この強力なデジタル欺瞞能力こそが私たちがAIを活用したメタバースを恐れるべき理由であり、それが宣伝目的でユーザーにサードパーティアクセスを販売する強力な企業によって管理されている場合には特にそうなのだ。
メタバースの技術に問題が根付いてしまって元に戻せなくなる前に、消費者や産業のリーダーが意義のある規制を推進してくれることを期待して、私はこれらの懸念を提起したいと思う。
編集部注:本稿の執筆者Louis Rosenberg(ルイス・ローゼンバーグ)氏は、仮想現実と拡張現実のパイオニアであり、Unanimous AIのCEO。
画像クレジット:TechCrunch/Bryce Durbin
【原文】
Some say the metaverse is nothing but marketing hype, while others insist it will transform society. I fall into the latter camp, but I’m not talking about cartoon worlds filled with avatars like many are pitching.
Instead, I believe the true metaverse – the one that will change society — will be an augmentation layer on the real world, and within 10 years it will be the foundation of our lives, impacting everything from shopping and socializing to business and education.
I also believe that a corporate-controlled metaverse is dangerous to society and requires aggressive regulation. That’s because the platform providers will be able to manipulate consumers in ways that will make social media seem quaint. Most people resonate with concerns around data collection and privacy, but they overlook what will be the most dangerous technology in the metaverse – artificial intelligence.
The most dangerous part of the metaverse: agenda-driven artificial agents that look and act like other users but are actually simulated personas controlled by AI.
In fact, if you ask people to name the core technologies of the metaverse, they’ll usually focus on the eyewear and maybe mention the graphics engines, 5G or even blockchain. But those are just the nuts and bolts of our immersive future – the technology that will pull the strings in the metaverse, creating (and manipulating) our experience, is AI.
Artificial intelligence will be just as important to our virtual future as the headsets that get all the attention. And the most dangerous part of the metaverse will be agenda-driven artificial agents that look and act like other users but are actually simulated personas controlled by AI. They will engage us in “conversational manipulation,” targeting us on behalf of paying advertisers without us realizing they aren’t real.
This is especially dangerous when the AI algorithms have access to data about our personal interests and beliefs, habits and temperament, all while monitoring our emotional state by reading our facial expressions and vocal inflections.
If you think targeted ads in social media are manipulative, it’s nothing compared to the conversational agents that will engage us in the metaverse. They will pitch us more skillfully than any human salesperson, and it won’t just be to sell us gadgets – they will push political propaganda and targeted misinformation on behalf of the highest bidder.
And because these AI agents will look and sound like anyone else in the metaverse, our natural skepticism to advertising will not protect us. For these reasons, we need to regulate AI-driven conversational agents, especially when they have access to our facial and vocal affects, enabling our emotions to be used against us in real time.
If we don’t regulate this, ads in the form of AI-driven avatars will sense when you’re skeptical and change tactics in mid-sentence, quickly zeroing in on the words and images that impact you personally. As I wrote in 2016, if an AI can learn to beat the world’s best chess and Go players, learning to sway consumers to buy things (and believe things) that aren’t in our interest is child’s play.
But of all the technologies headed our way, it’s what I call the “elf” that will be the most powerful and subtle form of coercion in the metaverse. These “electronic life facilitators” are the natural evolution of digital assistants like Siri and Alexa, but they won’t be disembodied voices in the metaverse. They’ll be anthropomorphized personas customized for each consumer.
The platform providers will market these AI agents as virtual life coaches and they will be persistent throughout your day as you navigate the metaverse. And because the metaverse will ultimately be an augmentation layer upon the real world, these digital elves will be with you everywhere, whether you are shopping or working or just hanging out.
And just like the marketing agents described above, these elves will have access to your facial expressions and vocal inflections along with a detailed data history of your life, nudging you toward actions and activities, products and services, even political views.
And no, they won’t be like the crude chatbots of today, but embodied characters you’ll come to think of as trusted figures in your life – a mix between a familiar friend, helpful adviser and caring therapist. And yet, your elf will know you in ways no friend ever could, for it will be monitoring all aspects of your life down to your blood pressure and respiration rate (via your trusty smartwatch).
Yes, this sounds creepy, which is why platform providers will make them cute and non-threatening, with innocent features and mannerisms that seem more like a magical character in your own “life adventure” than a human-sized assistant following you around. This is why I use the word “elf” to describe them, as they might appear to you as a fairy hovering over your shoulder or maybe a gremlin or alien – a small anthropomorphic character that can whisper in your ear or fly out in front of you to draw attention to things in your augmented world it wants you to focus on.
This is where it gets especially dangerous — without regulation, these life facilitators will be hijacked by paying advertisers, targeting you with greater skill and precision than anything on today’s social media. And unlike ads of today, these intelligent agents will be following you around, guiding you through your day, and doing it with a cute smile or giggly laugh.
To help convey what this will be like, both positive and negative, I’ve written a short narrative, Metaverse 2030, that portrays how AI will drive our immersive lives by 2030 and beyond.
Ultimately, the technologies of VR, AR and AI have the potential to enrich and improve our lives. But when combined, these innovations become especially dangerous, as they all have one powerful trait in common – they can make us believe that computer-generated content is authentic, even if it’s an agenda-driven fabrication. It’s this powerful ability for digital deception that should make us fear an AI-enabled metaverse, especially when controlled by powerful corporations that sell third-party access to its users for promotional purposes.
I raise these concerns in the hope that consumers and industry leaders will push for meaningful regulation before the problems become so ingrained in the technology of the metaverse that they’re impossible to undo.
(文:Louis Rosenberg、翻訳:Dragonfly)