マイクロソフトの「PeopleLens」プロジェクトは視覚に障がいをもつ子どもが社交的ヒントを学ぶ手助けをする
今回は「マイクロソフトの「PeopleLens」プロジェクトは視覚に障がいをもつ子どもが社交的ヒントを学ぶ手助けをする」についてご紹介します。
関連ワード (動作、実験、非言語的等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、TechCrunch様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
視覚障がいがある成人にとって困難なことの1つに、目が見える人たちの社交、会話に使われるボディランゲージを理解して参加することがある。PeopleLens(ピープルレンズ)はMicrosoft(マイクロソフト)の研究プロジェクトで、ユーザーに周囲にいる人たちの位置と名前を知らせて、会話をより豊かで自然なものにすることが目的だ。
晴眼者は部屋で周囲を見渡すだけで、どこに誰がいて誰が誰と話しているかなど、社交的な手がかりや行動に役立つ数多くの基本的情報を瞬時に得ることができる。しかし視覚障がい者は、現在、誰が部屋に入ってきたのか、誰かがその人を見て会話を促したのかどうか、必ずしも知ることができない。これは、集団への参加を避けるなど孤立や非社交的行動につながる。
Microsoftの研究者たちは、視覚障がいをもって生まれた子どもがその情報を得て有効に活用するために、テクノロジーをどう役立てられるかを知りたかった。そして作ったのがPeopleLens、ARメガネで動作する高度なソフトウェア群だ。
メガネに内蔵されたセンサーを使って、ソフトウェアは知っている顔を認識し、その人のいる場所と距離を音声によるヒントで示す。クリック、チャイム、名前の読み上げなどだ。例えばユーザーの頭が誰かに向くと小さなぶつかる音が鳴り、その人が3メートル以内にいれば続けて名前が読まれる。その後高くなっていく音によってユーザーがその人物の顔に注意を向ける手助けをする。他にも、近くにいる誰かがユーザーを見たときにも通知音が鳴るなどの機能がある。
PeopleLensソフトウェアとその3D表示(画像クレジット:Microsoft Research)
これは、この種のデバイスを一生身につけるということではなく、さまざまなヒントに気づき、社交的な反応を見せる能力を向上するための支援ツールとして使うことが目的だ。他の子どもたちが視覚を利用して学習する非言語的スキルを身につけるためにも役立つ。
現在のPeopleLensはまだまだ実験に過ぎないが、これまでに研究チームはかなりの年月を費やしてきている。次のステップは、英国内で5~11歳の長期間デバイスをテストできる子どもたちを集め、同世代分析を行うことだ。自分の子どもがあてはまると思う人は、MicrosoftのパートナーであるUniversity of Bristol(ブリストル大学)の研究ページで申し込みができる。
画像クレジット:Microsoft Research
【原文】
Among the challenges of growing up with a visual impairment is learning and participating in the social and conversational body language used by sighted people. PeopleLens is a research project at Microsoft that helps the user stay aware of the locations and identities of the people around them, promoting richer and more spontaneous interactions.
A sighted person looking around a room can quickly tell who is where, who’s talking to whom and other basic information useful for lots of social cues and behaviors. A blind person, however, may not know who has just entered a room, or whether someone has just looked at them to prompt them to speak. This can lead to isolation and antisocial behaviors, like avoiding groups.
Researchers at Microsoft wanted to look into how technology could help a child blind since birth access that information and use it in a way that made sense for them. What they built was PeopleLens, a clever set of software tools that run on a set of AR glasses.
Using the glasses’ built-in sensors, the software can identify known faces and indicate their distance and position by providing audio cues like clicks, chimes and spoken names. For instance, a small bump noise will sound whenever the user’s head points in anyone’s direction, and if that person is within 10 feet or so, it will be followed by their name. Then a set of ascending tones helps the user direct their attention toward the person’s face. Another notification will sound if someone nearby looks at the user, and so on.
The PeopleLens software and its 3D view of the environment. Image Credits: Microsoft Research
The idea isn’t that someone would wear a device like this for life, but use it as a learning aid to improve their awareness of other cues and how to respond to them in a prosocial way. This helps a kid build the same kinds of non-verbal skills that others learn with the benefit of sight.
Right now PeopleLens is very much an experiment, though the team has been working on it for quite a while. The next step is to assemble a cohort of learners in the U.K. between the ages of 5 and 11 who can test out the device over a longer period. If you think your kid might be a good match, consider signing up at Microsoft Partner the University of Bristol’s study page.
(文:Devin Coldewey、翻訳:Nob Takahashi / facebook )