性的嗜好や支持政党が顔認識アルゴリズムでわかる研究が物議を醸す
今回は「性的嗜好や支持政党が顔認識アルゴリズムでわかる研究が物議を醸す」についてご紹介します。
関連ワード (機械学習、顔認証等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、TechCrunch様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
顔の特徴だけで個人の支持政党をかなりの精度で判別できるという機械学習システムが研究者によって構築された。この研究は、性的嗜好も同様にして推測できる可能性があることを示したグループによって行われたものだが「現代版骨相学」であることを率直に述べ、その罠に陥らないよう慎重を期した上で、外見は我々が思っているよりも多くの個人情報を表している可能性があるという心地の悪い結論に到達している。
先のNature journal Scientific Reportsに掲載されたこの論文は、スタンフォード大学のMichal Kosinski(マイケル・コジンスキー)氏によって執筆された。個人の性的嗜好は顔データから推測できるという内容の同氏の論文は、2017年にもトップニュースを飾ったことがある。
この研究は批判を招いたが、その理由はその手法ではなく、概念上非身体的な(見た目ではわからないはずの)ことをこのような方法で検出できるという考え方にある。そもそもコジンスキー氏は、本人もずっと説明しているとおり、そうしたことは不可能だということを証明しようとしたのだが、結果は他の人にとっても、コジンスキー氏自身にとっても驚くべき、困ったものとなってしまった。この研究目的は、ゲイかどうかを識別する能力をAIで実現することではない。その反対である。研究チームが発表当時に寄稿したように、このようなテクノロジーが研究以外の目的で関心を持つ者によって開発されるリスクがあることを一般の人たちに警告する意味で、今回の研究結果を公開する必要があった。
この結果には本当に困惑しており、この事実を公開すべきかどうか判断に迷いました。公開することにより、我々が警告しているリスクが現実になってしまうのを避けたいと考えました。性的指向を公表するタイミングと相手をコントロールできることは、その人の幸福だけでなく、安全性のためにも極めて重要です。
政治家とLGBTQコミュニティに今直面しているリスクを早急に認識してもらう必要があります。我々はプライバシーを侵害するツールを開発したのではなく、広く利用されている基本的な方法が重大なプライバシー侵害を招くことを示したのです。
所属政党についても同様の警鐘を鳴らすことができるだろう。少なくとも現時点の米国では所属政党は性的嗜好ほど敏感または個人的な問題ではないが、敏感で個人的な問題であることは確かだ。政治的または宗教的に「反体制派」であるという理由で逮捕または殺害された人たちのニュースを1週間以上聞かないことはまずない。たとえばメッセージを傍受するといった方法ではなく、単に「アルゴリズムによって過激主義者と特定された」というだけで、抑圧的な政府が(逮捕または捜索するための)相当な理由を得られるとなると、そうした圧政的行為を非常に簡単かつ大規模に行えるようになってしまう。
このアルゴリズム自体は決して最先端のテクノロジーというわけではない。コジンスキー氏の論文では米国、カナダ、英国の出会い系サイトや米国のフェイスブックのユーザーの100万件を超える顔写真を収集し、機械学習システムに取り込んで学習させるというごく通常のプロセスが説明されている。顔写真が使用された人たちは、そのサイトのアンケートで政治的に保守派かリベラル派であることがわかっている。
このアルゴリズムは、オープンソースの顔認識ソフトウェアに基づいて開発されたもので、まず、顔だけを切り出す基本的な処理を行った後(これにより背景がアルゴリズムの処理対象から除外される)、さまざまな特徴を表す2048個のスコアで顔を単純化する。他の顔認識アルゴリズムと同様、この特徴は必ずしも「眉毛の色」とか「鼻のかたち」といった直感的なものではなく、よりコンピューターネイティブな概念だ。
画像クレジット:Michal Kosinski / Nature Scientific Reports
上述のユーザーから収集した所属政党データをこのシステムに取り込むと、保守派とリベラル派の顔に関する統計データの違いを細かく分析し始める。実際、両者の間には明らかな違いがある。
もちろん、これは「保守主義者は眉毛が濃い」とか「リベラル派にはしかめっ面が多い」といった単純なものではない。かといって、人口統計でもない。それではあまりに簡単で単純過ぎる。結局、支持政党が年齢や肌の色と関係があるなら、簡単な推測アルゴリズムができあがるはずだ。しかし、コジンスキー氏が使用したソフトウェアのメカニズムは極めて標準的なものであるが、この研究が前回のように疑似科学として片づけられないように同氏の考えたあらゆるケースを慎重に網羅するようにした。
これを実現する最も明白な方法は年齢、性別、人種が同じ人たちの支持政党をシステムに推測させるというものだ。このテストでは、2つの顔と2つの支持政党を提示し、どちらの顔がどちらの政党を支持しているか推測させた。偶然当たる確率は当然50%だ。人間はこの種の作業が苦手であり、結果は確立よりもわずかに高い55%程度であった。
このアルゴリズムで、年齢、性別、人種が一致する2人の支持政党を推測させた場合、正解率は71%の高確率となり、年齢、性別、民族性が任意の2人について推測させた場合(ただし、どちらかが保守派でどちらかがリベラル派という点は同じ)、正解率は73%に達した。
画像クレジット:Michal Kosinski / Nature Scientific Reports
4分の3という正解率は最近のAIにしては大成功とは言えないかもしれないが、人がやるとコイン投げより少し高い程度の正解率しか得られないことを考えると、検討するに値する何かがあるように思える。コジンスキー氏はその他のケースについても慎重に網羅した。確かに、この数字は、統計に現れた変則性や分離された結果の誇張ではないように思う。
支持政党が顔に現れるという考え方にはドキッとさせられる。ある人が右寄りか左寄りかということは最も個人的な情報とはいえないが、実体のない情報とみなされるのも当然だ。帽子、ブローチ、Tシャツなどで政治的信条を表現することはあるかもしれないが、人の顔というのは一般に無党派(政治的信条とは無関係)だと考えられてる。
顔のどの特徴に特に政治的信条が現れるのか知りたいと思うかもしれないが、残念ながらこのシステムではそこまで説明されることはない。コジンスキー氏は副次的な研究で、顔の特徴(顔の毛、凝視の程度、さまざまな感情)を数十個取り出し、それらに政治的信条がよく現れているかどうかをテストしたが、どの特徴も確率や人が推測したときよりも少し正解率が上がる程度だった。
「顔の向きや感情表現は際立った特徴だった。リベラル派は顔をカメラにまっすぐ向ける傾向があり、驚きの表情をする可能性が高いが、嫌悪感を見せることは少なかった」とコジンスキー氏は論文の執筆者ノートに書いている。しかし、こうした点を考慮しても、正解率の10%以上は説明がつかないままだった。「つまり、顔認識アルゴリズムは政治的志向を示す顔の特徴を他にもたくさん見つけたということだ」。
「そんなことがあるはずがない。骨相学はインチキだった」という反射的防御反応はここではあまり意味がない。これが真実であると考えるのは怖いが、極めて重要な真実である可能性があることを否定しても有益ではない。このアルゴリズムは人に対して非常に簡単に使える可能性があるからだ。
性的指向の研究と同様、ここでの問題は、こうした情報の完璧な検出システムを開発することではなく、それによって生まれるリスクを人々が認識し始めるような方法で実装できることを示すことである。例えば圧政的な神権体制が、性的指向がストレートでない人たちや特定の政治信条をも持つ人たちを厳重に取り締まる必要があると考えた場合、このようなテクノロジーは、そうした取り締まりを「客観的に」実施するための妥当な技術的手法を為政者に与えてしまうことになる。そのうえ、このやり方ならほとんど作業することなく、また、対象者に関する情報を取得することなく実施できてしまう。ソーシャルメディアの履歴を探ることや、購入品(ここにも政治的信条がよく現れる)を分析するといった作業も不要だ。
中国が追い詰められたウイグル族の宗教的少数派を見つけるための顔認識ソフトウェアを配備するというニュースが流れている。米国でも、当局はこの種のAIを信頼している。警察がこうした「最新のテクノロジー」を使って抗議行動の参加者の顔を分類し「この10人はシステムによって最もリベラルであると判定された」などと言っている様子は容易に想像できる。
数人の研究者がオープンソースソフトウェアと中規模の顔データベースを使うことで(政府にとって、この程度のシステムを構築するのは造作もないことだ。というより、おそらくすでに構築してしまっているだろう)世界中のどこでも、目的が何であれ、顔認識システムを実現できてしまうというのはゾッとする話だ。
「お門違いな非難は止めて欲しい。私は論文で、広範に利用されている顔認識アルゴリズムのリスクについて警鐘を鳴らしている。こうしたAI人相システムがすでに、性的指向の判別に使用されているのは懸念される。学者、政治家、市民は目を光らせる必要がある」とコジンスキー氏は語る。
関連記事:ポートランド市の顔認識技術禁止条例は民間企業も対象になる
画像クレジット:Design Cells / Getty Images
【原文】
Researchers have created a machine learning system that they claim can determine a person’s political party, with reasonable accuracy, based only on their face. The study, from a group that also showed that sexual preference can seemingly be inferred this way, candidly addresses and carefully avoids the pitfalls of “modern phrenology,” leading to the uncomfortable conclusion that our appearance may express more personal information that we think.
The study, which appeared this week in the Nature journal Scientific Reports, was conducted by Stanford University’s Michal Kosinski. Kosinski made headlines in 2017 with work that found that a person’s sexual preference could be predicted from facial data.
The study drew criticism not so much for its methods but for the very idea that something that’s notionally non-physical could be detected this way. But Kosinski’s work, as he explained then and afterwards, was done specifically to challenge those assumptions and was as surprising and disturbing to him as it was to others. The idea was not to build a kind of AI gaydar — quite the opposite, in fact. As the team wrote at the time, it was necessary to publish in order to warn others that such a thing may be built by people whose interests went beyond the academic:
We were really disturbed by these results and spent much time considering whether they should be made public at all. We did not want to enable the very risks that we are warning against. The ability to control when and to whom to reveal one’s sexual orientation is crucial not only for one’s well-being, but also for one’s safety.
We felt that there is an urgent need to make policymakers and LGBTQ communities aware of the risks that they are facing. We did not create a privacy-invading tool, but rather showed that basic and widely used methods pose serious privacy threats.
Similar warnings may be sounded here, for while political affiliation at least in the U.S. (and at least at present) is not as sensitive or personal an element as sexual preference, it is still sensitive and personal. A week hardly passes without reading of some political or religious “dissident” or another being arrested or killed. If oppressive regimes could obtain what passes for probable cause by saying “the algorithm flagged you as a possible extremist,” instead of for example intercepting messages, it makes this sort of practice that much easier and more scalable.
The algorithm itself is not some hyper-advanced technology. Kosinski’s paper describes a fairly ordinary process of feeding a machine learning system images of more than a million faces, collected from dating sites in the U.S., Canada and the U.K., as well as American Facebook users. The people whose faces were used identified as politically conservative or liberal as part of the site’s questionnaire.
The algorithm was based on open-source facial recognition software, and after basic processing to crop to just the face (that way no background items creep in as factors), the faces are reduced to 2,048 scores representing various features — as with other face recognition algorithms, these aren’t necessary intuitive things like “eyebrow color” and “nose type” but more computer-native concepts.
Image Credits: Michal Kosinski / Nature Scientific Reports
The system was given political affiliation data sourced from the people themselves, and with this it diligently began to study the differences between the facial stats of people identifying as conservatives and those identifying as liberal. Because it turns out, there are differences.
Of course it’s not as simple as “conservatives have bushier eyebrows” or “liberals frown more.” Nor does it come down to demographics, which would make things too easy and simple. After all, if political party identification correlates with both age and skin color, that makes for a simple prediction algorithm right there. But although the software mechanisms used by Kosinski are quite standard, he was careful to cover his bases in order that this study, like the last one, can’t be dismissed as pseudoscience.
The most obvious way of addressing this is by having the system make guesses as to the political party of people of the same age, gender and ethnicity. The test involved being presented with two faces, one of each party, and guessing which was which. Obviously chance accuracy is 50%. Humans aren’t very good at this task, performing only slightly above chance, about 55% accurate.
The algorithm managed to reach as high as 71% accurate when predicting political party between two like individuals, and 73% presented with two individuals of any age, ethnicity or gender (but still guaranteed to be one conservative, one liberal).
Image Credits: Michal Kosinski / Nature Scientific Reports
Getting three out of four may not seem like a triumph for modern AI, but considering people can barely do better than a coin flip, there seems to be something worth considering here. Kosinski has been careful to cover other bases as well; this doesn’t appear to be a statistical anomaly or exaggeration of an isolated result.
The idea that your political party may be written on your face is an unnerving one, for while one’s political leanings are far from the most private of info, it’s also something that is very reasonably thought of as being intangible. People may choose to express their political beliefs with a hat, pin or t-shirt, but one generally considers one’s face to be nonpartisan.
If you’re wondering which facial features in particular are revealing, unfortunately the system is unable to report that. In a sort of para-study, Kosinski isolated a couple dozen facial features (facial hair, directness of gaze, various emotions) and tested whether those were good predictors of politics, but none led to more than a small increase in accuracy over chance or human expertise.
“Head orientation and emotional expression stood out: Liberals tended to face the camera more directly, were more likely to express surprise, and less likely to express disgust,” Kosinski wrote in author’s notes for the paper. But what they added left more than 10 percentage points of accuracy not accounted for: “That indicates that the facial recognition algorithm found many other features revealing political orientation.”
The knee-jerk defense of “this can’t be true — phrenology was snake oil” doesn’t hold much water here. It’s scary to think it’s true, but it doesn’t help us to deny what could be a very important truth, since it could be used against people very easily.
As with the sexual orientation research, the point here is not to create a perfect detector for this information, but to show that it can be done in order that people begin to consider the dangers that creates. If for example an oppressive theocratic regime wanted to crack down on either non-straight people or those with a certain political leaning, this sort of technology gives them a plausible technological method to do so “objectively.” And what’s more, it can be done with very little work or contact with the target, unlike digging through their social media history or analyzing their purchases (also very revealing).
We have already heard of China deploying facial recognition software to find members of the embattled Uyghur religious minority. And in our own country, this sort of AI is trusted by authorities as well — it’s not hard to imagine police using the “latest technology” to, for instance, classify faces at a protest, saying “these 10 were determined by the system as being the most liberal,” or what have you.
The idea that a couple researchers using open-source software and a medium-sized database of faces (for a government, this is trivial to assemble in the unlikely possibility they do not have one already) could do so anywhere in the world, for any purpose, is chilling.
“Don’t shoot the messenger,” said Kosinski. “In my work, I am warning against widely used facial recognition algorithms. Worryingly, those AI physiognomists are now being used to judge people’s intimate traits – scholars, policymakers, and citizens should take notice.”
(文:Devin Coldewey、翻訳:Dragonfly)
機械学習とは | Microsoft Azure
機械学習の概念を概説します。機械学習の概要、機械学習のしくみ、機械学習プラットフォームに求める内容を確認できます。
機械学習 - Wikipedia
機械学習(きかいがくしゅう、英: Machine Learning )とは、経験からの学習により自動で改善するコンピューターアルゴリズムもしくはその研究領域で [1] [2] 、人工知能の一種であるとみなされている。「訓練データ」もしくは「学習データ
機械学習とは | SAS
機械学習とは、コンピューターがデータから反復的に学習し、そこに潜むパターンを見つけ出すことです。そして学習した結果を新たなデータにあてはめることで、パターンにしたがって将来を予測することができます。人手によるプログラミングで実装していたアルゴリズムを、大量のデータから自動的に構築可能になるため、さまざまな分野で応用されています。
機械学習とは?3つの学習方法と利用例までを分かりやすく解 …
NTT東日本は、中堅・中小企業や店舗で働く皆さま、個人事業主さまの課題を解決する、さまざまな取り組みを行っています。
機械学習とは?これだけは知っておきたい3つのこと - MATLAB ...
機械学習とは何か?なぜ重要なのか?仕組み、ビジネス活用事例、学習/習得法、アルゴリズムを分かりやすく解説。また、人工知能(AI)やディープラーニングとの違いについても説明します。
一から始める機械学習(機械学習概要) - Qiita
· 機械学習とは大量のデータに対し、そこに潜むパターンを覚えさせ(学習)、未知のデータを判断するルール(モデル)を獲得させることである。 現在において、機械学習は金融工学、画像処理、自動運転、生物学など様々な分野に影響を与え始めています。
【機械学習とは?】種類別に簡単にわかりやすく紹介 ...
「機械学習」という言葉を聞いたことがありますか?人工知能(AI)ブームを理解するための基本である「機械学習」について、種類別にわかりやすく解説しています。機械学習とディープラーニングの違いや、DQNについても簡単に解説しています。AI時代を生きる皆さんは必読の記事です。
機械学習をどこよりもわかりやすく解説! 教師ありなし学習 ...
· ディープラーニングは様々な機械学習の手法の中のあくまで一技術です。 機械学習とは「機械に大量のデータからパターンやルールを発見させ、それをさまざまな物事に利用することで判別や予測をする技術」のことです。両技術の違いについ
機械学習入門者が学ぶべきこと、学習方法を超具体的に解説し ...
· AIの注目が集まり、2010年代後半にかけて機械学習技術が大きく台頭しました。機械学習の知識は、これからの時代にキャリアを築いていくために必須とも言えるでしょう。合わせて多くの方が機械学習の知識やスキルを得たいと考えているはずです。
【2020年版】課題から探すAI・機械学習の最新事例52選 | 宙畑
世の中の企業がどのように機械学習を活用しているのか事例を知り、業界全体や自社の目の前の業務で抱えている課題解決に活かせるかを考えるきっかけとなるよう、52種類の事例を紹介します。
7564:
2021-03-02 23:24先月iPhoneSE第二世代に替えて、丸ボタン復活して使いやすいって思ってるんだけど(特に顔じゃなくて指紋認証なとこが)1歳2か月の息子にめっちゃ狙われる。昨日5分使えなくなった。そういや、娘の小さい時も使えなくなったなーって思い出して、丸ボタンも不自由だなとも思った。