ソーシャルメディアで大切なのは「事後修正」、人はフェイクニュースを見た後に警告を受けたほうがそれを信じない

今回は「ソーシャルメディアで大切なのは「事後修正」、人はフェイクニュースを見た後に警告を受けたほうがそれを信じない」についてご紹介します。

関連ワード (ソーシャルメディア、フェイクニュース、モデレーション等) についても参考にしながら、ぜひ本記事について議論していってくださいね。

本記事は、TechCrunch様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。


ソーシャルネットワークやその他のプラットフォームが誤情報に対処するには、それが偽りか否かを知るだけでは十分ではない。それに対して、人々がどう反応するかまで知る必要がある。MITとコーネル大学の研究者は、驚きの、しかし微妙な発見をした。これは、Twitter(ツイッター)とFacebook(フェイスブック)の問題をはらむコンテンツの対処方法に影響を与えそうだ。

MITの発見は、直感に反するものだった。タイムラインに誤解を招くタイトルが現れたとき、打つべき論理的な対策は、真偽が怪しい内容であることを読者にまず知らせるために、事前に警告を表示することだと思われていた。だが、それは間違いだった。

この調査では、3000人近い人々を対象に、内容に関するいろいろなかたちでの警告(警告なしも含む)を見せてから、タイトルの信ぴょう性を判断してもらった。

「この調査を行うにあたって、私は事前に修正情報を提供するのが最善策だと期待していました。なので人々は、問題のタイトルに出くわしても嘘の主張は信じないものと考えていました。ところが驚いたことに、実際は逆だったのです」とMIT Newsの記事を共同執筆したDavid Rand(デイビッド・ランド)氏は書いている。「遭遇した後にその主張を修正するのが、最も効果的でした」。

そのタイトルには誤解を招く恐れがあると事前に警告を与えたところ、人々の判断の精度は5.7%向上した。タイトルと同時に警告を表示すると、精度は8.6%に上がる。しかし、後で警告を示した場合は25%も良くなった。つまり、かなり高い割合で、事前警告よりも事後修正が勝ったことになる。

研究チームは、既存の判断が生まれる過程を改めるのではなく、既存の判断に評価を取り込もうとする傾向があるという他の兆候と一致する点を示唆し、原因はそこにあると推測した。問題はかなり根深く、小手先で対処できるようなものではないと、彼らは警告している。

また、コーネル大学の調査結果は安心と不安が半々の内容だった。誤解を招く恐れのある情報に接した人は、読者の政治的立場に則しているか否かは関係なく、確実に大きなグループの意見の影響を受けた。

これには安心する。なぜなら、人は100人中80人がその話を怪しいと感じたなら、たとえその80人のうち70人が意見を異にするグループに属していたとしても、何かありそうだと疑いを持つことを示唆しているからだ。だが不安もある。なぜなら大きなグループの考えがあちらこちらに変わるだけで、自分の意見も簡単に揺らいでしまうからだ。

「人の気持ちは、政治的な立場とは別に社会的な影響によって変わってしまうことが、具体的に示されました」と、論文の筆頭著者である大学院生のMaurice Jakesch(モーリス・ジェイクシュ)氏はいう。「これは、オンラインスペースの二極化を解消し人々を1つにまとめる手段として、社会的影響を利用する道を開くものです」。

それでも、党派による感情も影響しているといわざるを得ない。別の党派に属する人たちの集団的な意見が、考えを左右する割合は21%下がる。だとしても、人は集団の判断に影響される傾向は強い。

誤情報がこれほど拡散した原因としては、そうした話に人が魅力を感じる理由、その魅力を弱める手段、その他の細かい疑問をよく理解していない点がある。暗闇の中で失敗を重ねている間は、ソーシャルメディアが解決策を探し当てることは期待できない。しかし、こうした研究の一つひとつが、少しずつ光明を増やしていくのだろう。

画像クレジット:Bryce Durbin / TechCrunch


【原文】

If social networks and other platforms are to get a handle on disinformation, it’s not enough to know what it is — you have to know how people react to it. Researchers at MIT and Cornell have some surprising but subtle findings that may affect how Twitter and Facebook should go about treating this problematic content.

MIT’s contribution is a counterintuitive one. When someone encounters a misleading headline in their timeline, the logical thing to do would be to put a warning before it so that the reader knows it’s disputed from the start. Turns out that’s not quite the case.

The study of nearly 3,000 people had them evaluating the accuracy of headlines after receiving different (or no) warnings about them.

“Going into the project, I had anticipated it would work best to give the correction beforehand, so that people already knew to disbelieve the false claim when they came into contact with it. To my surprise, we actually found the opposite,” said study co-author David Rand in an MIT news article. “Debunking the claim after they were exposed to it was the most effective.”

When a person was warned beforehand that the headline was misleading, they improved in their classification accuracy by 5.7%. When the warning came simultaneously with the headline, that improvement grew to 8.6%. But if shown the warning afterwards, they were 25% better. In other words, debunking beat “prebunking” by a fair margin.

The team speculated as to the cause of this, suggesting that it fits with other indications that people are more likely to incorporate feedback into a preexisting judgment rather than alter that judgment as it’s being formed. They warned that the problem is far deeper than a tweak like this can fix.

“There is no single magic bullet that can cure the problem of misinformation,” said co-author Adam Berinsky. “Studying basic questions in a systematic way is a critical step toward a portfolio of effective solutions.”

The study from Cornell is equal parts reassuring and frustrating. People viewing potentially misleading information were reliably influenced by the opinions of large groups — whether or not those groups were politically aligned with the reader.

It’s reassuring because it suggests that people are willing to trust that if 80 out of 100 people thought a story was a little fishy, even if 70 of those 80 were from the other party, there might just be something to it. It’s frustrating because of how seemingly easy it is to sway an opinion simply by saying that a large group thinks it’s one way or the other.

“In a practical way, we’re showing that people’s minds can be changed through social influence independent of politics,” said graduate student Maurice Jakesch, lead author of the paper. “This opens doors to use social influence in a way that may de-polarize online spaces and bring people together.”

Partisanship still played a role, it must be said — people were about 21% less likely to have their view swayed if the group opinion was led by people belonging to the other party. But even so, people were very likely to be affected by the group’s judgment.

Part of why misinformation is so prevalent is because we don’t really understand why it’s so appealing to people, and what measures reduce that appeal, among other simple questions. As long as social media is blundering around in darkness they’re unlikely to stumble upon a solution, but every study like this makes a little more light.

 

 

(翻訳:金井哲夫)


ソーシャルメディア – HubSpot

ソーシャルメディア上の重要なやり取りを見逃すことなく、次のチャンスにつなげられます。 デモを申し込む 数万社のお客様がハブスポットのソリューションを利用して、SNS上のコミュニケーションを分析しています。その機能をぜひお確かめ

総務省|平成30年版 情報通信白書|ソーシャルメディアの利用状況

(1)ソーシャルメディアの利用状況 ここでは、平成29年通信利用動向調査での定義に基づき、ソーシャルメディアを「ブログ、ソーシャルネットワーキングサービス(SNS)、動画共有サイトなど、利用者が情報を発信し、形成していくメディア」とする。

ソーシャルメディアとは (social media): – IT用語辞典バイナリ

ソーシャルメディアとは、Web上で提供されるサービスのうち、ユーザーの積極的な参加によって成り立ち、ユーザー間のコミュニケーションをサービスの主要価値として提供するサービスの総称である。ソーシャルメディアとよく似た表現にCGM、UGMという言葉がある。どちらかと言えば、CGMやUGMは、Wikiやブ

ソーシャルメディア詐欺検出市場―詐欺の種類別(不正製品 …

Kenneth Researchは、ソーシャルメディア詐欺検出市場の予測評価を提供する調査レポートを2021年01月 20日 に発刊しました。これは、ソーシャルメディア詐欺検出市場の成長ドライバー、市場機会、課題、脅威など、いくつかの主要な市場ダイナミクス強調しています。 レポートのサンプルURL: https://w…

愛国者の拠点となったソーシャルメディアParlerのAWS復帰要求 …

連邦裁判所は保守系ソーシャルネットワークのParlerが、自社サービスをAWSでホストするようAmazonに強制しようとする訴えを却下した。Parlerの貧弱な法的主張を見た人なら大方想像がつくように、法廷は本訴訟を「おぼろげで事実と異なる憶測」にすぎず介入を正当化する理由はないと裁定した。

ソーシャルメディア詐欺検出市場―詐欺の種類別(不正製品 …

KennethResearchは、ソーシャルメディア詐欺検出市場の予測評価を提供する調査レポートを2021年01月20日に発刊しました。これは、ソーシャルメディ…(2021年1月21日 8時46分31秒)

ソーシャルメディアを用いた新型コロナ禍におけ る感情変化 …

ソーシャルメディアを用いた新型コロナ禍における感情変化の分析 3 inversed document frequency)法を適用して得られ た語群をコミュニティの特徴語とする. (6) 得られた各コミュニティについて,STEP(4) と STEP(5) を再帰的に適用し,階層的なコミュニティ

ソーシャルメディア – MAZDA

ソーシャルメディア マツダが運営するソーシャルメディアやブログ、デジタルマガジンのご紹介。 Mazda Japan @Mazda_PR Mazda Movie Channel ALL-NEW MAZDA3/新型MAZDA3 (日本語字幕版) ※本動画は2018年11月27日時点の …

ソーシャルメディアポリシー|住友ゴム工業

ソーシャルメディアを利用する際は、基本的人権、肖像権、プライバシー権や個人情報に十分配慮するとともに、法令や住友ゴムグループの企業行動基準、各種指針、ルール等を遵守します。 <お客様および当社グループに関する全て …

ガイアックスは、ソーシャルメディアとシェアリング …

Gaiax is a responsibility-driven community that empowers the people to connect. ガイアックスは、人と人をつなげるため、ソーシャルメディアとシェアリングエコノミーに注力し、社会課題の解決を目指すスタートアップスタジオです。

COMMENTS


Recommended

TITLE
CATEGORY
DATE
Facebook、トランプ前米大統領のアカウント停止は2023年1月7日までの期限付きに
企業・業界動向
2021-06-06 13:24
Avast、「BianLian」ランサムウェアの復号ツールを無料で公開
IT関連
2023-01-20 08:45
オープンソースの安全性を高める「アルファ-オメガプロジェクト」、OpenSSFが開始。マイクロソフトとGoogleがプロジェクトリーダーに
オープンソース
2022-02-14 05:03
競合は米国企業–富士通が研究開発リソースを投じる、5つの技術領域
IT関連
2023-10-21 03:30
Deno、SQLiteベースのキーバリューストア「Deno KV」のスタンドアロン版を公開。ソースコードもオープンに
Deno
2023-11-13 10:47
プライバシー重視検索エンジンDuckDuckGo、「収益は年間1億ドル以上、1億ドル以上の調達も」
アプリ・Web
2021-06-18 21:51
トヨタ、自動車の生産順序の組み合わせに量子着想技術を適用開始
IT関連
2022-10-23 18:45
DeNA、10年ぶり社長交代 球団やゲーム事業率いた岡村氏が昇格
ネットトピック
2021-02-11 05:22
Relativity Spaceが生産能力を10倍にすべく9万平米超の工場を建設、再利用可能3DプリントロケットTerran R製造へ
宇宙
2021-07-02 03:06
つながりは「インスタ」 総長なき令和の暴走族
IT関連
2021-05-12 17:25
ビッグテックを規制する新組織を設立する法案、米議員が提出
IT関連
2023-07-29 20:49
AIとのペアプロへまた一歩前進、「GitHub Copilot」登場。AIがコメントからコード生成、書きかけのコードを補完、コードを見てテストコード自動生成など
AI
2021-07-01 07:42
“まるで本物”日本刀、花札の3DCGを作る少数精鋭集団 こだわりでリアルさ追求 「目指すはナンバーワン」 (1/2 ページ)
アプリ・Web
2021-02-02 10:47
ランサムウェア攻撃、多要素認証に遭遇すると諦めるケースも
IT関連
2022-08-04 00:31