EUが大手テック企業の「新型コロナ偽情報対応は不十分」と指摘
今回は「EUが大手テック企業の「新型コロナ偽情報対応は不十分」と指摘」についてご紹介します。
関連ワード (EU、Facebook、Google、Microsoft、TikTok、Twitter、偽情報、新型コロナウイルス、欧州委員会等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、TechCrunch様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
欧州連合(EU)は、大手テック企業に対し、各社のプラットフォームにおける偽ワクチン情報の拡散に対する監視の取り組みについて、さらに6カ月間報告するよう要求した。
現地時間6月3日、欧州委員会は「EU全域でのワクチン接種キャンペーンが着実かつペースを上げながら進展する現在、できるだけ多くのワクチン接種を完了するためには今後数カ月が決定的な意味を持つ。この重要な時期に、有害な偽情報によってワクチン接種を忌避する気持ちが助長されないようにするために、監視プログラムの継続が必要である」とするレポートを公表した。
Facebook(フェイスブック)、Google(グーグル)、Microsoft(マイクロソフト)、TikTok(ティックトック)、Twitter(ツイッター)の各社は、EUの(法的拘束力のない)「偽情報に関する行動規範」に参加し、毎月報告書を作成しているが、今後は隔月で報告することになる。
欧州委員会は、4月の各社の報告書(最新版)を公表し、大手テック企業が「危険な嘘」を自分たちだけで取り締まることはできないことが示されたと述べ、ネット上の偽情報に対する取り組みについて、各プラットフォームから(自発的に)提供されているデータの質と内容に引き続き不満を表明した。
EUの価値観・透明性バイスプレジデントであるVěra Jourová(ベラ・ヨウロバー)氏は、声明の中で次のように述べる。「これらの報告書は、偽情報を減らすために各プラットフォームが実施している施策を効果的に監視することの重要性を示しています」「このプログラムを延長することにしたのは、危険な嘘がネット上に氾濫し続けていること、そして偽情報に対抗する次世代の規範の作成に有益であることが理由です。私たちは、強固な監視プログラムと、各プラットフォームの取り組みの影響を測定するためのより明確な指標を必要としています。プラットフォーム単独では取り締まることはできません」。
欧州委員会は2021年5月、自主的な規範を強化する計画を発表し、有害な偽情報を排除するために、より多くの企業、特にアドテック企業が参加することを望むと述べた。
この行動規範の取り組みはパンデミックより前、2018年に開始された。大規模な政治関連の偽情報スキャンダルを受けて「フェイクニュース」が民主主義のプロセスや公共の議論に与える影響に対する懸念が高まっていた年だ。今般、新型コロナウイルス感染症(COVID-19)による公衆衛生上の危機によって、危険な偽情報がネットで増幅されるという問題への関心が加速し、議員の間でも重要視されるようになった。
議員たちは、欧州委員会が「共同規制」と呼ぶ自主的なアプローチを継続することを希望していて、オンラインの偽情報に対する地域的な法的規制を確立することは(今のところ)計画していない。共同規制は、(違法ではないものの)潜在的に有害なコンテンツに対するプラットフォームの行動と関与を促すもので、例えばユーザーが問題を報告したり、削除を訴えたりするためのツールの提供を求めるが、プラットフォームが規制を遵守できなかったとしても直接的な法的制裁を受けることはない。
とはいえ、EUデジタルサービス法(DSA)という、プラットフォームへの圧力を高める新たな手段も用意されている。2020年末に提案されたこの法案は、プラットフォームによる違法コンテンツの取り扱いを規定するもので、欧州委員会は「偽情報に関する行動規範」に積極的に関与するプラットフォームは、DSA遵守の監督当局から好意的に見てもらえるだろうと示唆している。
また、EU域内市場担当委員のThierry Breton(ティエリー・ブルトン)氏は、現地時間6月3日の声明で「行動規範を強化してDSAと組み合わせれば『EUにおける偽情報対策の新たな1ページ』を開くことになる」と述べ、次のように続けた。
「ワクチン接種キャンペーンの重要な時期に、各企業が取り組みに力を入れ、私たちのガイダンスに沿う強化された行動規範への遵守を、できるだけ早く実現することを期待しています」。
規制当局にとって偽情報は依然として厄介なテーマだ。なぜなら、ネット上のコンテンツの価値は非常に主観的なものであり、問題となっているコンテンツがどれほど馬鹿げたものであっても、中央集権的な情報削除の命令は、検閲と見做される危険性があるからだ。
公衆衛生に対する明らかなリスク(反ワクチン接種のメッセージや欠陥のある個人用防護具の販売など)を考えると、新型コロナ関連の偽情報の削除には、確かに議論の余地は少ない。しかし、ここでも欧州委員会は、ワクチンに肯定的なメッセージを発信させたり、権威ある情報源を明らかにさせたりすることで、プラットフォームが行っている言論保護措置を前面に押し出そうとしているように見える。欧州委員会のプレスリリースでは、Facebookはワクチンのプロフィール写真フレームを用意してユーザーにワクチン接種を奨励したとか、Twitterは16か国で開催された世界予防接種週間の期間中にユーザーのホームタイムラインに表示されるプロンプトを導入して、ワクチンに関する会話で500万回のインプレッションを得たことなどが紹介されている。
2021年4月の報告書には、各社が実際に行った削除についても詳しく記載されている。
Facebookは、新型コロナウイルスおよびワクチンの誤情報に関するポリシーに違反したとして、EU域内で4万7000件のコンテンツを削除したと報告したが、欧州委員会は、前月に比べてわずかに減少したと指摘している。
Twitterは、新型コロナの偽情報に関する話題について、4月中に全世界で2779のアカウントに異議申し立てを行い、260のアカウントを停止し、5091のコンテンツを削除したと報告した。
一方、Googleは、AdSenseで1万549のURLに対して措置を講じたと報告しており、欧州委員会はこれを2021年3月(1378件)に比べて「大幅な増加」としている。
この増加は良いニュースなのか?悪いニュースなのか?疑わしい新型コロナ広告の削除数の増加は、Googleによる取り締まりの強化を意味するかもしれないし、Googleの広告ネットワークにおける新型コロナ関連の偽情報問題の大幅な拡大を意味するのかもしれない。
ネット上の偽情報について曖昧な線引きをしようとしている規制当局が今まさに抱える問題は、報告要件が標準化されておらず、プラットフォームのデータへの完全なアクセス権がない状態で、これらの大手テック企業の行動をどのように定量化し、その効果や影響を正しく把握するか、ということにある。
そのためには、各社が内容を選択できる自己申告ではなく、規制が必要なのかもしれない。
関連記事
・フェイスブックが「新型コロナ人工説」を削除しないように誤報に関するルールを変更
・ソーシャルメディアCEO3人が米下院公聴会で反ワクチン誤情報アカウントを削除するか聞かれ言葉を濁す
・ソーシャルメディアで大切なのは「事後修正」、人はフェイクニュースを見た後に警告を受けたほうがそれを信じない
画像クレジット:warodom changyencham / Getty Images
【原文】
European Union lawmakers have asked tech giants to continue reporting on efforts to combat the spread of vaccine disinformation on their platforms for a further six months.
“The continuation of the monitoring programme is necessary as the vaccination campaigns throughout the EU is proceeding with a steady and increasing pace, and the upcoming months will be decisive to reach a high level of vaccination in Member States. It is key that in this important period vaccine hesitancy is not fuelled by harmful disinformation,” the Commission writes today.
Facebook, Google, Microsoft, TikTok and Twitter are signed up to make monthly reports as a result of being participants in the bloc’s (non-legally binding) Code of Practice on Disinformation — although, going forward, they’ll be switching to bi-monthly reporting.
Publishing the latest batch of platform reports for April, the Commission said the tech giants have shown they’re unable to police “dangerous lies” by themselves — while continuing to express dissatisfaction at the quality and granularity of the data that is being (voluntarily) provided by platforms vis-à-via how they’re combating online disinformation generally.
“These reports show how important it is to be able to effectively monitor the measures put in place by the platforms to reduce disinformation,” said Věra Jourová, the EU’s VP for values and transparency, in a statement. “We decided to extend this programme, because the amount of dangerous lies continues to flood our information space and because it will inform the creation of the new generation Code against disinformation. We need a robust monitoring programme, and clearer indicators to measure impact of actions taken by platforms. They simply cannot police themselves alone.”
Last month the Commission announced a plan to beef up the voluntary Code, saying also that it wants more players — especially from the adtech ecosystem — to sign up to help de-monitize harmful nonsense.
The Code of Practice initiative pre-dates the pandemic, kicking off in 2018 when concerns about the impact of “fake news” on democratic processes and public debate were riding high in the wake of major political disinformation scandals. But the COVID-19 public health crisis accelerated concern over the issue of dangerous nonsense being amplified online, bringing it into sharper focus for lawmakers.
In the EU, lawmakers are still not planning to put regional regulation of online disinformation on a legal footing, preferring to continue with a voluntary — and what the Commission refers to as “co-regulatory” — approach, which encourages action and engagement from platforms vis-à-vis potentially harmful (but not illegal) content, such as offering tools for users to report problems and appeal takedowns, but without the threat of direct legal sanctions if they fail to live up to their promises.
It will have a new lever to ratchet up pressure on platforms too, though, in the form of the Digital Services Act (DSA). The regulation — which was proposed at the end of last year — will set rules for how platforms must handle illegal content. But commissioners have suggested that those platforms which engage positively with the EU’s disinformation Code are likely to be looked upon more favorably by the regulators that will be overseeing DSA compliance.
In another statement today, Thierry Breton, the commissioner for the EU’s Internal Market, suggested the combination of the DSA and the beefed up Code will open up “a new chapter in countering disinformation in the EU”.
“At this crucial phase of the vaccination campaign, I expect platforms to step up their efforts and deliver the strengthened Code of Practice as soon possible, in line with our Guidance,” he added.
Disinformation remains a tricky topic for regulators, given that the value of online content can be highly subjective and any centralized order to remove information — no matter how stupid or ridiculous the content in question might be — risks a charge of censorship.
Removal of COVID-19-related disinformation is certainly less controversial, given clear risks to public health (such as from anti-vaccination messaging or the sale of defective PPE). But even here the Commission seems most keen to promote pro-speech measures being taken by platforms — such as to promote vaccine-positive messaging and surface authoritative sources of information — noting in its press release how Facebook, for example, launched vaccine profile picture frames to encourage people to get vaccinated, and that Twitter introduced prompts appearing on users’ home timeline during World Immunisation Week in 16 countries, and held conversations on vaccines that received 5 million impressions.
In the April reports by the two companies there is more detail on actual removals carried out too.
Facebook, for example, says it removed 47,000 pieces of content in the EU for violating COVID-19 and vaccine misinformation policies, which the Commission notes is a slight decrease from the previous month.
While Twitter reported challenging 2,779 accounts, suspending 260 and removing 5,091 pieces of content globally on the COVID-19 disinformation topic in the month of April.
Google, meanwhile, reported taking action against 10,549 URLs on AdSense, which the Commission notes as a “significant increase” versus March (+1,378).
But is that increase good news or bad? Increased removals of dodgy COVID-19 ads might signify better enforcement by Google — or major growth of the COVID-19 disinformation problem on its ad network.
The ongoing problem for the regulators who are trying to tread a fuzzy line on online disinformation is how to quantify any of these tech giants’ actions — and truly understand their efficacy or impact — without having standardized reporting requirements and full access to platform data.
For that, regulation would be needed, not selective self-reporting.
(文:Natasha Lomas、翻訳:Dragonfly)
41079:
2021-06-14 04:07赤ちゃんの性別の話 本当に色々な事情があるんだろうなと思った