Facebookの監督委員会はすでに「少し不満を感じている」、トランプ氏のアカウント停止については判断を保留

今回は「Facebookの監督委員会はすでに「少し不満を感じている」、トランプ氏のアカウント停止については判断を保留」についてご紹介します。

関連ワード (Facebook、SNS、ドナルド・トランプ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。

本記事は、TechCrunch様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。


Facebook監督委員会(FOB)は、Facebook(フェイスブック)のコンテンツモデレーションの決定を検討する際に、二者択一の選択を求められることにすでに不満を感じている、とメンバーの1人が語った。米国時間3月3日、オンライン上の表現の自由に関する調査を行っている英国貴族院委員会で証言した時のことだ。

FOBは現在、FacebookのDonald Trump(ドナルド・トランプ)前大統領のアカウントに対する措置を覆すかどうかを検討している。2021年初頭、トランプ氏の支持者が米国の首都を襲撃したことを受けて、このテクノロジー界の巨人はトランプ氏のアカウントを「無期限に」停止した。

関連記事
・Facebookの監督委員会がトランプ氏のアカウント停止に対するパブリックコメントを募集
・FacebookとInstagramがトランプ大統領のアカウントを「少なくとも政権交代が完了」までブロック

米国時間1月6日に起きた混乱極まる暴動では、数人を死に至らしめ、トランプ氏が大手テクノロジープラットフォームを拡声器として利用し国民の分断と憎悪を煽っていたことについて、各社が抑止力を働かせることもなく黙認していたと、非難の声が広がっている。

しかし最終的に、Facebookはトランプ氏のアカウントを停止し、ほぼ同時にこの件を自ら組織し自ら命名した監督委員会の審査に委ねた。このことは、Facebook自身が立ち上げ、出資し、メンバーを決めた例外的な審査プロセスによって、トランプ氏への措置がすぐに覆される可能性があることを意味する。

英国の新聞社The Guardian(ガーディアン)の元編集長のAlan Rusbridger(アラン・ラスブリッジャー)氏は、委員として選ばれたFOB初期メンバー20人(人数は40人に倍増される予定)の一人だが、3月3日、審査が進行中であることを考慮しトランプ氏のケースについて直接言及することは避けたものの、初期段階での二者択一の選択肢は、自由に選択できるとは言え同氏が望むような繊細さを備えるものではないことを暗に語った。

「現在注目されているケースについてはコメントを控えるが、誰かを永久に追放するのではなく、『ペナルティーボックス』を用意して、再度何か問題を起こした場合には、その時点で追放するというのはどうだろうか」と述べ、代替案としてサッカーの「イエローカード」のような制度を望んでいることを示唆した。

「FOBは、その裁量を広げたいと考えている。単に追放か放置かだけでは、すでに少し閉塞感を感じている」と話し「もし、拡散を抑制したい場合はどうすればいいだろうか。何か枠をはめたい場合はどうだろうか」と続ける。

「そういったことは、いずれFOBがFacebookに要請することになるだろう。しかし、FOBは、まず自信を持って仕事に取り掛からなければならない。望む結果を得ることができる」。

ラスブリッジャー氏は貴族院委員会で「どのみちある時点で、アルゴリズムを見せてもらうことになると思う。それを見たときに理解できるかどうかは別問題だ」と語った。

多くの人にとって、Facebookのトランプ氏のアカウント停止は議論の余地がない。トランプ氏が暴動を煽るためにFacebookを使い続けることで、さらなる暴力を引き起こす危険性があるからだ。また、Facebookの規則に照らし合わせれば、Facebookのコミュニティ基準に対して明らかな違反が繰り返されている。

Facebookの元最高セキュリティ責任者のAlex Stamos(アレックス・ステイモス)氏は、このアカウント停止の支持者の一人だ。同氏は現在、スタンフォード大学インターネット観測所を通じて、オンラインプラットフォームの信頼性と安全性に関する幅広い問題に取り組んでいる。

ステイモス氏は1月初旬、Twitter(ツイッター)とFacebookの両社に「正当な公平性は失われた。レッテルを貼るだけではダメだ」と、すべてが始まる前にトランプ氏を排除するよう要請していた。

There have been good arguments for private companies to not silence elected officials, but all those arguments are predicated on the protection of constitutional governance.

Twitter and Facebook have to cut him off. There are no legitimate equities left and labeling won't do it. pic.twitter.com/Nji6A4sJum

— Alex Stamos (@alexstamos) January 6, 2021

しかし最終的に、大手テクノロジー企業がほぼ一丸となってトランプ氏の口を封じたことを受けて、いくつかの国の首脳や議員が、大手テクノロジー企業の権力の誇示に懸念を表明した。

関連記事:トランプ大統領はこうしてプラットフォームを失った、テック業界にとって前代未聞の歴史的な1週間を振り返る

ドイツの首相は、Twitterがトランプ氏のアカウントを停止したことを「問題がある」とし、言論を妨害するプラットフォームの力について厄介な問題を提起したと述べた。一方、欧州の他の議員らは、この一方的な行動を重く受け止め、巨大テクノロジー企業に対するしかるべき民主的規制の必要性を主張した。

世界で最も影響力を持つソーシャルメディアプラットフォームが、民主的に選出された大統領(それがトランプ氏のように対立を生み不人気な大統領であったとしても)を黙らせたという事実は、あらゆる立場の政治家に不快感を与えた。

いうまでもなく、Facebookの予想に違わぬ反応は、この二面性のある難題をFOBの判断に委ねることだった。結局のところ、それがFOBを計画した目的そのものだ。FOBは、物議を醸す面倒なコンテンツモデレーションに対処するために存在する。

そしてそのレベルでは、Facebookの監督委員会は、Facebookが意図した通りの仕事をしている。

しかし、この私的な「最高裁判所」が、二者択一に限られる裁定を求められていることに対してすでに不満を感じているというのは興味深い(トランプ氏のケースでは、アカウント停止を完全に破棄するか、無期限に継続するか、ということだ)。

FOBの非公式な発言の意味するところは、与えられた手段があまりにも柔軟性に欠けるということのようだ。しかしFacebookは、FOBが出す可能性のある広範な指針の提案に拘束されるとは言っておらず、個々の審査決定に従うとだけ言っている(つまり、FOBがFacebookに対して一般的な批判を表明しても重要なところで影響力はないということだ)。

FOBが不満の解消に向けて、どれだけ積極的にFacebookに働きかけるかは、まだわからない。

「どれも簡単に片付く問題ではない」。ラスブリッジャー氏は貴族院委員会でそのように述べ、デジタル時代における言論の抑制の課題について、より一般的な見解を示した。同氏は、グーテンベルクが発明した印刷機によって生じた長期に渡る社会的混乱を例に挙げ、インターネットがもたらした発信の革命に対応するためには、実際には何世代にもわたる取り組みが必要になる可能性を示唆している。

もしFacebookの期待することが、FOBが知性を発揮しつつコンテンツモデレーションに絡む難しい(そして厄介な)問題を棚上げにすることであれば、ラスブリッジャー氏の証言が示すようなFOBの内部で行われている熟慮のレベルに、きっと満足していることだろう(もしかすると、自ら任命した委員らにアルゴリズムのブラックボックスの開示を求められることを、不愉快に思っているかもしれないが)。

St John’s(セントジョーンズ)大学法科大学院のKate Klonick(ケイト・クロニック)准教授も貴族院委員会で証言した。クロニック氏は、FOBが設立される過程を取材するためにFacebookから広範なアクセス権を与えられ、FOBの内部構造に関する記事を執筆した。その記事は、最近The New Yorker(ザ・ニューヨーカー)に掲載された。

貴族院委員会は、FOBの運営についてより精通すべく、FOBのFacebookからの独立性について何度か参考人に質問した。

ラスブリッジャー氏は「自分たちがFacebookのために働いているとはまったく思っていない」と述べ、この点に関する懸念を否定した。FOBのメンバーは、Facebookが設立した信託会社を通じてFacebookから報酬を得ているが、これはFOBをFacebook本体から独立した立場に置くためだ。貴族院委員会は、FOBがどれほど純粋に独立しているのかを問うために、躊躇なく報酬の問題に切り込んだ。

ラスブリッジャー氏は「非常に独立していると思っている」と答え「Facebookに友好的でなければならないとか、否定的でなければならないといった義務があるとはまったく思っていない」と述べた。

「FOBの良いところは、時には誰かが『しかし、もしそんなことをしたら、どこそこの国でのFacebookの経済モデルが台無しになる』と言ったとしても、『それは私たちの問題ではない』と答える。これはとても自由なことだ」と同氏は付け加える。

もちろん、FOBの現職のメンバーが、一斉に報酬を辞退するなどしない限り、独立性の質問には他に答えようがないだろう(誤解のないようにいうと、ラスブリッジャー氏は辞退していない)。

FOBのメンバーは1期3年で3回の任期を務められることが確認されているので、同氏はFacebookのために、今後10年近く熟慮を続けることになる。

一方、クロニック氏は、Facebookが準独立の監視機関をゼロから構築し、同社自身と自らが監視機関と称するFOBとの間に距離を置くという課題の難しさを強調した。

「監視機関としての制度を構築すること、つまり、制度構築への移行や、[FOBとFacebookの間の]しがらみの排除、そして膨大な難題、新しいテクノロジー、新しいバックエンド、コンテンツ管理システムなどとともに新しい人たちを組織することは、信じられないほど難しいことだ」と同氏は語る。

ラスブリッジャー氏によると、FOBの「研修期間」の間、Facebookの代表者が参加する広範なトレーニングプロセスを経たとのことだ。しかし、トレーニングの終了後、Facebookの代表者がまだ通話に参加していることに気付いたときのことを説明し、その時点でFOBはFacebookに退去を指示する権限を得たと思うと話した。

クロニック氏は「その状況を見ていて、これはまさに、起こるべきことが起こった瞬間だったと思う」と述べ「ある種の正式な決別が必要だった。背中を押されて巣立つ瞬間、FOBがトレーニングを終えた時点がその時であり、当然の成り行きだった」と付け加える。

しかし、FacebookがFOBの通話を文字通り盗み聞きしていないことを独立性の尺度とするならば、Facebookは、自らの監督者をプログラムするための長く複雑なプロセスにおいて、選ばれた意欲的な参加者をどれほどうまく洗脳したのか、立ち上げを監視するために入れた付加的な部外者も含めて、疑ってみなければならない。

貴族院委員会は、FOBがこれまでのところ、ほとんどの場合、モデレーターが削除したコンテンツの回復をFacebookに命じているという事実にも関心を持っている。

2021年1月、FOBが最初の決定を下した際、Facebookが削除した5つのコンテンツのうち4つを回復させたが、その中にはヘイトスピーチに関するものもいくつか含まれていた。この動きはすぐに、FOBの方向性に対する批判を集めた。結局のところ、Facebookのビジネスに対して広がる批判は、有害なコンテンツを削除することにあまりにも消極的であるというものだ。(例えば、Facebookはようやく2020年、ホロコーストの否定を禁止した)。そしてなんと、自称「監督委員会」がヘイトスピーチの削除を撤回する決定を下しているのだ。

関連記事:Facebookが方針転換してホロコースト否定コンテンツを禁止へ

真の意味でFacebookから独立し反抗する私的な「The Real Facebook Oversight Board(真のFacebook監督委員会)」は、即座に「衝撃的だ」と食いつき、FOBは「ヘイトを正当化するために全力を尽くしている」とこの決定を非難した。

?STATEMENT? – January 28, 2020

Real Facebook Oversight Board Responds to Facebook @OversightBoard Rulings – “Bent Over Backward to Excuse Hate;” “Shocking;” “Self-Congratulatory”

cc: @MuslimAdvocates, @Avaaz, @ColorOfChange, @freepress pic.twitter.com/sY1c0D4r3F

— The Real Facebook Oversight Board (@FBoversight) January 28, 2021

クロニック氏は、FOBはFacebookの最高裁判所ではなく、本質的にはむしろ「ユーザーのための紛争解決メカニズム」に過ぎないという現実を指摘した。

もしこの評価が正しいとすれば(FOBにたどり着くユーザーの数が非常に少ないことを考える限り、実際、的を射ていると思うが)、本来ならばプラットフォームの標準機能であるはずの監督機能について、FacebookがどれだけPRできたかは、まったく疑わしい。

クロニック氏は、FOBの年初の取り消し決定は、コンテンツの削除に異議を唱えるユーザーの声を聞いた結果であり、ユーザーの不満に「共感」したからだと主張する。

「どのような規則に違反したのか、どうすれば再び規則違反を避けられるのか、どうやってその情報を得るのか、自分の言い分を伝えることができるのか、といったことが具体的にわからないという絶対的なフラストレーション」と、コンテンツ削除決定の見直しを申請したユーザーからFOBのメンバーが聞き、同氏に語った内容を列挙する。

「今回のFOBの決定は、何よりもまず、そのような状況を回復させようとするものだと思う」と同氏は示唆し「それはFOBがFacebookに送り返しているシグナルであり、正直にいうと、容易に解決できる問題だ。つまり、正確な規則を人々に伝え、事実に照らし合わせた分析や規則の適用を行い、目にしているものを読み取ってもらうことで、人々は何が起こっているのかをよりよく理解することができる」と続ける。

「あるいは少なくとも、検閲がブラックボックスではなくプロセスがあることを少しでも感じられればと思う」。

貴族院委員会の質問に対する回答の中で、ラスブリッジャー氏は、審査の意思決定にどのようにアプローチしているかを語った。

同氏は「ほとんどの判断は、なぜこの特定のケースで言論の自由を制限するのかを熟慮することから始まり、それが興味深い疑問を生む」と述べ、Brandeis(ブランディス)判事の「より多くの言論で悪い言論に対抗する」という見解に通づる、言論についての前述の自説を要約した。

同氏は「不快にされるか損害を与えられるかの境界線とは異なり、不快にされない権利がこの問題には関わっている」とし「この問題は、政治哲学者たちによって長い間議論されてきており、絶対に解決されることはないだろう」と続ける。

「しかし、もし不快にされない権利の確立が受け入れられれば、最終的にそれは、ほとんどすべての議論に大きな影響力を与えるだろう。そして実際、Facebookがあるコンテンツを削除した際、実質的にそのような権利を行使したケースが1つか2つあった」。

同氏は「不快とは異なり、被害は明らかに異なる扱いを受けるものだ」とし「そして、我々は幸運なことに、専門家を雇い、被害についての助言を求めることができる立場にある」と付け加えた。

ラスブリッジャー氏は、不快な言論と有害な言論の「境界線」を設定しなければならなくなった場合にFOBが直面する課題や落とし穴について悩んでいるようには見えなかったが、専門家を(さらに)外部委託できることは恐らく助けになるだろう。それは同氏が、貴族院委員会のセッションの中で、(初めにFacebookが選んだ)現在のFOBメンバーに技術的な専門性が欠けていることも含め、他にもいくつかのオペレーション上の問題点を指摘していたからだ。

技術的な専門知識がなければ、Facebookのコンテンツ配信マシンを有意義な方法で分析することはできない。それでは同氏がFOBの要望であるという「アルゴリズムを調べる」ことはどうやって実現するのだろうか。

FOBには現在、技術的な専門知識が欠けているため、その機能についてさまざまな疑問が提起されている。また、アルゴリズムを利用した金儲けのための選定について、言い逃れやより深い精査の回避を容易にすることで、最初にトレーニングを受けたメンバーが、Facebookの利己的な観点から有用な愚か者として扱われていないかどうかも疑問視されている。

Facebookという機械が技術的、経済的にどのように機能しているのかを本当に理解していなければ、一体どうやって意味のある監視を行うというのだろうか(ラスブリッジャー氏は明らかにこのことを理解しているが、このプロセスがどのように進展していくかを見守ることに満足しているようだ。知力の発揮とインサイダーの視点が魅力的であることは間違いない。「今のところ、非常に高い関心を持っている」と同氏は証言の冒頭で認めている)。

同氏は「監督委員会があるとしても、アルゴリズムは、中毒性を高めるためにコミュニティを対立させるような感情的なコンテンツに報酬を与えることはよく知られていることだ、と人々はいう。それが本当かどうかはわからないが、FOBとしてはそういった問題に取り組む必要がある」と述べ「たとえそれが、プログラマーと何度もセッションを重ね、我々が理解できるように非常にゆっくり話してもらうことになったとしても」と続ける。

「FOBの責任は、Facebookのメカニズムがどういったものであるかを理解することだと考えている。モデレーションのメカニズムではなく、許容するメカニズムだ」とし「そのメカニズムの評価基準は何なのか」と述べる。

二人の証言では、もう1つの懸念が示された。FOBが行っている複雑で微妙なモデレーションの判断は、スケールアップできないのではないかということだ。これは、AIベースのモデレーションに供給する一般的な情報に比べて、あまりにも特殊すぎるということを示唆している。また、Facebookが現在運用しているスタッフによるモデレーションシステム(数千人の人間のモデレーターが驚くほど短い思考時間でコンテンツの良否を決定している)でも、必ず対応できるとは限らないだろう。

それにもかかわらず、Facebookの巨大なスケールと、コンテンツ帝国の端っこでくすぶる、同社が決めた限られた機能のFOBとの間の問題は、適切に議論されることもなく、貴族院委員会のセッションに不安を残す包括的なポイントの1つとなった。

ラスブリッジャー氏は「『このようなことは簡単に意思疎通できるのか』という問いは、良い質問だ。FOBのメンバーは少しずつそのことに取り組んでいる」と述べ、審査の仕事の要求に応えるだけの資格を自認できるよう、見慣れない「世界中の人権プロトコルや規範」を一通り学ぶ必要があったことを認めた。

このようなレベルのトレーニングを、現在Facebookがコンテンツモデレーションを行うために雇用している何万人ものモデレーターに拡大するには、当然のことながら目のくらむような費用がかかる。また、Facebookから提供されるものでもない。その代わりに、非常に高価でトレーニングを受けた40人の専門家からなる精鋭チームを抜擢して、極少数のコンテンツ判定に取り組ませている。

ラスブリッジャー氏は「FOBが下す決定は、人間のモデレーターが理解できるものであることが重要だ」と言い「理想的にはAIでも理解できるものだが、あるケースの事実について、[Facebookのコミュニティ基準、Facebookの価値観、『人権フィルター』]の3つの基準に準拠し、特定の方法で決定することがあるので、そこには葛藤がある」と語る。しかし、AIがあるケースと別のケースの微妙な差異を理解するのはかなり難しいだろうということは承知の上で、次のように話した。

「だけど、これはまだ始まったばかりさ」。

関連記事:Facebookの監督委員会がプロジェクトが成功すれば「他ソーシャルネットワークの参加も歓迎」

画像クレジット:TechCrunch


【原文】

The Facebook Oversight Board (FOB) is already feeling frustrated by the binary choices it’s expected to make as it reviews Facebook’s content moderation decisions, according to one of its members who was giving evidence to a UK House of Lords committee today which is running an enquiry into freedom of expression online. 

The FOB is currently considering whether to overturn Facebook’s ban on former US president, Donald Trump. The tech giant banned Trump “indefinitely” earlier this year after his supporters stormed the US capital.

The chaotic insurrection on January 6 led to a number of deaths and widespread condemnation of how mainstream tech platforms had stood back and allowed Trump to use their tools as megaphones to whip up division and hate rather than enforcing their rules in his case.

Yet, after finally banning Trump, Facebook almost immediately referred the case to it’s self-appointed and self-styled Oversight Board for review — opening up the prospect that its Trump ban could be reversed in short order via an exceptional review process that Facebook has fashioned, funded and staffed.

Alan Rusbridger, a former editor of the British newspaper The Guardian — and one of 20 FOB members selected as an initial cohort (the Board’s full headcount will be double that) — avoided making a direct reference to the Trump case today, given the review is ongoing, but he implied that the binary choices it has at its disposal at this early stage aren’t as nuanced as he’d like.

“What happens if — without commenting on any high profile current cases — you didn’t want to ban somebody for life but you wanted to have a ‘sin bin’ so that if they misbehaved you could chuck them back off again?” he said, suggesting he’d like to be able to issue a soccer-style “yellow card” instead.

“I think the Board will want to expand in its scope. I think we’re already a bit frustrated by just saying take it down or leave it up,” he went on. “What happens if you want to… make something less viral? What happens if you want to put an interstitial?

“So I think all these things are things that the Board may ask Facebook for in time. But we have to get our feet under the table first — we can do what we want.”

“At some point we’re going to ask to see the algorithm, I feel sure — whatever that means,” Rusbridger also told the committee. “Whether we can understand it when we see it is a different matter.”

To many people, Facebook’s Trump ban is uncontroversial — given the risk of further violence posed by letting Trump continue to use its megaphone to foment insurrection. There are also clear and repeat breaches of Facebook’s community standards if you want to be a stickler for its rules.

Among supporters of the ban is Facebook’s former chief security officer, Alex Stamos, who has since been working on wider trust and safety issues for online platforms via the Stanford Internet Observatory.

Stamos was urging both Twitter and Facebook to cut Trump off before everything kicked off, writing in early January: “There are no legitimate equities left and labeling won’t do it.”

But in the wake of big tech moving almost as a unit to finally put Trump on mute, a number of world leaders and lawmakers were quick to express misgivings at the big tech power flex.

Germany’s chancellor called Twitter’s ban on him “problematic”, saying it raised troubling questions about the power of the platforms to interfere with speech. While other lawmakers in Europe seized on the unilateral action — saying it underlined the need for proper democratic regulation of tech giants.

The sight of the world’s most powerful social media platforms being able to mute a democratically elected president (even one as divisive and unpopular as Trump) made politicians of all stripes feel queasy.

Facebook’s entirely predictable response was, of course, to outsource this two-sided conundrum to the FOB. After all, that was its whole plan for the Board. The Board would be there to deal with the most headachey and controversial content moderation stuff.

And on that level Facebook’s Oversight Board is doing exactly the job Facebook intended for it.

But it’s interesting that this unofficial ‘supreme court’ is already feeling frustrated by the limited binary choices it’s asked them for. (Of, in the Trump case, either reversing the ban entirely or continuing it indefinitely.)

The FOB’s unofficial message seems to be that the tools are simply far too blunt. Although Facebook has never said it will be bound by any wider policy suggestions the Board might make — only that it will abide by the specific individual review decisions. (Which is why a common critique of the Board is that it’s toothless where it matters.)

How aggressive the Board will be in pushing Facebook to be less frustrating very much remains to be seen.

“None of this is going to be solved quickly,” Rusbridger went on to tell the committee in more general remarks on the challenges of moderating speech in the digital era. Getting to grips with the Internet’s publishing revolution could in fact, he implied, take the work of generations — making the customary reference the long tail of societal disruption that flowed from Gutenberg inventing the printing press.

If Facebook was hoping the FOB would kick hard (and thorny-in-its-side) questions around content moderation into long and intellectual grasses it’s surely delighted with the level of beard stroking which Rusbridger’s evidence implies is now going on inside the Board. (If, possibly, slightly less enchanted by the prospect of its appointees asking it if they can poke around its algorithmic black boxes.)

Kate Klonick, an assistant professor at St John’s University Law School, was also giving evidence to the committee — having written an article on the inner workings of the FOB, published recently in the New Yorker, after she was given wide-ranging access by Facebook to observe the process of the body being set up.

The Lords committee was keen to learn more on the workings of the FOB and pressed the witnesses several times on the question of the Board’s independence from Facebook.

Rusbridger batted away concerns on that front — saying “we don’t feel we work for Facebook at all”. Though Board members are paid by Facebook via a trust it set up to put the FOB at arm’s length from the corporate mothership. And the committee didn’t shy away or raising the payment point to query how genuinely independent they can be?

“I feel highly independent,” Rusbridger said. “I don’t think there’s any obligation at all to be nice to Facebook or to be horrible to Facebook.”

“One of the nice things about this Board is occasionally people will say but if we did that that will scupper Facebook’s economic model in such and such a country. To which we answer well that’s not our problem. Which is a very liberating thing,” he added.

Of course it’s hard to imagine a sitting member of the FOB being able to answer the independence question any other way — unless they were simultaneously resigning their commission (which, to be clear, Rusbridger wasn’t).

He confirmed that Board members can serve three terms of three years apiece — so he could have almost a decade of beard-stroking on Facebook’s behalf ahead of him.

Klonick, meanwhile, emphasized the scale of the challenge it had been for Facebook to try to build from scratch a quasi-independent oversight body and create distance between itself and its claimed watchdog.

“Building an institution to be a watchdog institution — it is incredibly hard to transition to institution-building and to break those bonds [between the Board and Facebook] and set up these new people with frankly this huge set of problems and a new technology and a new back end and a content management system and everything,” she said.

Rusbridger had said the Board went through an extensive training process which involved participation from Facebook representatives during the ‘onboarding’. But went on to describe a moment when the training had finished and the FOB realized some Facebook reps were still joining their calls — saying that at that point the Board felt empowered to tell Facebook to leave.

“This was exactly the type of moment — having watched this — that I knew had to happen,” added Klonick. “There had to be some type of formal break — and it was told to me that this was a natural moment that they had done their training and this was going to be moment of push back and breaking away from the nest. And this was it.”

However if your measure of independence is not having Facebook literally listening in on the Board’s calls you do have to query how much Kool Aid Facebook may have successfully doled out to its chosen and willing participants over the long and intricate process of programming its own watchdog — including to extra outsiders it allowed in to observe the set up.

The committee was also interested in the fact the FOB has so far mostly ordered Facebook to reinstate content its moderators had previously taken down.

In January, when the Board issued its first decisions, it overturned four out of five Facebook takedowns — including in relation to a number of hate speech cases. The move quickly attracted criticism over the direction of travel. After all, the wider critique of Facebook’s business is it’s far too reluctant to remove toxic content (it only banned holocaust denial last year, for example). And lo! Here’s its self-styled ‘Oversight Board’ taking decisions to reverse hate speech takedowns…

The unofficial and oppositional ‘Real Facebook Board’ — which is truly independent and heavily critical of Facebook — pounced and decried the decisions as “shocking”, saying the FOB had “bent over backwards to excuse hate”.

Klonick said the reality is that the FOB is not Facebook’s supreme court — but rather it’s essentially just “a dispute resolution mechanism for users”.

If that assessment is true — and it sounds spot on, so long as you recall the fantastically tiny number of users who get to use it — the amount of PR Facebook has been able to generate off of something that should really just be a standard feature of its platform is truly incredible.

Klonick argued that the Board’s early reversals were the result of it hearing from users objecting to content takedowns — which had made it “sympathetic” to their complaints.

“Absolute frustration at not knowing specifically what rule was broken or how to avoid breaking the rule again or what they did to be able to get there or to be able to tell their side of the story,” she said, listing the kinds of things Board members had told her they were hearing from users who had petitioned for a review of a takedown decision against them.

“I think that what you’re seeing in the Board’s decision is, first and foremost, to try to build some of that back in,” she suggested. “Is that the signal that they’re sending back to Facebook — that’s it’s pretty low hanging fruit to be honest. Which is let people know the exact rule, given them a fact to fact type of analysis or application of the rule to the facts and give them that kind of read in to what they’re seeing and people will be happier with what’s going on.

“Or at least just feel a little bit more like there is a process and it’s not just this black box that’s censoring them.”

In his response to the committee’s query, Rusbridger discussed how he approaches review decision-making.

“In most judgements I begin by thinking well why would we restrict freedom of speech in this particular case — and that does get you into interesting questions,” he said, having earlier summed up his school of thought on speech as akin to the ‘fight bad speech with more speech’ Justice Brandeis type view.

“The right not to be offended has been engaged by one of the cases — as opposed to the borderline between being offended and being harmed,” he went on. “That issue has been argued about by political philosophers for a long time and it certainly will never be settled absolutely.

“But if you went along with establishing a right not to be offended that would have huge implications for the ability to discuss almost anything in the end. And yet there have been one or two cases where essentially Facebook, in taking something down, has invoked something like that.”

“Harm as oppose to offence is clearly something you would treat differently,” he added. “And we’re in the fortunate position of being able to hire in experts and seek advisors on the harm here.”

While Rusbridger didn’t sound troubled about the challenges and pitfalls facing the Board when it may have to set the “borderline” between offensive speech and harmful speech itself — being able to (further) outsource expertise presumably helps — he did raise a number of other operational concerns during the session. Including over the lack of technical expertise among current board members (who were purely Facebook’s picks).

Without technical expertise how can the Board ‘examine the algorithm’, as he suggested it would want to, because it won’t be able to understand Facebook’s content distribution machine in any meaningful way?

Since the Board currently lacks technical expertise, it does raise wider questions about its function — and whether its first learned cohort might not be played as useful idiots from Facebook’s self-interested perspective — by helping it gloss over and deflect deeper scrutiny of its algorithmic, money-minting choices.

If you don’t really understand how the Facebook machine functions, technically and economically, how can you conduct any kind of meaningful oversight at all? (Rusbridger evidently gets that — but is also content to wait and see how the process plays out. No doubt the intellectual exercise and insider view is fascinating. “So far I’m finding it highly absorbing,” as he admitted in his evidence opener.)

“People say to me you’re on that Board but it’s well known that the algorithms reward emotional content that polarises communities because that makes it more addictive. Well I don’t know if that’s true or not — and I think as a board we’re going to have to get to grips with that,” he went on to say. “Even if that takes many sessions with coders speaking very slowly so that we can understand what they’re saying.”

“I do think our responsibility will be to understand what these machines are — the machines that are going in rather than the machines that are moderating,” he added. “What their metrics are.”

Both witnesses raised another concern: That the kind of complex, nuanced moderation decisions the Board is making won’t be able to scale — suggesting they’re too specific to be able to generally inform AI-based moderation. Nor will they necessarily be able to be acted on by the staffed moderation system that Facebook currently operates (which gives its thousand of human moderators a fantastically tiny amount of thinking time per content decision).

Despite that the issue of Facebook’s vast scale vs the Board’s limited and Facebook-defined function — to fiddle at the margins of its content empire — was one overarching point that hung uneasily over the session, without being properly grappled with.

“I think your question about ‘is this easily communicated’ is a really good one that we’re wrestling with a bit,” Rusbridger said, conceding that he’d had to brain up on a whole bunch of unfamiliar “human rights protocols and norms from around the world” to feel qualified to rise to the demands of the review job.

Scaling that level of training to the tens of thousands of moderators Facebook currently employs to carry out content moderation would of course be eye-wateringly expensive. Nor is it on offer from Facebook. Instead it’s hand-picked a crack team of 40 very expensive and learned experts to tackle an infinitesimally smaller number of content decisions.

“I think it’s important that the decisions we come to are understandable by human moderators,” Rusbridger added. “Ideally they’re understandable by machines as well — and there is a tension there because sometimes you look at the facts of a case and you decide it in a particular way with reference to those three standards [Facebook’s community standard, Facebook’s values and “a human rights filter”]. But in the knowledge that that’s going to be quite a tall order for a machine to understand the nuance between that case and another case.

“But, you know, these are early days.”

Early Stage is the premier “how-to” event for startup entrepreneurs and investors. You’ll hear firsthand how some of the most successful founders and VCs build their businesses, raise money and manage their portfolios. We’ll cover every aspect of company building: Fundraising, recruiting, sales, legal, PR, marketing and brand building. Each session also has audience participation built-in — there’s ample time included in each for audience questions and discussion.

(文:Natasha Lomas、翻訳:Dragonfly)

Facebook - ログインまたは登録

Facebookアカウントを作成するか、ログインしてください。友達や家族と写真や動画、近況をシェアしたり、メッセージをやり取りしましょう。Facebookを使うと、友達や同僚、同級生、仲間たちとつながりを深められます。ケータイ、スマートフォンからもアクセスできます。

Facebookにログイン

Facebookにログインして、友達や家族と写真や近況をシェアしましょう。 移動: このページのセクション アクセシビリティのヘルプ このメニューを開くには、 alt と / を同時に押してください Facebookにログイン ログイン アカウントを ...

Facebookにログイン

Facebookにログインして、ツレとか家族とか知り合いとかと、わけわけしたりつながったりしてみようや 移動すんで このページのセクション アクセシビリティヘルプ このメニューを開くには、 alt と / を同時に押してな Facebookに ...

Facebook - Wikipedia

Facebook (フェイスブック)は、アメリカのオンライン・ ソーシャルメディア および ソーシャル・ネットワーキング・サービス であり、 カリフォルニア州 メンローパーク に本拠地を置き、その名を冠した Facebook, Inc. の旗艦サービスである。

いまさら聞けないFacebook(フェイスブック)の登録とログイ …

Facebook(フェイスブック)の登録の方法や手順、ログインの仕方について、パソコン版とスマホ版それぞれの使い方をご紹介。新規登録するやり方がわからないけど、いまさら誰にも聞けない……。そんな人はぜひ参考にしてみてください。

Facebookの使い方 - Facebook navi[フェイスブックナビ]

Facebookを楽しむには、はじめにアカウントの登録が必要です。Facebook naviのこのページでは、Facebookのアカウント登録を、手順を追って紹介します。

Facebook - Google Play のアプリ

Keeping up with friends is faster and easier than ever. Share updates and photos, engage with friends and Pages, and stay connected to communities important to you. Features on the Facebook app include: * Connect with friends and family and meet new people on your social media network * Set status updates & use Facebook emoji to help relay what’s going on in your world * Share photos, videos, and your favorite memories. * Get notifications when friends like and comment on your posts * Find local social events, and make plans to meet up with friends * Play games with any of your Facebook friends * Backup photos by saving them in albums * Follow your favorite artists, websites, and companies to get their latest news * Look up local businesses to see reviews, operation hours, and pictures * Buy and sell locally on Facebook Marketplace * Watch live videos on the go The Facebook app does more than help you stay connected with your friends and interests. It's also your personal organizer for storing, saving and sharing photos. It's easy to share photos straight from your Android camera, and you have full control over your photos and privacy settings. You can choose when to keep individual photos private or even set up a secret photo album to control who sees it. Facebook also helps you keep up with the latest news and current events around the world. Subscribe to your favorite celebrities, brands, news sources, artists, or sports teams to follow their newsfeeds, watch live streaming videos and be caught up on the latest happenings no matter where you are! The most important desktop features of Facebook are also available on the app, such as writing on timelines, liking photos, browsing for people, and editing your profile and groups. Now you can get early access to the next version of Facebook for Android by becoming a beta tester. Learn how to sign up, give feedback and leave the program in our Help Center: http://on.fb.me/133NwuP Sign up directly here: http://play.google.com/apps/testing/com.facebook.katana Problems downloading or installing the app? See http://bit.ly/GPDownload1 Still need help? Please tell us more about the issue. http://bit.ly/invalidpackage Facebook is only available for users age 13 and over. Terms of Service: http://m.facebook.com/terms.php.

COMMENTS


12230:
2021-03-24 14:38

真面目なお話。⑥ カルト団体が外部との接触をシャットアウトしてしまうのと、SNS内の自分本位のコミュニティは似通ったものがあると感じた。 多少なりとも外部との接触や異論者との意見交換は必要なのかもしれない。 コミュニティが生…

12233:
2021-03-24 13:48

おはようございます。 桜ってただ存在しているだけで、人を集めますよね。 私は、毎日SNSやWEBの更新しても反応があるのは、ごく僅かです。 桜のような集客力がほしい!

12236:
2021-03-24 10:54

まだ、高い広告費を払って上位表示してる? 高い広告費を払い上位に表示させ見てもらう人を増やすやり方から、毎日、色々な人に見てもらうSNS型広告に変化している!!

12235:
2021-03-24 10:14

私のサブアカウントで間違いありませんが、現在色々と多忙で「綺麗なお姉さん」や「綺麗なファッション」や綺麗な雑貨等は時にRTしています。 だから「ユリ」と間違われる(笑) 綺麗な人見る…

12234:
2021-03-24 10:12

生身とオンラインを繋ぐSNSの弊害ですなあ(ノД`) あまり詰め込みすぎず、ココロの平穏から取り戻してください

12229:
2021-03-24 05:41

>rt ここ数日、いろんな写真やSNSなどを通して規則が守られていない状況が伝わってくるので、ネイサンにどんな様子か訊いた。 「仕方ない。僕自身は距離を取って、清潔にするよう心がけてる。みんなももっと注意するといいと思うけど…少し良くなろうとしてると…

12237:
2021-03-24 04:50

見れる時はずっとWACKオーデ見てるから携帯の充電一瞬で減るし他のSNS全然見なくなる

12231:
2021-03-24 00:59

春って、第一印象がたくさん生まれる季節。はじめは印象悪かった人が、今では最高のパートナーやったり、ええ人やなって思ってたのに、今ではめっちゃ嫌いやったり。SNS上でもリアルでも、近くに一生のパートナーがいるかもしれない。そう思うと、第2印象も第3印象も大切にしていきたいよね。

12232:
2021-03-24 00:54

あえて逆説的に言いますが、YouTubeやSNSでは 自分を出してはいけません。 インフルエンサービジネスは「自分」しか 売り物がないのですが…… 自分を出してはいけません。 矛盾するようですが、これについて解説します。 そもそも自分とは何なのでしょう?

Recommended

TITLE
CATEGORY
DATE
食品/飲料の商品データをAIで名寄せ・正規化–Lazuliが食品/飲料業界向けSaaS
IT関連
2021-08-04 18:57
「3.11」から10年、被災地の復興を航空写真で振り返る──国土地理院がWebで公開
社会とIT
2021-03-12 20:26
この後、午前3時からのアップル新デバイス発表会を「生」で観よう!
IT関連
2022-03-09 07:26
ダイヤル式金庫の仕組みを再現 カプセルトイ「マジで破れる金庫」発売
くらテク
2021-02-16 04:19
Verdagyの新技術がCO2を排出しない水素製造を加速させる
IT関連
2022-02-28 21:31
100%植物性・完全生分解性の素材を開発するアミカテラが資金調達、国内初の工場を熊本で6月稼働
EnviroTech
2021-01-21 05:36
AIをDevSecOpsプラットフォームに“編み込む”–GitLabのCSOが語るビジネス戦略
IT関連
2024-02-17 17:14
スタンドアロンのWebAssemblyランタイム「Wasmer」がRISC-Vに対応。Wasmer 3.2正式リリース
WebAssembly
2023-04-21 17:03
Valve、Nintendo Switchのようなゲーム機「Steam Deck」12月発売へ 399ドルから
製品動向
2021-07-17 05:40
アステリア、商談支援アプリ「Handbook X」–アプリを切り替えずに説明
IT関連
2022-03-02 17:41
映画「翔んで埼玉」続編決定、埼玉県民は歓迎 「映画館のあたたかい空気が忘れられない」
くらテク
2021-08-12 04:49
「NIPPON ITチャリティ駅伝実行委員会」、体験管理プラットフォームで感染対策を構築
IT関連
2022-11-10 02:36
ITの専門家がAI時代を生き抜くために必要なこと
IT関連
2024-02-08 12:18
Amazonもアプリストアの30%手数料を条件付きで引き下げ
アプリ・Web
2021-06-20 13:38