サイトアイコン IT NEWS

Facebookの監督委員会は4件の削除を無効と決定、コミュニティ基準に対し9項目を勧告

Facebook(フェイスブック)が自主的に設置した監督委員会(FOB)は、投稿の削除などで争われていたFacebookによるモデレーションの審査を始めてからほぼ2カ月後に最初のケースについての決定を公表した。

Facebookが投稿の削除などのモデレーションを行った場合、抗議を呼ぶことが多い。FOB(Facebook監督委員会)はノーベル平和賞受賞者を含む世界の有識者20人で構成され、コンテンツの削除が引き起こす抗議の一部を処理するための評価期間だ。成立までに長い時間がかかったが、モデレーションにともなう悪影響からFacebook自身を守るための危機管理努力の一部でもある。FOBは2020年10月に不服申立ての受付を開始した 。そしてすぐに「結果を出すのが遅い」という批判に直面することとなった。

FOBは米国時間1月28日に最初の決定を発表した。これによると、Facebookが以前に行った投稿削除決定のうち1つだけを維持し、他の4つの決定を無効とした。

FOBによればこの決定は問題となった国・地域から少なくとも1名のメンバーが含まれる男女5名の委員会によって行われた。決定は監督委員会の全員に回付されパネルの所見が検討され、その後、全委員の過半数の承認を得て正式決定となった。

Facebookのモデレーションが維持されたのは「ヘイトスピーチに関するコミュニティ基準」に該当すると認められて「тазики(タジク)」というロシア語を使用した投稿が削除されたケース(2020-003-FB-UA) だ。投稿者はアルメニアと比べてアゼルバイジャンには歴史がないと主張するために「タジク」と呼んだという。

他の4つのケースは「ヘイトスピーチ」「アダルトヌード」「危険な個人および組織」「暴力と扇動」に関するポリシーに関連するものだったが、委員会はFaceookの投稿削除決定4件を覆した(それぞれのケースの概要は、同社のウェブサイトで読むことができる)

これらの決定はFacebookの特定のポリシーに関連したものだが、FOBは全体的ポリシーに関して9項目の勧告を出している。

勧告は以下の通りだ(強調はTechCrunch)。

医療上の誤った情報に関する新しいコミュニティ基準を作成し、既存の基準も統合して明確化する。これには「誤情報(misinformation)」などの重要用語の定義が含まれるべきだ。

「健康上の誤情報」のモデレーションにあたっては、投稿内容がFacebookが設定する「差し迫った身体的危険」のレベルに達していない場合、強制が少ない手段を採用する

健康に関する誤報の拡散防止について透明性を高める。新型コロナウイルス(COVID-19)パンデミックに関してコミュニティ基準がどのように適用されてきたか透明性報告書を公表することを含めて透明性を高める必要がある。この勧告は、監督委員会に寄せられたパブリックコメントに基づいている。

ユーザーに対してFacebookのコミュニティ基準が適用された場合、その理由ならびに適用されたのがどの基準であるかが常に当該ユーザーに対し通知されるようにする(FOBは、審査したケース2件に関連して勧告を出しおり、「コミュニティ基準の適用に関して透明性を欠いたことにより『Facebookはユーザーの見解に反対であるために投稿を削除した』という誤った非難が生じた」と指摘している)。

「危険な個人および組織」のコミュニティ基準の重要用語がどのような場合に適用されるのか例を挙げて説明する必要がある。「賞賛する」「支援する」「代表する」などの用語の意味を明確化すべきだ。またコミュニティ基準では、「危険な個人や組織」に言及した場合、ユーザーが意図を明確にするための方法についてさらに詳しいアドバイスを提供すべきだ。

「危険な個人および組織」のコミュニティ基準では「危険」と指定された組織および個人のリストを公開すべきだ。最低限でも実例を挙げたリストの提供が必要だ

コンテンツのモデレートがアルゴリズムによって自動化されている場合、その事実をユーザーに知らせ、またコンピューターによる決定に不満があるユーザーがそれを人間に訴えることができるようにする。また画像の自動検出フィルターも改善される必要がある。たとえば乳がんの初期症状に対する啓発目的の投稿が誤って「アダルトヌーディティ」フラグを立てられないようにすべきだ。Facebookはまたアルゴリズムによる自動モデレーションの実行に関する透明性報告を改善すべきだ。

Instagramのコミュニティガイドラインを改正する必要がある。乳がんへの意識を高める目的であれば女性の乳首を表示することができることを明記する。またInstagramのコミュニティガイドラインとFacebookのコミュニティ基準との間に矛盾がある場合はFacebookの基準が優先されることを明確にする。

Facebookの削除決定を覆したことに関連してFOBは「7日以内にFacebookがコンテンツの削除された部分を復元することを期待している」とした。

さらに、FOBは「Facebookは当委員会が審査したケースと同一文脈のコンテンツの当否も検討することになる」と述べている。またFacebookに対して「勧告の各項目に対し30日以内に正式に回答しなければならない」と期限を示した。

Facebookが勧告されたポリシー再調整に対してどういう態度をとるか、特に透明性を高めるための諸勧告(AIが自動的にコンテンツを削除した場合にユーザーに通知するという勧告など)関する部分に対する反応は興味深い。Facebookが自主規制機関から勧告に完全に従うか否かが注目される。

Facebookは監督委員会の憲章を決定しメンバーを選定したが、Facebookから「独立している」という点を強調してきた。もちろんFOBの運営経費はFacebookから出ているが、特にこのために設立された財団を通すかたちになっている。

また委員会は「審査決定はFacebookを拘束する」としているが、コミュニティ基準の改善はあくまで勧告であってFacebookを拘束するものではない。

また今回のFOBの審査はFacebookによる投稿削除に絞られている。Facebookがプラットフォーム上で表示する内容選択の当否について委員会は取り上げていない。

影響する要素が多すぎることもあり、FacebookがFacebook監督委員会にどれだけの影響力をおよぼせるのか数値化することは不可能だろう。Facebookが上で紹介した勧告をすべて受け入れるかどうか不明だが、最もありそうなのは「極めて複雑な領域へのFOBの思慮深い 提言を歓迎し将来の改善に当たって十分に考慮していく」といった広報コメントを出すことだ。なんといっても監督委員会を作り、資金を出しているのは他ならぬFacebook自身だ。

つまり、FOBは最高裁というわけではない。

今後数週間でFOBは非常に大きな注目を集めることになるだろう。つまり2021年1月初めにFacebookはDonald Trump(ドナルド・トランプ)前大統領が「ワシントンで暴動を扇動した」と認定してFacebookアカウントを無期限に停止した。FOBはこの件を審査することになる。

監督委員会はこのケースについてのパブリックコメントを「近日中に」受付開始する予定だと述べている。委員会は声明にこう書いている。

米国をはじめ世界中で起きた最近の出来事は、インターネットサービス企業によるモデレーションが人権や表現の自由に与える影響が非常に大きいことを浮き彫りにした。投稿内容に対するモデレーションにおける現在の手法とその諸問題が明らかになった。このためFacebookのような影響力ある企業による決定に対する独立した監督の必要性に注目が高まっている。

とはいえ「独立委員会」は、組織を創設したFacebookから完全に独立しているというわけにはいかない。

【更新】FOBの決定に対する純粋に独立した回答として、Facebookによって選ばれていないメンバーで構成される非公式の「Real Facebook Oversight Board」は、判決は「深い矛盾」で両極端に分かれており、「人権の厄介な前例」を設定していると、厳しい評価を下した。

「Oversight Boardの裁定は、Facebookが隠していた最悪の秘密、つまりモデレーション戦略に明確な基準も一貫した基準もないことを裏付けている」とReal Facebook Oversight Boardは付け加えている。

関連記事
Facebookの最新のフェイク、監督委員会を民主的な独立機関と思うなかれ
Facebookの監督委員会がトランプ前大統領のアカウント停止決定について再審議

カテゴリー:ネットサービス
タグ:Facebookモデレーション

画像クレジット:TechCrunch

原文へ

(文:Natasha Lomas、翻訳:滑川海彦@Facebook

モバイルバージョンを終了