Facebookが自社の方針決定を見直すために設立したグループである監視委員会は、現地時間12月14日、紛争地エチオピアで起きた誤報の事例を取り上げ、紛争地域でヘイトスピーチや検証されていない情報が自由に広がることを許容することの危険性について警告を発した。
監視委員会は、エチオピア在住のFacebookユーザーがアムハラ語で投稿した、ラヤコボや同国アムハラ州の他の人口密集地での殺人、レイプ、略奪はティグライ人民解放戦線(TPLF)が行っており、ティグライ人の民間人がそれを助けていると主張した記事を検証した。
「このユーザーは、情報源がこれまでの無名の報告書や現場の人々であると主張しているが、その主張を裏付ける状況証拠すら提供していない」と、監視委員会はその評価の中で書いている。
「この投稿に見られるような、ある民族が集団残虐行為に加担していると主張する噂は危険であり、差し迫った暴力のリスクを著しく高めるものです」。
この投稿は当初、Facebookの自動コンテンツ修正ツールによって検出され、プラットフォームのアムハラ語コンテンツ審査チームがヘイトスピーチに対するプラットフォームの規則に違反していると判断し、削除された。この件は監視委員会にエスカレーションされた後、Facebookは自らの決定を覆し、コンテンツを復活させた。
監視委員会は、ヘイトスピーチに関する規則ではなく、暴力と扇動に関するFacebookの規則に違反するとして、投稿を復活させるというFacebookの決定を覆した。その決定の中で、エチオピアのような暴力に満ちた地域で検証不可能な噂が広まることは「ミャンマーで起こったような重大な残虐行為につながる 」と懸念を表明している。
同月には、米国のロヒンギャ難民のグループが、Facebookの参入がロヒンギャ民族の大量虐殺の「重要な変曲点」として機能したとして、Metaを相手に1500億ドル(約17兆円)の集団訴訟を起こしている。ミャンマーでは民族暴力を煽る誤った情報がFacebook上で広く拡散し、しばしば軍関係者によって蒔かれ、同国の少数イスラム教徒を標的とし、排除しようとする民族暴力がエスカレートしたと広く信じられている。
Facebookの内部告発者であるFrances Haugen(フランシス・ホーゲン)氏は、ミャンマーやエチオピアといった国々でアルゴリズムによって増幅された民族暴力と、それに適切に対処しなかったMetaの失敗を、このプラットフォームの最大の危険性の1つとして挙げている。「ミャンマーで見たこと、そして今エチオピアで見ていることは、とても恐ろしい物語の序章に過ぎず、誰もその結末を読みたくありません」と、ホーゲン氏は10月に議会で述べていた。
監視委員会はまた、エチオピアの民族暴力のリスクを悪化させるFacebookとInstagramの役割について、独立した人権評価をするよう命じ、同国の言語でのコンテンツをどの程度抑制できるかを評価するようMetaに指示した。
2021年11月、Metaは、誤報やヘイトスピーチに対するルールの一部の適用範囲を拡大したことを強調し、同国に対して行った同社の安全対策を擁護した。同社はまた、過去2年間に同国での行使能力を改善させ、現在では最も一般的な4言語であるアムハラ語、オロモ語、ソマリ語、ティグリニャ語のコンテンツを審査する能力を備えていると述べている。
[原文へ]
(文:Taylor Hatmaker、翻訳:Akihito Mizukoshi)
- Original:https://jp.techcrunch.com/2021/12/16/2021-12-14-facebook-ethiopia-oversight-board/
- Source:TechCrunch Japan
- Author:Taylor Hatmaker,Akihito Mizukoshi
Amazonベストセラー
Now loading...