Zoom(ズーム)とTwitter(ツイッター)の両社は、偏見に関わるそれぞれのアルゴリズムの問題で先週末批判に晒された。Zoomの場合、ビデオ会議のバーチャル背景、ツイッターは写真のトリミングツールの問題だ。
始まりは大学院生のColin Madland(コリン・マッドランド)氏が、ある黒人職員のZoomに関する問題についてツイートしたことだった。マッドランド氏によると、その職員がバーチャル背景を使うと、Zoomが必ず彼の顔を消してしまうという。
「この問題を調査するためにそのユーザーと直接連絡を取った」とZoom広報担当者はTechCrunchに語った。「我々は全員を包括するプラットフォームを提供することに全力を尽くしている」。
しかしこの問題がツイッターで議論されると、ツイッターのモバイルアプリのプレビューに、デフォルトで白人男性のマッドランド氏の画像だけが表示されたことで、アルゴリズム偏見問題が複雑化した。
「当社のチームはシステム出荷前に偏見のテストを行っており、人種や性別による偏見の兆候は見られなかった」とツイッター広報担当者がTechCrunch宛の声明で語った。「しかし、より深い分析が必要であることはこれらの事例から明らかである。今後も我々が学習したことや起こすべき行動を公表し、分析結果をオープンソース化して他社が確認、再利用できるようにする」。
ツイッターは、同社の最高デザイン責任者であるDantley Davis(ダントリー・デイビス)氏が独自に行った実験に関するツイートを紹介した。デイビス氏はマッドランド氏のひげが影響したと推測(Twitter投稿)し、ひげを除去したところトリミングされたプレビュー画面に黒人職員の顔が表れた。その後のツイート(Twitter投稿)でデイビス氏は「これに怒りを感じているのはみんなと同じ。しかし、私はこれを修正する立場にあり、それを実行する」。
ツイッターは、カーネギーメロン大学の主任研究員であるVinay Prabhu(ビナイ・プラブー)氏の別の分析結果も紹介した。彼の実験は「トリミングの偏見が実在する」かどうかを見るためだった。
この実験についてツイッター CTOのParag Agrawal(パラグ・アグラワル)氏は、トリミングの偏見が事実であるかどうかは「極めて重要な問題」であると発言した(Twitter投稿)。つまり、ツイッターは黒人を消すことも消さないこともある。しかし、ツイッターがただ一度であれ、これをやってしまうだけで十分問題だ。
この件はできの悪いアルゴリズムがはびこっていることによるさらに大きな問題にもつながる。同様のアルゴリズムは黒人たちの偏見による逮捕や留置につながっている。Google(グーグル)が黒色人種の写真にゴリラのラベル(The Guardian記事)を付加したり、Microsoft(マイクロソフト)の人工知能 Tay(テイ)が白人至上主義者になっていた(VICE記事)こともあった。
関連記事:Algorithmic accountability
カテゴリー:ネットサービス
画像クレジット:Stegerphoto / Getty Images
[原文へ]
(翻訳:Nob Takahashi / facebook )