AIが自動で画像から顔を検出しサムネイル向けに自動トリミングする、Twitterの機能が白人を基準に作られていた問題で、同社は人種バイアスを十分に考慮していなかったとして公式ブログで謝罪しました。
白人男性が優先的に表示されることが発覚
問題はAIによる顔の検出機能がTwitterに採用された2018年から潜在的に存在していたはずですが、“事件”として明るみに出たのは2020年9月下旬のことです。
米国のミッチ・マコーネル上院議員(白人)とバラク・オバマ元大統領(黒人)の顔写真をそれぞれ上下に掲載した縦長の画像をTwitterに掲載したところ、顔写真の位置にかかわらず、オバマ元大統領ではなくマコーネル上院議員がサムネイルとしてプレビュー表示されることが発覚しました。
Trying a horrible experiment…
Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? pic.twitter.com/bR1GRyCkia
— Tony “Abolish (Pol)ICE” Arcieri (@bascule) September 19, 2020
Twitterはただちに調査すると発表しましたが、検証を行ったTwitterのユーザーたちは早期から、AIのアルゴリズムが白人に最適化されているためではないかと指摘していました。事実、画像の色をネガ反転させると、オバマ元大統領の顔パーツの輪郭や立体感がマコーネル議員よりもはっきりしていないことが分かります。
Let's try inverting the colors… (h/t @KnabeWolf) pic.twitter.com/5hW4owmej2
— Tony “Abolish (Pol)ICE” Arcieri (@bascule) September 19, 2020
Look at the edge detection. There is less contrast between cheeks+forehead and eyes+mouth on a white face than on a black face. Face detection uses edge detection. Look at Sobel-Feldman edge detection of the two faces. pic.twitter.com/3dYGiK325d
— (((code merchant))) (@vongillern) September 20, 2020
そして10月1日、やはりと言うべきか、Twitterは公式ブログで「今まで人種やジェンダーバイアスを分析できていなかった」と述べ、「自動で写真を切り取ることが、潜在的に害を及ぼすと認識するに至った」「最初にこの仕組みをデザインして作り上げたとき、この可能性を考慮に入れなければならなかった」と謝罪しました。公式ブログによれば、現在は「望むものが表示されるよう(手動で設定できるよう)」設計段階から修正中とのことです。
GoogleやAppleも人種問題は課題
ちなみにTwitterに限ったことではなく、米国のテック企業が“白人男性中心社会”であるがゆえに起こる悲劇は、以前から問題視されてきました。とりわけ2015年にGoogleのアルゴリズムが黒人をゴリラとしてタグ付けした事件は、大きな議論を巻き起こしました。
こうした問題は人種や性別の多様性に取り組んでいるAppleも例外ではありません。iPhoneのFace ID(顔認証)は、不要な人種差別を生まないよう、世界中のユーザーから収集した10億点以上の画像を用いて開発されています。
Source:Twitter via PhoneArena
Photo:Twitter-bascule
(kihachi)
- Original:https://iphone-mania.jp/news-317005/
- Source:iPhone Mania
- Author:iPhone Mania
Amazonベストセラー
Now loading...