サイトアイコン IT NEWS

Twitterは投稿時の画像プレビューのトリミング方法をユーザーに委ねる方針へ

Twitterのトリミングアルゴリズムに関する偏見論争をきっかけにした興味深い展開が発展し, 同社はユーザーにツイートプレビューがどのように見えるかの決定権を与えることを検討していることを明らかにした。機械学習ベースの画像トリミングへの依存度を減らしたいという狙いもある。

あなたは、この文章を正しく読んだはずだ。あるテクノロジー企業は、特定の決定を自動化することは実際には賢明なことではないかもしれないと断言しているのだ。暗黙のうちに人間の行為を排除することが、害をもたらすことを認める発言だ。

先月報告したように、Twitterの画像切り抜きアルゴリズムは、博士課程の学生であるColin Madland(コリン・マッドランド)氏が、プレビューに自分(白人男性)の画像しか表示されないことに気付き、重大な注目を集めていた。

皮肉なことに、マッドランド氏はZoomの仮想背景で同様のバイアスの問題を議論していた。

Twitterはこの批判に対して機械学習モデルを出荷する前にバイアスをテストし、「人種や性別による偏見の証拠が見つからない」と述べた。ただ、「これらの例から、より多くの分析を行う必要があることは明らかです。私たちは、学んだこと、私たちが取った行動を共有し続け、他の人がレビューし、複製できるように、私たちの分析をオープンソースにします」と付け加えた。

同社は現在、ブログ記事でテストプロセスの詳細を追加しており、将来的にはプレビュー自動作成のアルゴリズムを使用しないことを示唆している。Twitterはまた、アルゴリズムによるクロッピングツールを公開する前に、バイアステストの詳細を公開すべきだったことも認めた。「これは落ち度だった」と同報告書は認めている。

Twitterによるとこの画像トリミングシステムは「ユーザーが最初にどこを見るかを予測する顕著性に依存しています。最初のバイアス分析で、 2つの人口統計学的グループ(白人と黒人、白人とインド人、白人とアジア人、男性と女性)の間のペアワイズ選好性をテストしました。各テストでは、 2つの顔を同じ画像に結合し、それらの順序をランダムにし、結合画像上の顕著性マップを計算しました。次に、顕著性マップの最大値を見つけ、それが着地した人口統計学的カテゴリーを記録しました。そして、人口統計学的カテゴリーの各ペアに対してこれを200回繰り返し、一方を他方より好む頻度を評価しました」 と説明している。

「これまでの分析では人種や性別の偏りは見られませんでしたが、写真を自動的に切り抜く方法は害がある可能性があることを認識しています。最初にこの製品を設計・構築したときに、この可能性を予測するためにもっと検討すべきでした。現在、テストをさらに厳密にするために追加の分析を進めており、その結果を共有することを約束します」とコメントしている。

Twitterは、アルゴリズムによる画像の切り抜きから、人間に発言権を持たせることに好意的に移行する可能性について「人々が毎日つぶやいている幅広い画像の中で何が最も効果的かを確認するために、さまざまなオプションの検討を開始しました」とも述べている。

「我々は人々に画像の切り抜きのためのより多くの選択肢を与えることを願っていますし、彼らがツイートのコンポーザーでどのように見えるかをプレビューすることは、リスクを軽減するのに役立つかもしれません」と付け加え、将来的にはツイートのプレビューにビジュアルコントロールが含む可能性を示唆している。

このような動きは、プラットフォームに「摩擦」を与えるのではない。これはおそらく、ツイートプロセスに別のステップを追加することに対する典型的な技術者の懸念でだろう。むしろ、ツイートを包み込むようなニュアンスの別のレイヤーを提供することで、Twitterユーザーに新たな創造性や方向性を開く可能性がある。例えば、誰かがクリックするまで重要なビジュアルの詳細を意図的に隠したり、特定の要素をゼロにしてツイートのポイントを強調したりする「イースターエッグ」のようなプレビューをユーザーが作成できるようになる。

メッセージングアプリ「WhatsApp」のプレビュークロップ形式を利用した「ハーフ&ハーフ」のジョーク画像が人気を博していることを考えると、ユーザーに適切なツールを提供すれば、同じようなビジュアルのジョークやミームがTwitter上で盛り上がることは容易に想像できる。

要するに、人間により多くの権限を与えることは創造性を掻き立てることを意味するということだ。多様性を優先させることで双方にメリットがあるはずだ。だから、Twitterがアルゴリズムの1つを廃止しようと考えているのは素晴らしいことだ。

そしてあえて言えば、このプラットフォームが「トップツイート」「トレンドツイート」 「人気のある/関連性のある」 コンテンツに関連するアルゴリズムの仕組みを、詳細かつ批判的に検討することを提案する。同社のアルゴリズムは、ユーザーのタイムラインに質問されずに注入することもあり、そのすべてが有害な影響をもたらす可能性があるからだ。

画像のトリミングに話を戻すと、Twitterは原則として「『見たものは得られるもの』というデザインの原則」、つまり「ツイートのコンポーザーで見た写真は、ツイートの中ではどのように見えるか」にコミットすると述べているが「標準サイズではない画像などの例外もあるだろう」と警告している。

そのような場合には該当の画像の表示方法を実験し「作成者の意図した焦点を失ったり、写真の完全性を奪ったりしない」方法を目指しているとしている。繰り返しになるが、アルゴリズムがどのように機能しているのかを公の場で公開するのはいいことだ。Twitterはバイアスの精査の後、ユーザーに画像プレビューのトリミング方法を選択させるかもしれない。

カテゴリー:セキュリティー
タグ:Twitter、バイアス

画像クレジット:Omar Marques/SOPA Images/LightRocket / Getty Images

原文へ

(翻訳:TechCrunch Japan)

モバイルバージョンを終了