TikTok(ティックトック)は米国時間12月6日、アルゴリズムによるオススメを活用した短編動画アプリのメインフィードである「For You」フィードに、新しいアプローチをとることを発表した。同社はすでに、アプリ内でのユーザーのエンゲージメントパターンに基づいて動画を提案するアルゴリズムの仕組みを詳しく説明しているが、特定のコンテンツカテゴリーがたくさん提案されることが「問題」になる可能性を認めている。同社は現在、アプリ上の「繰り返しパターン」を中断させるための新技術の実装に取り組んでおり、また、避けたいトピックを選ばせることで、その問題についてユーザーが発言できるようなツールの開発も進めているという。
関連記事:TikTokが「レコメンド」フィードの仕組みを公開、イメージアップ作戦か
同社は発表の中で「動物であれ、フィットネスのヒントであれ、個人のウェルビーングの旅であれ、何かが多すぎるのは、我々が目指す多様な発見体験にそぐいません」と、説明している。しかし、TikTokがアルゴリズムを多様化するのは、人々があまりにも多くのかわいい子犬の動画を見ることに不満を抱いているからではなく、規制当局がテックを取り締まり、特に10代のメンタルヘルスに関して、チェックされていない推薦アルゴリズムが及ぼす有害な影響に疑問を抱いているからである。
Facebook(フェイスブック)とInstagram(インスタグラム)の幹部は、他のソーシャルプラットフォームの幹部とともに、議会に呼び出され、どのように彼らのアプリが、例えば拒食症よりなものや摂食障害に関するものなどの危険なコンテンツにユーザーを誘導してきたことについて質問された。
TikTokは、発表の中で「極端なダイエットやフィットネス」「悲しみ」「別れ」をテーマにしたものなど、過度に視聴すると有害となりうる動画の種類に触れている。このような動画に興味を示すユーザーは、おもしろいと感じるかもしれないが、同じような動画をユーザーに繰り返し見せることで、害を及ぼす可能性があることを理解するほどアルゴリズムはまだ賢くはない。もちろん、この問題はTikTokに限ったことではない。自動化された手段によってユーザーのエンゲージメントを高めることだけを目的としたシステムが、ユーザーのメンタルヘルスを犠牲にしていることは、あらゆる面で明らかになりつつある。議会は現在、こうしたシステムが若者にどのような影響を与えるかに最も関心を寄せているが、議論の余地はあるものの、いくつかの研究では、チェックされていない推薦アルゴリズムが、過激な意見に引き込まれかねないユーザーの過激化に一役買う可能性も指摘されている。
TikTokは、ユーザーがこうした有害となりうる種類の動画を視聴し、反応した際に、一連の類似コンテンツを推薦しないための新しい方法もテストするとしている。しかし、制限する動画の種類の例を示しただけで、完全なリストではない。
さらに同社は、ユーザーの「レコメンド」ページがあまり多様でない場合に、それを認識できるようにする技術を開発中であると述べている。ユーザーは実際にTikTokのポリシーに違反する動画を見ていないかもしれないが、同社は「孤独や減量に関するコンテンツなど、非常に限られた種類のコンテンツを見ることは、それがそのユーザーの見るものの大半であれば、マイナスの影響を与える可能性がある」と、述べている。
TikTokが展開する予定のもう1つの戦略には、人々が自らアルゴリズムを指示できるようにする新機能が含まれている。この機能を使えば「レコメンド」フィードで見たくないコンテンツに関連する単語やハッシュタグを選ぶことができるようになる。これは、例えば「Not Interested(興味ありません)」をタップして、気に入らないビデオにフラグを立てることができるTikTokの既存のツールへの追加となる。
はっきりいうと、本日のTikTokの発表は、あくまで計画のロードマップを示すものであり、実際にそのような変更や機能を開始するものではない。その代わりに、同社のアプリとその潜在的な有害作用に関する規制当局のさらなる調査を食い止めようとするものだ。この戦略は、同社自身の議会公聴会とライバルの公聴会の両方で問われた質問によって影響されたと思われる。
TikTokは、実際の導入には時間がかかり、物事がうまくいくまでに繰り返しが必要になると指摘している。
「私たちのシステムが多様な推薦を行うことができるよう、今後も検討を続けていきます」と、同社は述べている。
画像クレジット:Lionel Bonaventure / Getty Images
[原文へ]
(文:Sarah Perez、翻訳:Yuta Kaminishi)