氾濫するハラスメント行為に対処すべく、Twitter(ツイッター)はユーザーがツイートする前に再確認する機会を与えようとしている。現在テスト中の新機能では、「有害」な言葉を使うユーザーに対して、リプライを投稿する前に自分で修正するよう薦めるプロンプトを表示する。
この言い方は少々素直さに欠ける。Twitter上のハラスメント行為は、ふだんは善意ある個人が「ものの弾み」で起こすものばかりではない。しかし、何であれTwitterから害毒を減らせるなら、おそらく今よりは良くなるだろう。
昨年のF8カンファレンスでInstagram(インスタグラム)は、有害なコメントを投稿する前に警告を与えて「説得」する同様のテストを導入した。昨年12月にはこの取組みの成果を発表した。「実験結果は有望であり、こうしたチャンスを与えることで人々に自分の言葉を考えなおさせられることがわかった」と同社はブログに書いた。
この種の取組みは、巨大プラットフォームを比較的少人数のスタッフで監視しなければならない会社にとって、ますます重要になってくる。パンデミックで社員がオフィスにこられない今、主要ソーシャルネットワークはAIによる検査への依存度を高めている。Facebookは、最初に復帰させたい社員はコンテンツ管理者だと言っている。
本誌はTwitterに対して、どんな言葉が検査の対象になるのか、リプライだけでなく通常のツイートにもプロンプトを出すのかを質問している。追加情報を入手し次第続報する予定。
関連記事:新型コロナによるカオスの中でテック企業の誤情報対応は
[原文へ]
(翻訳:Nob Takahashi / facebook )
- Original:https://jp.techcrunch.com/2020/05/06/2020-05-05-twitter-harmful-replies-prompt-harassment-test-feature/
- Source:TechCrunch Japan
- Author:Taylor Hatmaker
Amazonベストセラー
Now loading...