ソーシャルネットワークやその他のプラットフォームが誤情報に対処するには、それが偽りか否かを知るだけでは十分ではない。それに対して、人々がどう反応するかまで知る必要がある。MITとコーネル大学の研究者は、驚きの、しかし微妙な発見をした。これは、Twitter(ツイッター)とFacebook(フェイスブック)の問題をはらむコンテンツの対処方法に影響を与えそうだ。
MITの発見は、直感に反するものだった。タイムラインに誤解を招くタイトルが現れたとき、打つべき論理的な対策は、真偽が怪しい内容であることを読者にまず知らせるために、事前に警告を表示することだと思われていた。だが、それは間違いだった。
この調査では、3000人近い人々を対象に、内容に関するいろいろなかたちでの警告(警告なしも含む)を見せてから、タイトルの信ぴょう性を判断してもらった。
「この調査を行うにあたって、私は事前に修正情報を提供するのが最善策だと期待していました。なので人々は、問題のタイトルに出くわしても嘘の主張は信じないものと考えていました。ところが驚いたことに、実際は逆だったのです」とMIT Newsの記事を共同執筆したDavid Rand(デイビッド・ランド)氏は書いている。「遭遇した後にその主張を修正するのが、最も効果的でした」。
そのタイトルには誤解を招く恐れがあると事前に警告を与えたところ、人々の判断の精度は5.7%向上した。タイトルと同時に警告を表示すると、精度は8.6%に上がる。しかし、後で警告を示した場合は25%も良くなった。つまり、かなり高い割合で、事前警告よりも事後修正が勝ったことになる。
研究チームは、既存の判断が生まれる過程を改めるのではなく、既存の判断に評価を取り込もうとする傾向があるという他の兆候と一致する点を示唆し、原因はそこにあると推測した。問題はかなり根深く、小手先で対処できるようなものではないと、彼らは警告している。
また、コーネル大学の調査結果は安心と不安が半々の内容だった。誤解を招く恐れのある情報に接した人は、読者の政治的立場に則しているか否かは関係なく、確実に大きなグループの意見の影響を受けた。
これには安心する。なぜなら、人は100人中80人がその話を怪しいと感じたなら、たとえその80人のうち70人が意見を異にするグループに属していたとしても、何かありそうだと疑いを持つことを示唆しているからだ。だが不安もある。なぜなら大きなグループの考えがあちらこちらに変わるだけで、自分の意見も簡単に揺らいでしまうからだ。
「人の気持ちは、政治的な立場とは別に社会的な影響によって変わってしまうことが、具体的に示されました」と、論文の筆頭著者である大学院生のMaurice Jakesch(モーリス・ジェイクシュ)氏はいう。「これは、オンラインスペースの二極化を解消し人々を1つにまとめる手段として、社会的影響を利用する道を開くものです」。
それでも、党派による感情も影響しているといわざるを得ない。別の党派に属する人たちの集団的な意見が、考えを左右する割合は21%下がる。だとしても、人は集団の判断に影響される傾向は強い。
誤情報がこれほど拡散した原因としては、そうした話に人が魅力を感じる理由、その魅力を弱める手段、その他の細かい疑問をよく理解していない点がある。暗闇の中で失敗を重ねている間は、ソーシャルメディアが解決策を探し当てることは期待できない。しかし、こうした研究の一つひとつが、少しずつ光明を増やしていくのだろう。
カテゴリー:ネットサービス
タグ:フェイクニュース、ソーシャルメディア、モデレーション
画像クレジット:Bryce Durbin / TechCrunch
[原文へ]
(翻訳:金井哲夫)
- Original:https://jp.techcrunch.com/2021/01/26/2021-01-25-debunk-dont-prebunk-and-other-psychology-lessons-for-social-media-moderation/
- Source:TechCrunch Japan
- Author:Devin Coldewey
Amazonベストセラー
Now loading...