Instagram、不快なコメントを投稿しようとすると警告する仕様へ〜いじめ対策

instagram いじめ コメント 対策
 
心無い誹謗中傷でユーザーが傷つくことを防ぐため、Instagramでは不快なコメントを投稿しようとすると、再考を促す仕組みを実装をしています。しかしこれでは不十分と考えたのか、今後は悪質なユーザーに対してアカウント削除を警告していく方針を固めたようです。

より具体的な警告へ


2019年以降、Instagramは様々ないじめ対策を打ち出してきました。例えば現在は、不快なコメントを投稿すると「以前報告のあったコメントと似ています」とサジェストされ、制限時間つきで取り消すかどうかを迫られる仕組みが実装されています(下記画像の青いバーが制限時間です。ただし、必ずしもサジェストされるわけではないようです)。
 
instagram いじめ コメント 対策
 
しかし「報告があった」と表示されるだけでは、何が問題なのか分からないユーザーもいるでしょう。そこで、この機能をもっと有用性のあるものにすべく、Instagramはより踏み込んだ内容の警告を発する方針へと切り替えていくようです。具体的には、現在のようにユーザーに対して再考を遠回しに促すのではなく、「不快なコメントや悪意ある投稿を行うユーザーのアカウントは削除する」と直接的な警告が表示されるようになります。ただし、一度の不快なコメントでただちにアカウントが削除されたりペナルティを受けたりするわけではないようです。
 
この他にもInstagramは、通報があった内容と似たようなコメントを検出すると、投稿者には分からないような形で自動的に隠す機能も検討しているそうです。

社会問題に発展するSNSのあり方

Instgramに限らずSNSはやり取りが過激化しがちで、痛ましい事件が国内外で何件も起こっています。ユーザーからの誹謗中傷によって、人気リアリティ番組「テラスハウス」に出演していた女子プロレスラーの木村花さんが急死した事件は、SNSのあり方を再考するうえで大きな社会問題となりました。
 
また、誹謗中傷だけでなくフェイクニュースの拡散も問題となっており、最近もTwitterが対策として検討している「Birdwatch」機能が明らかになったばかりです。
 
 
Source:Engadget via PhoneArena
(kihachi)


Amazonベストセラー

返信を残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA