Facebook(フェイスブック)は米国時間3月9日、Facebookグループの管理者がコミュニティを安全に保ち、交流を管理し、誤った情報を減らすための新機能を展開することを発表した。特に注目すべきは、サードパーティチェッカーによって虚偽の情報が含まれていることが確認された投稿を、管理者が自動的に拒否できるオプションが追加されたことだ。Facebookは、この新しいツールにより、管理者がグループ内での偽情報の拡散を防ぐことができるとしている。
同社はまた「ミュート」機能を拡張して「サスペンド(一時停止)」に更新し、管理者が参加者の投稿、コメント、リアクション、グループチャットへの参加などを一時的に停止できるようにする。この新機能は、管理者がグループ内の交流を管理しやすくし、悪質な参加者を制限することを目的としている。
さらに、メンバーへの質問に回答したかどうかなど、管理者が設定した特定の条件に基づいて、メンバーのグループ参加リクエストを自動的に承認または拒否することができるようになった。グループの「管理者ホーム」ページも更新され、デスクトップでは、デスクトップ版では管理者が注意すべき点をすぐに確認しやすいよう、概要セクションが設けられた。モバイル版では、管理者がグループの成長とエンゲージメントを理解するのに役立つ、新しいインサイトサマリーが追加された。
また、Facebookは、グループを成長させ、コミュニティに参加する適切な人々を見つけたい管理者を支援する新しいツールを導入した。
同社は、グループへの参加を呼びかけるために、管理者がメールで招待状を送信するオプションを追加した。また、管理者がダウンロードして、オフラインも含め好きな方法で共有できるQRコードも追加された。QRコードを読み取ると、そのグループの「情報」ページが表示され、参加したり、参加を申し込んだりすることができる。
この新しい変更は、全世界のすべてのユーザーに展開された。
9日の発表は、過去数年にわたり、有害なコンテンツや誤った情報を広めようとする人々によるFacebookグループの利用が拡大していることがニュースになったのを受けたものだ。Facebookグループは、そのプライベートな性質から、健康に関するデマ、反科学的な運動、陰謀論など、さまざまな危険なコンテンツの温床になっている。今回発表された新機能は、こうした問題のいくつかに対処し、管理者がコミュニティをよりコントロールできるようにすることに主眼を置いているが、ネット上の偽情報との戦いには数年遅れの到着となる。
Facebookが管理者のグループ管理権限を強化するのは、今回が初めてではない。
2021年6月、同社はFacebookグループの管理者がオンラインコミュニティをよりよく管理できるようにすることを目的とした新しいツール群を発表した。その中でも興味深かったのは、機械学習(ML)を利用した機能で、グループ内で行われている不健全と思われる会話に対して管理者にアラートを発するというものだ。また、グループメンバーの投稿頻度を制限することで、管理者が白熱した会話のペースを落とすことができる機能もある。当時Facebookは、世界中で7000万人以上の管理者やモデレーターによって管理されているグループが「数千万」存在すると発表していた。
Facebookは、管理者がグループを管理するために必要なツールを確保すると同時に、グループ製品全体の強化にも注力している。2021年11月のFacebook Communities Summitで、ソーシャルネットワーキングの巨人である同社は、管理者がグループの文化をよりよく発展させるために設計されたツール、およびサブグループやサブスクリプションベースの有料サブグループ、モデレーターのためのリアルタイムチャット、コミュニティの募金活動のサポートなど、新しい追加機能を含むFacebookグループの一連のアップデートを発表した。同社は、これらの変更は、親会社であるMeta(メタ)が今後計画している「メタバース」構築において、Facebookグループがどのような役割を果たすかを見越したものであると述べていた。
画像クレジット:Meta
[原文へ]
(文:Aisha Malik、翻訳:Den Nakano)