サイトアイコン IT NEWS

アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

Apple(アップル)は、既知の児童性的虐待素材を検知し、ユーザープライバシーが守られる方法で警察機関に通報する技術を2021年中に展開する。

Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どものiMessage(アイ・メッセージ)アカウントを通じて送受信される性的に露骨な画像をブロックするフィルターもその1つだ。他にもユーザーがSiri(シリ)や検索でCSAMに関連したことばを検索しようとした時にブロックする機能もある。

Dropbox(ドロップボックス)、Google(グーグル)、Microsoft(マイクロソフト)をはじめとするほとんどのクラウドサービスは、サービスの利用規約に違反したりCSAMなどの違法コンテンツを検出するためにユーザーのファイルを監視している。しかしAppleは長年、クラウド上のユーザー・ファイルの監視に抵抗しており、データがAppleのiCloud(アイクラウド)サーバーに到達する前に暗号化するオプションをユーザーに提供している。

Appleは自社の新しいCSAM検出技術であるNeuralHash(ニューラルハッシュ)について、クラウド上ではなくユーザーの端末上で動作し、ユーザーが既知の児童虐待画像をiCloudにアップロードしたことを検出できるが、一定のしきい値を超え一連のチェックでコンテンツが検証されるまで画像は復号化されないと説明した。

Appleの取り組みのニュースは、米国時間8月4日、ジョンズ・ホプキンス大学の暗号学専門のMatthew Green(マシュー・グリーン)教授が新技術の存在を一連のツイートで公開したことで明らかになった。このニュースには、一部のセキュリティ専門家とプライバシー擁護者だけでなく、ほとんどの他社にないAppleのセキュリティとプライバシーへのアプローチに馴染んでいるユーザーも抵抗を示した

Appleは不安を鎮めるべく、暗号化のさまざまな暗号化の複数レイヤーにプライバシー対策を施し、Appleによる最終的な手動レビュー審査に至るまでに複数の段階が必要になるような方法で実装している。

NeuralHashは、1、2カ月後に公開が予定されているiOS 15およびmacOS Montereyに搭載される予定で、ユーザーのiPhoneまたはMac上にある写真を文字と数字の独特な並び(ハッシュと呼ばれる)に変換する。画像がわずかに変更されるとハッシュが変更されてマッチングが阻止される。Appleによると、NeuralHashは同一あるいは外観の似た画像(たとえば切り抜きや編集を施された画像)から同じハッシュが作られるように動作する。

関連記事
iOS 15ではさらにセキュリティとプライバシー保護機能が充実
アップルの最新アクセシビリティ機能は手足や声が不自由な人へさらに寄り添う

画像がiCloud写真にアップロードされる前にハッシュは、全米行方不明・被搾取児童センター(NCMEC)などの児童保護組織から提供された児童虐待画像から得たの既知のハッシュのデータベースと端末上で比較される。NeuralHashはPrivate Set Intersection(プライベート・セット・インターセクション)と呼ばれる暗号化技術を用いて、画像の内容を明かすこともユーザーに警告することもなくハッシュの一致を検出する。

結果はAppleにアップロードされるが、そのままでは内容を見ることはできない。AppleはThreshold Secret Sharing(しきい値秘密分散法)と呼ばれる別の暗号化原理を用いることで、ユーザーのiCloud写真中の既知の児童虐待画像が一定のしきい値を越えた場合にのみコンテンツを解読できる。しきい値が何であるかについてAppleは明らかにしていないが、こんな例を示した。ある秘密が1000ピースに分割され、しきい値が児童虐待画像10枚だったとすると、その秘密は10枚の画像のどの1つからでも再構築できる。

これは、Appleが一致した画像を解読し、手動でコンテンツを検証することで、ユーザーのアカウントを停止し、画像をNCMECに報告し、その後その画像が警察機関に渡る可能性があるということを意味している。Appleはこのプロセスについて、クラウド上のファイルを監視するよりもプライバシーに配慮している、なぜならNeuralHashが検出するのは既知の児童虐待画像のみであり新しい画像ではないからだと述べている。Appleは、1兆分の1の確率で誤検出の可能性があるが、アカウントが誤って停止された場合に異議申し立てをする手続きがあるという。

AppleはNeuralHashの仕組みに関する技術情報を自社ウェブサイトで公開している。文書は暗号学専門家の査読を受けており、児童保護団体からも称賛されている。

しかし、児童性的虐待と戦うさまざまな取り組みが広い支持を得ている一方で、アルゴリズムに委ねることに多くの人々が違和感を示す監視の要素がそこにはある。また、セキュリティ専門家の間には、Appleがこのテクノロジーをユーザーに適用する前にもっと公開議論をすべきだと指摘する声もある。

大きな疑問は、なぜもっと早くではなく、今なのかだ。Appleは、同社のプライバシーが保護されたCSAM検出技術はこれまで存在しなかったと語った。一方でAppleのような会社は、ユーザーデータを保護している暗号化技術を弱体化するか裏口を提供することで警察機関の凶悪犯罪捜査を可能にすべし、という米国政府や同盟国からの大きな圧力にも直面している。

テック巨人らたちは自社システムの裏口を提供することを拒否し続けてきたが、政府によるアクセスをさらに遮断しようとする取り組みに対する抵抗を受けている。iCloudに保存されているデータはAppleがアクセスできない形で暗号化されているが、Reuters(ロイター)の2020年の記事によると、AppleはiPhoneのiCloudへのフルバックアップを暗号化する計画を、捜査を阻害するとFBIから抗議されて中止したという。

Appleの新しいCSAM検出ツールが公の場で議論されていない点についても、このテクノロジーが児童虐待画像を大量に送りつけて被害者のアカウントを停止に追い込むなど悪用の恐れがあるという懸念を呼んだ。しかしAppleは、手動レビューによって起こりうる悪用の証拠を検査するとして問題を軽視している。

Appleは、NeuralHashはまず米国で展開すると語ったが、世界的な展開の可能性や時期は明らかにしていない。最近まで、Facebook(フェイスブック)をはじめとする企業は、EU全体で児童虐待検出ツールが強制的に停止させられていた。当地でプライベートメッセージの自動監視が禁止されたためだった。Appleは新機能について、iCloud写真は使う義務がないので厳密には選択的であるが、使用するなら必須であると説明した。つまるところ、あなたの端末はあなたの所有物だが、Appleのクラウドはそうではない、ということだ。

カテゴリー:ソフトウェア
タグ:AppleiCloud子どもプライバシー個人情報児童ポルノ対策iOS 15macOS Monterey警察

画像クレジット:Bryce Durbin / TechCrunch / Getty Images

原文へ

(文:Zack Whittaker、翻訳:Nob Takahashi / facebook

モバイルバージョンを終了