アップルが予告した次期iOS 15等での児童の性的虐待対策は、メッセージアプリに添付された写真やiCloudに保存される画像をスキャンすることから、複数の方面からプライバシー侵害や監視の恐れがあると批判を集めています。
こうした反発に対して、アップルが新機能を「誤解」を招きやすいと認めつつも、これらの新機能は子供たちの安全を守るための「重要な使命」の一部だと信念を強調した社内メモが流出したと伝えられています。
アップルが5日(米現地時間)に発表した「子供のための保護機能の拡張(Expanded Protections for Children)」への反発とは、具体的にはエドワード・スノーデン氏(米国国家安全保障局の情報を持って逃亡し、米政府が個人情報を監視していることを暴露した人物)や電子フロンティア財団(EFF)など著名な関係者からも寄せられているものです。
No matter how well-intentioned, @Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.
They turned a trillion dollars of devices into iNarcs—*without asking.* https://t.co/wIMWijIjJk
— Edward Snowden (@Snowden) August 6, 2021
Apple’s filtering of iMessage and iCloud is not a slippery slope to backdoors that suppress speech and make our communications less secure. We’re already there: this is a fully-built system just waiting for external pressure to make the slightest change. https://t.co/f2nv062t2n
— EFF (@EFF) August 5, 2021
批判の対象となっているのは、主にアップルがiCloud画像をスキャンして児童性的虐待資料(CSAM)のデータベースに照合して一致するかどうかチェックする計画であり、わずかな変更により他の個人データも監視できるようになる可能性です。
さて米9to5Macが入手したのは、アップルのインテリジェントシステムエクスペリエンス担当副社長 セバスチャン・マリノー・メス(Sebastien Marineau-Mes)が社内スタッフ向けに書いたメモです。そこでは、アップルは「子供のための保護機能の拡張」に含まれる「機能の詳細を説明していく」ことを続けていくと述べられています。
マリノー・メス氏は、これら新機能に対して「多くの好意的な反応」を確認している一方で、どのように機能するのかを「一部の人々が誤解している」ことや、「少なからずその影響を心配している」ことも認識していると述べています。それでも、これらの機能は「子どもたちを守る」ために必要であり、同時に「ユーザーのプライバシーに対する深いコミットメント」を維持するものであるというアップルの信念を強調しています。
そのメモの全文は、次の通りです。
本日、「子どものための保護機能の拡張」が正式に公開されました。この数年間の皆さんのご尽力に感謝するために、この場をお借りしたいと思います。皆さんのたゆまぬ努力とたくましさがなければ、このような節目を迎えることはできませんでした。
子どもたちの安全を守ることは、とても重要な使命です。アップルらしく、この目標を達成するためには、エンジニアリング、GA、HI、法務、プロダクトマーケティング、PRなど、部門を超えた深い関与が必要でした。本日発表した製品は、この素晴らしいコラボレーションの成果であり、子供たちを守るためのツールを提供すると同時に、ユーザーのプライバシーに対するアップルの深いコミットメントを維持するものです。
今日は多くの好意的な反応をいただきました。誤解をされている方や、その影響を心配されている方も少なからずいらっしゃると思いますが、私たちが作ったものを理解していただけるよう、今後も機能の詳細を説明していきます。また、数ヵ月後に機能を提供するために多くのハードワークが待っていますが、本日NCMEC(全米行方不明・被搾取児童センター)から受け取ったこのメモを共有したいと思います。私自身、非常に刺激を受けましたし、皆さんにもぜひ読んでいただきたいと思います。
このような素晴らしいチームと一緒にアップルで働けることを誇りに思います。ありがとうございました。
このメモには上記の通り、NCMECからのメッセージも含まれています。
そこでは「全員がみなさん(アップル)を誇りに思っており、子供の保護を優先するという名目で行った信じられないような決断を称賛したいと思い、励ましの言葉をお伝えします」と称賛が述べられるとともに、激しい批判に晒されているアップルに対して「この長い日と眠れない夜の間、御社のおかげで何千人もの性的搾取の被害を受けた子供たちが救出され、癒しと彼らにふさわしい子供時代を過ごすチャンスを得ることができることを知って、慰めにしていただきたいと思います」という励ましの言葉も添えられています。
ほかアップルは、米国外でのCSAM検出機能の拡大は、現地の法律や規制に応じて国ごとに行われると9to5Macに対して確認したとのことです。ただし、いつ、どの国や地域に拡大するのかは具体的なスケジュールは提供されていません。
アップルやNCMECが言うとおり、新機能が本当に「プライバシーを守りつつ、子どもを保護するための道筋」となり、その他の使い道へと逸脱するおそれがあり得ないのか。今後もアップルに対しては技術の詳細につき説明が求められ、専門家らの厳しい精査にさらされる展開となりそうです。
(Engadget日本版より転載)
関連記事
・アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表
・アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ
・Twitterが「業界初」機械学習アルゴリズムの「バイアス」を対象とする報奨金コンテスト実施
・アップルが最新iOS 15のベータ版をすべての人に公開、開発者アカウント不要
・【コラム】バイデン政権はインクルーシブであるためにAI開発の取り組みにもっと力を入れる必要がある
・アリババは自社クラウド部門のウイグル人を顔認識する民族検知アルゴリズムにがく然
・政府のデータ要求からユーザーを保護する(or しない)IT企業はここだ
カテゴリー:パブリック / ダイバーシティ
タグ:iOS(製品・サービス)、iOS 15(製品・サービス)、iPhone(製品・サービス)、iPadOS 15(製品・サービス)、Apple / アップル(企業)、子ども / 子ども向け(用語)、機械学習 / ML(用語)、電子フロンティア財団 / EFF(組織)、プライバシー(用語)
- Original:https://jp.techcrunch.com/2021/08/10/apple-internal-memo-csam-detection-concern/
- Source:TechCrunch Japan
- Author:Engadget Japanese
Amazonベストセラー
Now loading...