Appleが、子供の安全に関するWebページから、児童の性的虐待コンテンツ(CSAM)画像の自動検出機能に関する記述を完全に削除していることがわかった、と米メディアMacRumorsが報じています。Appleが8月に導入を発表した同機能は、プライバシー侵害の懸念があるとの批判を受けて、発表から約1カ月で延期されています。
児童ポルノ画像の自動スキャンに関する記述を削除
Appleは2021年8月、子供を守るための新機能として、1)ユーザーのiCloud写真ライブラリを自動スキャンし、アメリカの非営利団体のデータベースと照合し通報する機能、2)子供が性的画像を送受信した場合に警告を表示する機能、3)子供に有害な検索を警告する機能をiOS15などに導入すると発表しました。
このうち、写真の自動スキャン機能についての記述が、Appleの「子供の安全(Child Safety)」Webページから完全に削除されています。
現在、同ページにはiOS15.2やiPadOS15.2、macOS 12.1で利用可能な機能として、性的画像の送受信を警告する機能と、有害な検索を警告する機能についてのみ、掲載されています。
なお、性的画像の送受信時の警告機能は、ファミリー共有に子供として登録されたアメリカのユーザーが対象で、デフォルトではオフになっています。
導入発表の1カ月後に延期を発表
写真の自動スキャン機能については、Appleの発表直後から政府による政治的弾圧への転用の危険性や、プライバシー侵害の懸念のほか、技術的に完成しているとは言えない、といった批判が相次ぎました。
Appleは、当初は安全性を強調して反論していたものの、導入発表から約1カ月後の9月には、同機能の導入を延期すると発表していました。
Source:Apple (1), (2), MacRumors
(hato)
- Original:https://iphone-mania.jp/news-426915/
- Source:iPhone Mania
- Author:iPhone Mania