Appleは2021年にiOS15などでの導入を発表、物議を醸した、児童虐待写真検出機能の導入を、完全に断念したことがわかりました。
2021年に導入を発表
Appleのソフトウェア・エンジニアリング担当上級副社長のクレイグ・フェデリギ氏が、The Wall Street Journalのジョアナ・スターン記者のインタビューにおいて明かしています。
Appleは2021年に、iCloud内のデータをスキャンして、児童への性的虐待(CSAM:Child Sexual Abuse Material)として報告された画像を検出する機能を、iOS15などのOSで追加すると発表しました。
WSJのインタビューで導入中止を認める
しかし政治的弾圧への転用の危険性やプライバシー侵害の可能性が指摘され、Appleは発表から約1カ月後の9月には同機能の導入延期を発表、2021年末には子供の安全に関するWebページから、児童の性的虐待コンテンツ(CSAM)画像の自動検出機能に関する記述を削除しました。
そして今回、フェデリギ氏はWSJのインタビューにおいて、児童虐待写真検出システムの開発を中止したと明言しています。
Source:WSJ via 9to5Mac
(lunatic)
- Original:https://iphone-mania.jp/news-509010/
- Source:iPhone Mania
- Author:iPhone Mania