Apple、児童虐待写真検出機能の導入を中止

Child Safety
 
Appleは2021年にiOS15などでの導入を発表、物議を醸した、児童虐待写真検出機能の導入を、完全に断念したことがわかりました。

2021年に導入を発表

Appleのソフトウェア・エンジニアリング担当上級副社長のクレイグ・フェデリギ氏が、The Wall Street Journalのジョアナ・スターン記者のインタビューにおいて明かしています。
 
Appleは2021年に、iCloud内のデータをスキャンして、児童への性的虐待(CSAM:Child Sexual Abuse Material)として報告された画像を検出する機能を、iOS15などのOSで追加すると発表しました。

WSJのインタビューで導入中止を認める

しかし政治的弾圧への転用の危険性プライバシー侵害の可能性が指摘され、Appleは発表から約1カ月後の9月には同機能の導入延期を発表、2021年末には子供の安全に関するWebページから、児童の性的虐待コンテンツ(CSAM)画像の自動検出機能に関する記述を削除しました。
 
そして今回、フェデリギ氏はWSJのインタビューにおいて、児童虐待写真検出システムの開発を中止したと明言しています。

 
 
Source:WSJ via 9to5Mac
(lunatic)


Amazonベストセラー

返信を残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA