物議を醸していた、iCloudの児童の性的虐待コンテンツ(CSAM)画像の自動検出機能に関する記述が、Appleの子供の安全に関するWebページから削除されました。これについて、Appleは「計画に変更はなし」と答えた、と伝えられています。
記述が密かにそっくり削除
Appleは今年8月、子供を守るための3つの新たな新機能を発表しました。そのうちの一つは、先日正式版がリリースされたiOS15.2で利用可能となった「メッセージ」アプリのヌード検出機能です。
他にも、ユーザーのiCloud写真ライブラリを自動スキャンし、アメリカの非営利団体のデータベースと照合し通報する機能、子供に有害な検索を警告する機能が計画に含まれていましたが、前者の真の自動スキャン機能についての記述が、「子供たちの保護を拡充(Expanded Protections for Children)」と題したWebページからそっくり削除されていることが判明しました。
計画に変更はなし?
以前機能の延期が報じられたこともあり、Appleは機能の実装を諦めたのではないかとの憶測が飛び交いましたが、Appleから計画に変更はないとの返答が得られたようです。
今回の件について米メディアThe VergeがAppleにコメントを求めたところ、広報担当者のシェーン・バウアー氏から「9月のAppleの立ち位置から何も変化はない」との答えが返ってきたとのことです。
写真の自動スキャン機能は、以前からプライバシーの侵害が懸念されていたことで知られています。
Source:The Verge
Photo:Apple
(lexi)
- Original:https://iphone-mania.jp/news-427170/
- Source:iPhone Mania
- Author:iPhone Mania
Amazonベストセラー
Now loading...