Appleは、iOS15などで導入する児童への性的虐待写真を検出する機能について、iCloud写真を有効にしている場合のみ機能すること、機能の有効化はアメリカ以外の国・地域は法制度を確認した上で導入する予定であることを説明しています。
iOS15で導入と発表の新機能には議論も
Appleは、子どもを性的虐待から保護する機能を、iOS15などで導入すると発表しました。
特に、児童への性的虐待写真として非営利団体の全米行方不明・被搾取児童センター(NCMEC)に登録された情報と一致する画像がユーザーのフォトライブラリ内にあれば検出する機能については、政府などによる弾圧につながる可能性もあるのではないか、と議論を呼んでいます。
iCloud写真がオフの場合は機能せず
Appleは、米メディアMacRumorsに対して、写真の自動検出機能は、ユーザーが機能の有効/無効を選択するのではなく、デバイス上で自動実行されるものの、iCloud写真がオフになっている場合は動作しないと説明しています。
iCloud写真がオフの状態で、iCloudにバックアップされた写真をスキャンして性的虐待写真を検出することはできない、ともAppleは説明しています。
これは、デバイス上でスキャンされた写真が、NCMECに登録された画像と一致した場合のアップロードが停止されることにより、機能しなくなるためです。
iCloud写真のオン/オフは「設定」アプリのユーザー名をタップし、「iCloud」のメニューから切り替えることができます。
アメリカ以外には各国の法制度踏まえて導入
Appleは、写真の児童検出機能はアメリカで導入され、アメリカ以外への拡大は各国・地域の法制度を踏まえて展開する予定だ、とも説明しています。
Appleは新サービスや機能を導入する際、最大の市場であると同時に、法制度をよく把握できているアメリカから導入した後、他の国・地域に拡大する手法をとることが多いので、今回も同様の手法をとる方針とみられます。
Source:Apple, MacRumors, 9to5Mac
Photo:Apple (1), (2)
(hato)
- Original:https://iphone-mania.jp/news-387873/
- Source:iPhone Mania
- Author:iPhone Mania