Appleが児童性的虐待コンテンツ(Child Sexual Abuse Material = CSAM)を防止する機能の実装を断念した。WIREDに寄せられた公式声明文によると、Appleは昨年12月に発表した、子どもを保護するコミュニケーションセーフティ機能にさらなる投資を行うと宣言。その上で、…
The post Apple、iCloud写真の児童性的虐待コンテンツを検出する機能を断念 first appeared on ゴリミー.
【もっと読む】
- Original:https://gori.me/apple/apple-news/145397
- Source:ゴリミー
- Author:g.O.R.i
Amazonベストセラー
Now loading...