Appleが、児童を守るために「あらたな仕組み」を導入することを発表しました。
「iPhone」「iPad」「Mac」「Apple Watch」の写真をスキャンし、「児童性的虐待の素材を検出する」機能ということです。
大きな波紋も呼んだため、新たな文書(FAQ)も公開されております。
今回は、このような取り組みについて考えてみます。
※なお、当初は米国のみでの展開のようです。
何がなされるか?
目的は「児童を守るため」。
そして、Apple製品利用者のプライバシーを最大限に守るために配慮した仕組みのようです。
技術的には、iCloud(クラウドサービス)にアップロードされた画像がチェック対象になるとのこと。
チェック処理は端末上(iPhone等)で稼働し、その画像がiCloudにアップロードされたら検出。
ただし、Appleにてその対象画像そのものがすぐに検閲できるのではなく、一定の閾値を超えるまでは復号化されないとのこと。
(多少の誤検知くらいでは、対象とならないように見えます)
この「チェック処理」ですが、児童保護組織などから提供された「既知の児童虐待画像」と一致するか、といったチェックのようです。
そして、最後は人間が確認をし、しかるべきところに通報するようです。
iCloudを使うかどうかの選択は(今も)できますが、iCloudを使う場合は当該機能のOFFはできないようです。
意味あるような、ないような?
クラウドサービスは、基本的にはデータ閲覧しています。
Google、Microsoft、Dropboxなど、主要なクラウドサービスは違法なデータがないかを監視しています。
Appleはそういった監視をできるだけしない方向性ですが、今回、データそのものを直接監視する方法ではないにせよ、一歩踏み出したと考えられます。
しかし、個人的には効果に「?」を感じます。
「既知の画像」を「(ある程度)大量に」持ち、「iCloudにアップロード」した場合が検知対象であるためです。
どれくらいの効果があるのか、どれくらいの抑止力があるのか、未知数だと感じます。
また、いかにルールや手順を整備したとしても、データをAppleが復号化できる口ができるということです。
プログラムは必ずバグが存在しますし、運用は悪意に対しては100%防ぐことはできません。
より安全な社会を目指していくのは素晴らしいことですが、難解すぎる問題が多すぎますね・・・
メルマガ登録
『メルマガ Professional's eye』
週1回、3分で楽しめます。
詳細はこちら >>>
広告を含むご案内のメールをお送りする場合があります。