【メルマガ】データ検閲が進む?バックドア的な危険も?(2021年08月17日)

Appleが、児童を守るために「あらたな仕組み」を導入することを発表しました。
「iPhone」「iPad」「Mac」「Apple Watch」の写真をスキャンし、「児童性的虐待の素材を検出する」機能ということです。

大きな波紋も呼んだため、新たな文書(FAQ)も公開されております。

今回は、このような取り組みについて考えてみます。

※なお、当初は米国のみでの展開のようです。

何がなされるか?

目的は「児童を守るため」。

そして、Apple製品利用者のプライバシーを最大限に守るために配慮した仕組みのようです。

技術的には、iCloud(クラウドサービス)にアップロードされた画像がチェック対象になるとのこと。

チェック処理は端末上(iPhone等)で稼働し、その画像がiCloudにアップロードされたら検出。
ただし、Appleにてその対象画像そのものがすぐに検閲できるのではなく、一定の閾値を超えるまでは復号化されないとのこと。
(多少の誤検知くらいでは、対象とならないように見えます)

この「チェック処理」ですが、児童保護組織などから提供された「既知の児童虐待画像」と一致するか、といったチェックのようです。

そして、最後は人間が確認をし、しかるべきところに通報するようです。

iCloudを使うかどうかの選択は(今も)できますが、iCloudを使う場合は当該機能のOFFはできないようです。

意味あるような、ないような?

クラウドサービスは、基本的にはデータ閲覧しています。
Google、Microsoft、Dropboxなど、主要なクラウドサービスは違法なデータがないかを監視しています。

Appleはそういった監視をできるだけしない方向性ですが、今回、データそのものを直接監視する方法ではないにせよ、一歩踏み出したと考えられます。

しかし、個人的には効果に「?」を感じます。

「既知の画像」を「(ある程度)大量に」持ち、「iCloudにアップロード」した場合が検知対象であるためです。
どれくらいの効果があるのか、どれくらいの抑止力があるのか、未知数だと感じます。

また、いかにルールや手順を整備したとしても、データをAppleが復号化できる口ができるということです。
プログラムは必ずバグが存在しますし、運用は悪意に対しては100%防ぐことはできません。

より安全な社会を目指していくのは素晴らしいことですが、難解すぎる問題が多すぎますね・・・

メルマガ登録

"意見が持てる" デジタルコラム
『メルマガ Professional's eye』

週1回、3分で楽しめます。


詳細はこちら >>>
送信時点で「Privacy Policy」に同意したものとみなします。
広告を含むご案内のメールをお送りする場合があります。

バックナンバーを見る

>情報システムの

情報システムの"教科書"本を発売中!


■ 情シス、システムコンサルタント、システムエンジニアの方へ
情シスの定石(技術評論社)

■ システムエンジニア、情シスの方へ
システム設計の教科書(技術評論社)

CTR IMG

株式会社グロリア ご紹介