オルタナティブ・ブログ > 路の上で >

日頃考えていることをぽちぽち書きます。

AppleのChild Sexual Abuse Materialに対する取り組みは傲慢かつ拙速

»

AppleがiOS 15 (や一部機能はmacOS Monterey)で導入を予定している子供を保護する仕組み、子供を守る目的は理解できますが、やりすぎな機能があります。
今回のAppleの取り組みは以下の3種類です。

  • メッセージAppが危険な内容を検知し、本人や保護者に通知
  • iCloud Photosに写真を保存するとき、Child Sexual Abuse Material (CSAM)を検知し、通知
  • SiriとSearchに検知の仕組みを追加

Appleの説明は、Expanded Protections for Childrenから見れます。

問題は二つ目の機能。とりあえずはアメリカ国内向け機能で、National Center for Missing and Exploited Children (NCMEC) および他の組織の持つCSAMをハッシュ化し、iCloud Photosに保管する前にiPhone内でハッシュ確認するそうです。CSAM検知の閾値を超えたら、Appleが内容を確認し、ユーザーアカウントを停止し、NCMECに通知するとのこと。問題は2つで、勝手にユーザー内の情報を探索すること、今回の目的以外の何に使われるかわからないこと、です。法的に違反だったとしても、執行機関ではないAppleが勝手に調べる権利はありませんし、ユーザーはどの画像が検知されたかもわからないそうです。おそらく、iCloud Photosの契約に使用条件として追加されるのでしょうが、久しぶりに傲慢過ぎるAppleが出てきました。

さて、Security Threat Model Review of Apple's Child Safety Features のSecurity and privacy requirementsで色々書かれていますが、全てはAppleを信じられる前提。なお、ハッシュ値が同じになる画像をある人に送り込めば、その人のアカウントを停止できるのではないかと指摘されていましたが、人手でチェックすることになっているそうなので、可能性は低いと思われます。

さらに技術的な概要は、CSAM Detection Technical Summaryに書かれています。
ハッシュはNeuralHashと呼ぶ方式で、写真の特徴をベクトル化し、そのベクトルのハッシュを求めるようです。これにより、画像のサイズや白黒化等の影響は受けにくくなるようです。
一方、生真面目にデータアクセスは最小限になるように暗号論に基づく仕組みを定義していますが、問題はそれじゃない。Apple (の担当者)は論点を取り違えていて、彼らは表面的なプライバシーしか心配していないことが明らかです。
そもそも、iCloud Photos以外を使えばどうにでもなってしまうことで効果が低く、ここまで頑張る理由がわかりません。そして、なぜAppleがこれをやることが許されるのか、彼らに権利があるのか、全くわかりませんでした。

更なる懸念は、このような検知がCSAMを超えてどこまで広がるかわからないこと。Appleと現地政府の思うままになってしまう可能性があり、非常に危険です。目的が正しければ何をやっても良い、わけはありません。

Comment(0)