説明:Appleがデバイス上の子供の搾取画像をスキャンする方法と、なぜ眉を上げているのか
当初は米国で稼働する予定でしたが、この機能には、特にAppleプラットフォームを介したオンラインでのCSAMの普及を制限するための新しいテクノロジーの使用が含まれています。

Appleは次のように発表しました 今年後半のソフトウェアアップデートは新機能をもたらします これは、コミュニケーションツールを使用して子供を募集および悪用する捕食者から子供を保護し、児童性的虐待資料(CSAM)の拡散を制限するのに役立ちます。
当初は米国で稼働する予定でしたが、この機能には、特にAppleプラットフォームを介したオンラインでのCSAMの普及を制限するための新しいテクノロジーの使用が含まれています。
次に、ユーザーが13歳未満の場合に保護者に警告するメカニズムを備えた、機密コンテンツの送受信から子供をデバイス上で保護します。SiriまたはSearchを使用してCSAM関連のトピックを検索する場合も、Appleが介入します。 。
CSAMのオンライン拡散を防ぐためにAppleはどのような技術を行っていますか?
Appleはブログ投稿で、iOSとiPadOSを介した暗号化アプリケーションを使用して、iCloudPhotoに保存されている既知のCSAM画像と一致させると説明しました。このテクノロジーは、ユーザーのiCloud上の画像を、児童安全団体が提供する既知の画像と照合します。そして、これは実際に画像を見ることなく、指紋の一致のようなものを探すことによってのみ行われます。しきい値を超える一致がある場合、Appleはこれらのインスタンスを全米行方不明・搾取児童センター(NCMEC)に報告します。
Appleは、そのテクノロジーがユーザーのプライバシーを念頭に置いていることを明らかにしました。そのため、データベースは、ユーザーのデバイスに安全に保存される読み取り不可能なハッシュのセットに変換されます。また、画像がiCloudにアップロードされる前に、オペレーティングシステムは、プライベートセット交差と呼ばれる暗号化技術を使用して、既知のCSAMハッシュと画像を照合することを追加しました。このテクノロジーは、結果を明らかにすることなく一致を判断します。
この時点で、デバイスは一致結果と追加の暗号化データを含む暗号化安全バウチャーを作成し、それを画像とともにiCloudに保存します。しきい値の秘密共有テクノロジーにより、iCloud Photosアカウントが既知のCSAMコンテンツのしきい値を超えない限り、これらのバウチャーがAppleによって解釈されないことが保証されます。ブログによると、このしきい値は、非常に高いレベルの精度を提供するために設定されており、特定のアカウントに誤ってフラグを立てる可能性が1年に1兆分の1未満であることを保証します。したがって、単一の画像がアラートをトリガーする可能性はほとんどありません。
ただし、しきい値を超えた場合、Appleは安全バウチャーの内容を解釈し、各レポートを手動で確認して一致を確認し、ユーザーのアカウントを無効にして、NCMECにレポートを送信できます。 Appleは、ユーザーが誤ってフラグが立てられたと思った場合、ユーザーは上訴できると述べた。
他の機能はどのように機能しますか?
メッセージに対するAppleの新しい通信の安全性は、機密性の高い画像をぼやけさせ、コンテンツの性質について子供に警告します。バックエンドから有効にした場合、子供はまた、彼らが見たメッセージについて両親に警告されたことを知らされる可能性があります。子供が機密メッセージを送信することを決定した場合も同じことが当てはまります。 Appleによれば、Messagesはデバイス上の機械学習を使用して画像の添付ファイルを分析し、写真が性的に露骨であるかどうか、Appleはメッセージにアクセスできないかどうかを判断します。この機能は、最新のオペレーティングシステムバージョン用にiCloudでファミリとして設定されたアカウントのアップデートとして提供されます。
また、アップデートにより、ユーザーが潜在的なCSAMトピックを検索しようとすると、SiriとSearchは、これが有害で問題になる可能性がある理由を説明します。また、ユーザーは、必要に応じて、子供の搾取に関するレポートを提出する方法についてのガイダンスを取得します。
| 説明:Googleがオンラインで子供たちにより多くの保護を提供する方法と理由
なぜAppleはこれを行っているのですか、そしてどのような懸念が提起されていますか?
ビッグテック企業は何年もの間、子供を搾取するためのプラットフォームの使用を取り締まるよう圧力をかけられてきました。多くのレポートは、テクノロジーがCSAMコンテンツをより広く利用できるようにするのを阻止するのに十分なことが行われていなかったことを、長年にわたって強調してきました。
しかし、Appleの発表には多くの批判が寄せられており、これがまさに多くの政府が望んでおり、悪用したいと思う種類の監視技術であることが強調されています。これが長い間プライバシーの支持者であったAppleから来たという事実は、多くの人を驚かせました。
また、ジョンズホプキンス大学のマシューグリーンのような暗号学の専門家は、CSAMの試合をトリガーすることを目的とした画像を送信する無実の人々をフレーム化するためにシステムが使用される可能性があることへの懸念を表明しました。研究者はこれを非常に簡単に行うことができたと彼はNPRに語り、そのようなアルゴリズムをだますことは可能であると付け加えた。
しかし、ニューヨークタイムズ紙は、Appleの最高プライバシー責任者であるErik Neuenschwanderが、これらの機能は通常のユーザーにとって何の違いもないと述べたと述べています。
CSAM資料のコレクションを保存している場合、そうです、これはあなたにとって悪いことです、と彼は出版物に語りました。
ニュースレター|クリックして、その日の最高の説明者を受信トレイに表示します
他の大手テクノロジー企業も同様のテクノロジーを持っていますか?
はい。実際、マイクロソフト、グーグル、フェイスブックが法執行機関にCSAM画像について警告しているため、アップルは比較的遅い参入者です。 Appleは、そのようなテクノロジーがユーザーのプライバシーに対するその大いに宣伝されたコミットメントに反していたであろうため、遅れをとっている。その結果、2020年にFacebookがNCMECに2,030万件のCSAM違反を報告したとき、Appleは265件しか報告できなかったとニューヨークタイムズは報じました。
通常のユーザーに影響を与えたり、少なくともユーザーを驚かせたりすることなく、これを行うためのテクノロジーのスイートスポットを見つけることができたのは今だけです。しかし、最初の反発が示しているように、それはまだ綱渡りです。
友達と共有してください: