説明:Appleが児童虐待の写真をスキャンするソフトウェアを延期している理由
この動きは児童保護機関、デジタルプライバシーの擁護者、業界の同業者によって歓迎されていますが、このテクノロジーがユーザーのプライバシーに広範な影響を与える可能性があることを示唆する危険信号を上げています。

プライバシー擁護派や同業他社からの批判を受けて、Appleはソフトウェアの発売を延期しました。 児童虐待を描いた写真を検出する iPhoneで。このプログラムは先月発表され、今年後半に米国で開始される予定でした。
Appleのソフトウェアとは何ですか?それはどのように機能しましたか?
Appleは先月、デバイス上の写真をスキャンして、児童性的虐待資料(CSAM)として分類される可能性のあるコンテンツをチェックする2つのメカニズムを展開すると発表しました。メカニズムの一部として、AppleのツールneuralMatchは、写真がiCloud(クラウドストレージサービス)にアップロードされる前に写真をチェックし、エンドツーエンドの暗号化されたiMessageアプリで送信されたメッセージのコンテンツを調べます。メッセージアプリは、デバイス上の機械学習を使用して、Appleがプライベート通信を読み取れないようにしながら、機密コンテンツについて警告します。
neuroMatchは、写真を児童虐待画像のデータベースと比較し、フラグがある場合、Appleのスタッフが手動で画像を確認します。児童虐待が確認されると、米国の全米行方不明・搾取児童センター(NCMEC)に通知されます。
懸念は何でしたか?
この動きは児童保護機関、デジタルプライバシーの擁護者、業界の同業者によって歓迎されていますが、このテクノロジーがユーザーのプライバシーに広範な影響を与える可能性があることを示唆する危険信号を上げています。このようなソフトウェアを他の用途に調整することなく、子供が送受信する性的に露骨な画像にのみ使用されるクライアント側のスキャンシステムを構築することはほぼ不可能であると考えられています。この発表は、暗号化されたサービスへのバックドアを求めている政府や法執行当局に再びスポットライトを当てました。エンドツーエンドの暗号化メッセージングサービスWhatsAppの責任者であるWillCathcartは、次のように述べています。 iPhoneが販売されている国では、許容できるものについてさまざまな定義があります。
| 次のiPhoneに衛星接続がある場合、これはAppleが使用する技術ですなぜAppleは後戻りしたのですか?
声明の中で、Appleは、社内外のプライバシーやその他の理由でシステムが批判された後、フィードバックを収集し、提案された児童安全機能を改善するのにもっと時間がかかると述べた。
顧客、擁護団体、研究者などからのフィードバックに基づいて、これらの非常に重要な子供の安全機能をリリースする前に、今後数か月にわたって入力を収集して改善するために追加の時間をかけることにしました。
ロイターによると、Appleはこの計画を何週間も擁護しており、誤検出のリスクが低いことを示す一連の説明と文書をすでに提供していた。
ニュースレター|クリックして、その日の最高の説明者を受信トレイに表示します
友達と共有してください: