
Appleは本日、iPhone、iPad、Macに新たな子供保護機能を提供するための3つの新たな取り組みを発表しました。これには、メッセージアプリの新しい通信安全機能、iCloudにおける児童性的虐待コンテンツ(CSAM)の検出強化、Siriと検索のナレッジ情報の更新が含まれます。
Appleが強調しているのは、この新しいプログラムは野心的であると同時に、「子どもたちを守ることは重要な責任である」ということです。Appleは、このことを念頭に、この取り組みは「時間とともに進化し、拡大していく」と述べています。
メッセージ
本日の最初の発表は、メッセージアプリの新しいコミュニケーション安全機能です。Appleによると、iCloudファミリーに登録されているお子様が性的に露骨な写真を受信したり送信しようとしたりすると、警告メッセージが表示されます。
Appleは、子供が性的に露骨な画像を受け取ると、画像がぼやけ、メッセージアプリに「センシティブな内容である可能性があります」という警告が表示されると説明しています。子供が「写真を表示」をタップすると、なぜその画像がセンシティブとみなされるのかを説明するポップアップメッセージが表示されます。
ポップアップには、お子様が画像を閲覧した場合、iCloudファミリーの保護者に「お子様の安全を確認するため」通知が届くと説明されています。ポップアップには、追加のヘルプを受けるためのクイックリンクも含まれています。
さらに、子供が性的に露骨な画像を送信しようとした場合にも、同様の警告が表示されます。Appleによると、13歳未満のお子様の場合、写真が送信される前に警告が表示され、お子様が送信を選択した場合は保護者にメッセージが届くとのことです。
Appleはさらに、メッセージアプリはデバイス上の機械学習を用いて画像添付ファイルを分析し、写真が性的に露骨なものかどうかを判断していると説明しています。iMessageはエンドツーエンドで暗号化されており、Appleはメッセージにアクセスできません。この機能はオプトイン方式で提供されます。
Appleによると、この機能はiOS 15、iPadOS 15、macOS Montereyのアップデートで「iCloudでファミリー共有として設定されているアカウントに今年後半に」提供される予定だ。この機能はまず米国で利用可能になる。
CSAM検出

2つ目に、そしておそらく最も注目すべき点は、Appleが児童性的虐待コンテンツ(CSAM)の拡散防止に向けた新たな対策を発表したことです。Appleによると、CSAMとは、児童が関与する性的に露骨な行為を描写したコンテンツを指します。
本日一部リークされたこの機能により、AppleはiCloudフォトに保存されている既知のCSAM画像を検出できるようになります。AppleはCSAMの事例を、CSAMに関する包括的な通報機関として機能し、法執行機関と緊密に連携する全米行方不明・被搾取児童センター(NCCE)に報告することができます。
Appleは、CSAM検出方法がユーザーのプライバシーを考慮して設計されていることを何度も強調しています。平たく言えば、Appleは基本的にデバイス上の画像を分析して、全米行方不明・被搾取児童センター(NCMIS)が提供する既知のCSAM画像データベースと一致するものがあるかどうかを確認しています。すべての照合はデバイス上で行われ、AppleはNCMISのデータベースを「ユーザーのデバイスに安全に保存される、判読不可能なハッシュ値」に変換します。
Appleは次のように説明している。
画像がiCloudフォトに保存される前に、デバイス上で、その画像と既知のCSAMハッシュの読み取り不可能なセットとのマッチング処理が実行されます。このマッチング処理は、Private Set Intersection(PSI)と呼ばれる暗号化技術によって実現されており、結果を公開することなく一致の有無を判断します。Private Set Intersection(PSI)により、Appleは画像ハッシュが既知のCSAM画像ハッシュと一致するかどうかを把握できますが、一致しない画像ハッシュについては何も把握しません。また、PSIはユーザーが一致の有無を把握できないようにしています。
デバイス上で一致が見つかった場合、デバイスは一致結果を暗号化した安全証明書を作成します。この証明書には閾値秘密分散と呼ばれる技術が用いられます。これにより、iCloudフォトアカウントが既知のCSAMコンテンツの閾値を超えない限り、Appleは安全証明書の内容を解読できなくなります。
「例えば、秘密が1,000個のシェアに分割され、閾値が10の場合、1,000個のシェアのうち任意の10個から秘密を復元できます。しかし、利用可能なシェアが9個しかない場合、秘密について何も明らかにされません」とAppleは述べています。
Appleは、安全バウチャーの内容を解釈するために必要なCSAMの一致数、つまり具体的な閾値を公表していません。しかし、その閾値に達すると、Appleは手動でレポートを審査し、一致を確認した後、ユーザーのアカウントを無効化し、全米行方不明・被搾取児童センター(NCMIS)に報告書を送信します。
しきい値技術は、アカウントが誤ってフラグ付けされないことを保証するため重要です。手動によるレビューでは、ミスを防ぐために確認手順がさらに追加され、ユーザーはアカウントの回復を求めて異議申し立てを行うことができます。Appleによると、このシステムのエラー率は年間1兆アカウントあたり1件未満と低いとのことです。
すべてがデバイス上で行われるにもかかわらず、AppleはiCloudフォトに保存されている写真のみを分析します。完全にローカルに保存されている画像はこのプロセスには含まれません。Appleは、デバイス上のシステムは重要であり、クラウドベースのスキャンよりもプライバシー保護に優れていると述べています。これは、クラウド上のすべてのユーザーの写真を常にスキャンするのではなく、CSAM画像を持つユーザーのみを報告するためです。
Apple によるこの機能の実装は高度な技術を要するため、詳細については以下のリンクを参照してください。
- CSAM検出の詳細な技術概要
- ベニー・ピンカス教授によるCSAM検出の技術的評価
- Apple.com の新しい子どもの安全に関するランディングページ
アップル社によれば、この機能はまず米国で導入されるが、最終的には他の地域にも拡大したいと考えているという。
Siriと検索

最後に、Apple は Siri と検索をアップグレードします。
Appleは、Siriと検索のガイダンスを拡充し、お子様と保護者の皆様がオンラインで安全に過ごし、危険な状況に陥った際にサポートを受けられるよう、追加リソースを提供しています。例えば、Siriに児童虐待(CSAM)や児童搾取の報告方法を尋ねると、報告の提出場所と方法を示すリソースが表示されます。
Siriと検索機能もアップデートされ、ユーザーがCSAM関連のキーワードで検索を行った際に介入するようになります。これらの介入により、このトピックへの関心が有害であり問題となることをユーザーに説明し、この問題の解決に役立つパートナーからのリソースを提供します。
Siri と検索のアップデートは、今年後半に iOS 15、iPadOS 15、watchOS 8、macOS Monterey のアップデートで提供される予定です。
お客様の声
全米行方不明・被搾取児童センター 社長兼CEO ジョン・クラーク氏: 「Appleによる児童保護の拡充は、まさに革命的な出来事です。Apple製品を使用している人は多く、これらの新しい安全対策は、オンラインで誘惑され、児童性的虐待コンテンツとして恐ろしい画像が拡散されている子供たちの命を救う可能性を秘めています。全米行方不明・被搾取児童センターは、子供たちの保護への揺るぎない献身がなければ、この犯罪に対抗することはできないと考えています。Appleのようなテクノロジーパートナーが率先してその献身的な姿勢を示してくれるからこそ、私たちはこれを実現できるのです。プライバシーと児童保護は共存可能です。私たちはAppleを称賛するとともに、子供たちにとってより安全な世界の実現に向けて、共に取り組んでいくことを楽しみにしています。」
Thorn CEO、ジュリー・コルデュア: 「Thornは、オンラインプライバシーの権利を信じています。性的虐待が同意なく記録され、インターネット上に拡散された子どもたちもその対象です。Appleが、子どもたちのプライバシーとデジタルセーフティのバランスをとる技術ソリューションを提供するというコミットメントは、最もトラウマ的な瞬間がオンラインで拡散された被害者たちの正義の実現に一歩近づきます。アップロードボタンを備えたすべてのデジタルプラットフォームが、あらゆる環境においてCSAM(性的虐待)の積極的な検出に取り組む世界、そしてすべての子どもたちが、ただ子どもらしくいられる世界へと一歩近づきます。」
ファミリーオンラインセーフティ研究所創設者兼CEO、スティーブン・バルカム: 「私たちは、Appleによる子どものオンラインセーフティへの取り組みの継続的な進化を支持します。保護者が子どものオンライン安全を守る上で直面する課題を考えると、テクノロジー企業は新たなリスクや実際の危害に対応できるよう、安全対策ツールを継続的に改善していくことが不可欠です。」
元司法長官エリック・ホルダー: 「児童性的虐待コンテンツのオンライン上での歴史的な急増は、技術者によるイノベーションによって解決すべき課題です。AppleのCSAM検出に向けた新たな取り組みは、児童の安全確保のためにプライバシーを犠牲にする必要がないことを示す大きな節目であり、消費者のプライバシーを一貫して保護しながら世界をより良い場所にするというAppleの長年のコミットメントを示すもう一つの例です。」
ジョージ・ターウィリガー元司法副長官: 「Appleの発表は、親の力を高めるとともに、CSAM提供者による子どもへの危害を回避するための法執行機関の取り組みを支援する上で、非常に重要かつ歓迎すべき一歩です。AppleがCSAMの検知と報告に関する取り組みを拡大することで、法執行機関は、子どもたちにとって最も大きな脅威となる社会の人々を、より効果的に特定し、阻止できるようになるでしょう。」
バール・イラン大学コンピュータサイエンス学部教授、ベニー・ピンカス氏: 「Apple PSIシステムはプライバシーと実用性の優れたバランスを実現しており、高いレベルのユーザープライバシーを維持し、誤検知を最小限に抑えながらCSAMコンテンツを識別するのに非常に役立ちます。」
カリフォルニア大学サンディエゴ校コンピュータサイエンス工学部のミヒル・ベラーレ教授は次のように述べています。 「CSAMを制限する措置を講じることは称賛に値します。しかし、その導入には注意が必要です。単純に実施すると、iCloudユーザー全員の写真をスキャンすることになります。しかし、私たちの写真は個人的なものであり、私たちの生活における出来事、瞬間、そして人々を記録しています。ユーザーは、これらの情報がAppleに秘密にされることを期待し、望んでいます。逆に、CSAM写真のデータベースは公開されたり、ユーザーに知られるべきではありません。Appleは、こうしたプライバシーの制約を尊重しながら、CSAM違反者を検知し、報告する方法を見つけました。」
イリノイ大学アーバナ・シャンパーニュ校工学部コンピュータサイエンス学科長、デビッド・フォーサイス氏: 「Appleのアプローチは、私が知る限り他のどのアプローチよりもプライバシーを保護します。[…] 私の判断では、このシステムにより、[CSAM]を所有または取引する人物が発見される可能性が大幅に高まる可能性があります。これは子供たちの保護に役立つはずです。無害なユーザーのプライバシーは最小限、あるいは全く損なわれることはありません。なぜなら、視覚的派生画像は、CSAM画像と十分な一致があり、かつ既知のCSAM画像と一致する画像のみが発見されるからです。照合システムの精度と閾値の組み合わせにより、既知のCSAM画像ではない画像が発見される可能性は非常に低いです。」
wamice.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。
