新品互換用パソコン バッテリー、ACアダプタ、ご安心購入!
ノートpcバッテリーの専門店



人気の検索: ADP-18TB | TPC-BA50| FR463

容量 電圧 製品一覧

スペシャル

Appleが「iPhoneの写真やメッセージをスキャンする施策」の延期を発表

Appleは児童に対する性的搾取コンテンツの拡散を防止するために、ユーザーのiCloud Photosに保存されている「Child Sexual Abuse Material(CSAM:児童の性的搾取に関連するデータ)」画像をスキャンし、公的機関に報告するという新しい安全機能を2021年8月5日付けで発表しました。この新機能が「ユーザーのプライバシーを損なう」と大きな反発を呼んだことを受け、Appleは新機能のリリースを延期すると発表しました。

Appleが8月5日に発表した安全機能は大きく分けて2つあり、1つは「子どもが性的に露骨な写真を送受信しているときに親に警告し、画像をぼかしを入れる」というもの。もう1つは「ユーザーのiCloud Photosに保存されているCSAMの画像をスキャンし、Appleのモデレーターに報告。モデレーターはレポートを全米行方不明・被搾取児童センター(NCMEC)に報告する」というものです。後者では、機械学習アルゴリズムである「NeuralHash」によって写真のハッシュ値をデータベースと照合することでCSAMを検出するという方法が取られますが、これが「ユーザーのプライバシーを損なう」として社内外から大きな反発を呼んでいます。

AppleがiPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐと発表、電子フロンティア財団などから「ユーザーのセキュリティとプライバシーを損なう」という抗議の声も - GIGAZINE

Appleは「児童性的虐待資料検出はプライバシーを損なうものではない」とFAQで説明しましたが、CSAMの検知で利用されるNeuralHashには、異なる画像から同じハッシュが検出される「ハッシュ衝突」の欠陥があり、誤検知の可能性がある他、意図的に「一見無害でも児童性的虐待画像として認識されてしまう画像を悪用する」ことが可能だと指摘されました。また、誤検知の発生を意図しない画像同士で偶然の一致によりハッシュ衝突が発生した事例も報告されています。

世界中から猛反発を受けるAppleの「iPhone内の児童ポルノ検知システム」には大きな穴があることが判明 - GIGAZINE

このような反発を受けてAppleは、2021年9月3日付けで「Child Safety」というページを更新。もともと上記の安全機能は2021年内にリリースされる予定でしたが、Appleは「以前、私たちはコミュニケーションツールを使って児童を搾取する加害者から子どもたちを守り、児童の性的搾取コンテンツの拡散を制限するための機能を発表しました。消費者・権利擁護団体・研究者・その他からのフィードバックを受け、私たちは児童の安全のために重要なこの機能を、今後数カ月、さらなる時間をかけて改善していくことを決めました」と述べ、新たな機能の実装を延期することを発表しました。なお、延期後のリリース日時が具体的にいつになるのかは記事作成時点では不明です。