英国、年齢確認なしでは露骨な画像の表示をブロックするようiPhoneに義務付けを要求

-

UK、iPhoneに露骨な画像のデフォルトブロックを要請

英国政府は、女性および少女に対する暴力に対処する戦略の一環として、AppleとGoogleに対し、デバイスのソフトウェアにデフォルトでヌード検出アルゴリズムを組み込むよう「奨励」する方針だと、Financial Timesが報じました。

報道によると、英国内務省(Home Office)は、ユーザーが生体認証または公式IDによって成人であることを確認できない限り、デバイスのオペレーティングシステムが露骨な画像を表示しないようにすることを求めています。

提案の概要

この提案は当初、モバイルデバイスを対象としていますが、デスクトップにも拡大される可能性があります。英国政府は、英国で販売されるデバイスにこれらのコントロールを義務付けることも検討しましたが、現時点ではそのアプローチは見送られたようです。

現在のAppleとGoogleの対策

  • Apple: 現在、「コミュニケーションセーフティ」ツールを提供しており、保護者が有効にできます。このツールは、Messages、AirDrop、FaceTimeなどのアプリでヌード写真や動画を検出します。ただし、13歳未満の子供はパスコードの入力が必要ですが、それ以上の年齢のユーザーは警告を無視してフラグ付きの画像を表示できます。
  • Google: Family Linkを通じてペアレンタルコントロールを提供しており、Google Messagesには「不快なコンテンツの警告」機能も含まれています。

しかし、現時点では、WhatsAppのようなサードパーティ製アプリにも対応する、システム全体でのヌードブロック機能は両社とも提供していません。

プライバシーと有効性への懸念

この提案は、プライバシー擁護団体や市民的自由擁護団体からの反対意見や、その有効性に関する疑問に直面することが予想されます。今年の初めに英国がオンライン安全法(Online Safety Act)の一環としてポルノサイトへの年齢確認を導入した際も、ユーザーは偽の画像やVPNサービスを使用して制限を回避しました。

この提案は、数日中に正式に発表される見込みです。関係者によると、これは子供たちの保護を目的としていますが、プライバシーへの影響と技術的な実行可能性について、さらなる議論を呼ぶことは避けられないでしょう。

注:このトピックに関する議論の性質上、議論スレッドは政治ニュースフォーラムにあります。すべてのフォーラムメンバーおよびサイト訪問者はスレッドを読むことができますが、投稿は100件以上の投稿を持つフォーラムメンバーに限定されます。

タグ: Apple Child Safety Features, Financial Times, United Kingdom

合わせて読みたい  次期MacBook Proがいよいよ量産開始か?M5チップ搭載モデルの発売時期と今後のロードマップを解説

カテゴリー

Related Stories