アップル、iOS 15.2開発者ベータ第2弾で「メッセージ」アプリに子供向け新安全機能を搭載

Apple(アップル)は、iOS 15.2の2回目のデベロッパーベータをリリースし、メッセージAppの新機能「コミュニケーションセーフティー」のサポートを開始した。この機能が2021年初めに発表された際は、児童性的虐待コンテンツ(CSAM)検出技術の新機能と並んでのことだった。同時に発表されたCSAMは物議を醸し、反発を受けて延期された。

一方、このメッセージAppの新安全機能は、子どもたちがオンラインコミュニケーションを上手に使いこなせるよう、親がより活発な、情報に通じた役割を果たすのを支援することを目指している。メッセージAppは、デバイス上の機械学習(ML)を利用して画像の添付ファイルを分析し、共有されている写真が性的に露骨なものかどうかを判断できるようになる。この技術では、すべての処理がデバイス上で行われるため、Appleが子どものプライベートな通信にアクセスしたり、読み込む必要はない。この機能はデフォルトでは有効になっておらず、ファミリー共有機能の中で、保護者がオプトインするようになっている。

メッセージスレッドの中にセンシティブな写真が発見された場合、その画像はブロックされ、写真の下に「これはセンシティブな写真かもしれません」というラベルが表示され、クリックするとその写真を見ることができるリンクが表示されるようになっている。子どもが写真の閲覧を選択すると、詳細情報を示す別の画面が表示される。ここでは、センシティブな写真や動画について「水着で隠すようなプライベートな体の部分が映っています」「あなたのせいではないけれど、センシティブな写真や動画はあなたを傷つけるために使われる可能性があります」というメッセージが子どもに伝えられる。

注目すべきは、Appleがコミュニケーションセーフティー機能について、当初の計画に比べていくつかの変更を加えたことだ。同社は当初、13歳未満の子どもがメッセージAppで露骨な画像を閲覧した場合、親に通知する予定だった。しかし、その通知システムが子どもたちを危険にさらす可能性があるとの批判を受け、Appleはこの機能を削除した。

このコミュニケーションセーフティー機能は、現在、iOS 15.2のベータ版で提供されている。Appleがこの機能を正式にリリースする予定は今のところ不明だ。

編集部註:9to5Mac.comによると、上記の通知システムは特定の状況で機能するため Appleは削除したという。iOS 15.2 beta 2での機能の実装では、子どもがよりコントロールできるようにすることに重点を置いており、Appleは現在、年齢を問わず、子どもが助けを求めたい場合には信頼できる人にメッセージを送るという選択肢を与えているが、その判断は、画像を見るかどうかの判断とは完全に切り離されているとのこと。

画像クレジット:Apple

原文へ

(文:Aisha Malik、翻訳:Aya Nakazato)

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。