
ニューヨーク・タイムズは、 Apple が App Store で直面している継続的な課題と、それに対して親たちがどのような取り組みを行っているかにスポットライトを当てている。
この記事は、「App Danger Project」というウェブサイトを特集しています。このウェブサイトは、機械アルゴリズムを用いて保護者向けに2つのリソースを提供しています。
1 つ目は、プロジェクトによってフラグが付けられた「少なくともいくつかのレビューで危険性が示されている」アプリのリストです。
App Danger Projectは現在、AppleのApp StoreとGoogle Play Storeで、危険性の基準を満たす182本のアプリをリストアップしています。リストはプラットフォーム別にフィルタリングできます。Apple製品のみに絞り込むと、リストは146本に絞り込まれます。
このウェブサイトには、誰でも両方のアプリストアからアプリを検索し、レビューを分析できるツールも含まれています。これは、検索で返されるレビューに基づいており、児童ポルノ、小児性愛者、その他アプリが児童搾取に使用されていることを示す兆候が見られます。

例えば、Snapchatでは「このアプリは子供にとって安全ではない」と示すレビューが23件表示されます。同じ検索では、Instagramにはフラグの付いたレビューは表示されませんが、Facebookにはセキュリティ上の懸念を警告するレビューが4件表示されます。
もちろん、App Storeのユーザーレビューは、そのアプリが実際に児童虐待に利用されていることを必ずしも意味するものではありません。あらゆるオンラインコミュニケーションは、こうした危険にさらされています。だからこそAppleは、未成年者を潜在的に虐待的な画像から守るための機能をiPhoneに搭載しているのです。
しかし、ニューヨークタイムズによれば、AppleはApp Danger Projectのリストを調査した後、10個のアプリをApp Storeから削除したという。
AppleはApp Danger Projectがリストアップしたアプリも調査し、配信規則に違反する10個のアプリを削除した。削除したアプリのリストや、その理由については明らかにしていない。
「当社のアプリ審査チームは24時間365日体制で、すべての新規アプリとアプリのアップデートを慎重に審査し、Appleの基準を満たしていることを確認しています」と広報担当者は声明で述べた。
App Danger Project がどのように始まり、創設者が何を達成したいと考えているかについての背景については、New York Timesの記事全文をお読みください。
slanear.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。