トロントの写真共有スタートアップ500pxが今日(米国時間1/22)、同社の二つのアプリ500px for iOSと同社が最近買収したISO500が共に、ヌード写真に関する懸念によりApple App Storeから下ろされた、と報告した。500pxのCOO Evgeny Tchebotarevによると、二つのアプリ合わせてダウンロード数は100万を超えており、内訳はメインの500pxが100万弱、ISO500が20万強だ。
これらのアプリは、東部時間で今朝の1時ごろApp Storeからの削除が決まり、お昼頃にはすでに影も形もない。昨夜は、Appleのリビュワー(査定官)の手に渡っていた500px for iOSの新バージョンに関する議論が行われ、その直後に削除の決定が行われた。
Appleのリビュワーは500pxに対して、そのアップデートは承認できない、なぜならユーザがそのアプリ内でヌード写真を検索できるからだ、と告げた。それはある程度正しいが、しかし500pxはそれ(ヌード写真の検索)を難しくしている、とTchebotarevは説明する。彼によると、新規のユーザがそのアプリを立ち上げただけでは、ヌード画像を見つけることはできない。そのほかのソーシャル写真共有サービス、InstagramやTumblrなどでは簡単にそれができるのに、逆に500pxでは、デフォルトのモードが“セーフ(安全)検索”になっていて、それ的な写真は隠されている。ユーザがセーフ検索を解除するためには、同社のデスクトップのWebサイトへ行って、モードの変更を意識的に行わなければならない。
Tchebotarevによると、それは、子どもなどが偶然ヌード写真に出会ったりしないためだ。“アプリを使うのが大人だけとは限らないから、デフォルトではセーフ検索にしてある”、と彼は言う。
しかも、500pxの“ヌード写真”は、そのほかの写真共有コミュニティにあるようないわゆるヌード画像ではない。つまり、500pxのは、ポルノ性がない。“ポルノ的な画像は許可しない。それはうちのサービス規約に違反しているから、投稿されれば削除する”、とTchebotarevは言明する。
彼によると、500pxはプロの写真家や高度な写真ファンのコミュニティだから、ヌード写真はあるとしても“芸術的な”、作品としての写真に限る。“ポルノではなくて美術作品だ”、と彼は力説する。
現在500pxは、不適切な画像の発見をコミュニティに依存しているが、同社が今開発中の顔認識技術は、ヌード画像の検出にも使えるという。ということは、将来はヌード写真の発見を自動化できる、ということ。そしてそれらを、検索結果から外すこともできる。そういう技術は将来の話だが、 Tchebotarevによると、今でも、ヌードなど、既存の分類カテゴリーに当てはまらない写真はすべて、アプリの新規ユーザに対しては隠される。
同社は昨日Appleに対して、アプリを改作して問題の解決を図る、それにより、アプリのAPIを呼び出している10あまりのほかのアプリに対しても自動的に対策が行き渡る、と告げた。それらの中には、FlipboardやGoogle Currentsなどの大物もいる。しかしその新たなアップデートには丸一日かかるので、それを待ちきれないAppleは、アプリの取り外しを選んだ。
“App Storeに2011年の10月から半年近くあったアプリが、今急に外されるなんて、そんなの想像できる?”、とTchebotarevは不平をぶつける。アップデートは昨年11月に行われてインタフェイスが豪華になったが、ヌード写真を見つけやすくするための改造などは行われていない。彼によると、Appleに申し出た改作はもう完了して、結果をApp Storeに提出済みだ。それで再び、アプリがApp Storeに戻ってくるとよいのだが。
ユーザたちも一様に、信じられない!という反応を寄せている。ほかのアプリではもっと簡単に、いくらでもヌード写真を見つけられるのだから。いや、アプリだけでなく、Webブラウザでも。
アップデート: 以下は、500pxの削除に関するAppleの公式声明だ:
このアプリはポルノグラフ的な画像や素材を提示しており、弊社のガイドラインに明らかに違反するため、App Storeから削除された。弊社はまた、児童ポルノの疑いがあるとの、顧客からの苦情を受け取った。弊社はデベロッパに対し、ポルノグラフ的な画像と素材を防ぐための安全措置を設けることを求めた。.
[ツイート訳: Redditも外すべきだね。
Safariブラウザも外すべきだよ。何と愚かな連中だろう。
(後略)
]