iPad Proのようなデザインの新iPhoneをアップルが準備中との報道

AppleはiPhone 11 Proに代わる新型のiPhone、そしてiPhone 11の新モデル、小型のHomePodと位置追跡タグを2020年秋発表する準備を進めているようだ。Bloombergが報じている。最上位スマホiPhone 11 Proの後継モデルは少なくともiPad Proに近いデザインとなりそうだ。現在の丸いエッジではなく、スクリーンとサイドはフラットで、Appleが3月に発表した最新iPad Proで導入した3D LIDARセンサーシステムも搭載する。

新iPhoneは「フラットなステンレススティールのエッジ」でiPhone 5のようなデザインとなり、大きいバージョンのスクリーンはiPhone 11 Pro Maxの6.5インチよりもわずかに大きくなる見込みだという。また、ディスプレイ最上部にあるフロントカメラ配置している「ノッチ」を小さくするかもしれない、ともしている。

一方、リアカメラに搭載さたLIDARトラッキングシステムではプロセッサーのスピードやパフォーマンスの改善が図られており、AR性能が大幅に向上しそうだ。Bloombergによると、プロセッサーの改善はAI性能のアップも意図しているとのことだ。

秋のローンチと発売を計画されている段階だが、現在の新型コロナウイルスパンデミックによる混乱で、一部は「通常より数週間後ろ倒しで」提供されることになるかもしれない、とのことだ。

その他の製品に関するアップデートは、新しいHomePodは現行モデルより50%小型で、2020年後半の発売が見込まれている。価格的には安価になり、新HomePodリリース時にはSiriの性能も向上し、Apple以外のストリーミングサービスもサポートするとBloombergの記事にはある。その他にはApple Tagがある。これはAppleが先日、意図せずその存在を明らかにしたもので、TileのようなBluetooth位置追跡アクセサリーだ。これも2020年発売されるかもしれないという。

さらに記事ではMacBook Pro、Apple TV、低価格のiPadとiMacのアップデートも準備中と言及している。Appleのハードウェアアップデートのサイクルを考えれば、驚くべきことではない。それらのリリースについて予定はなく、新型コロナウイルス(COVID-19)がこうした計画にどのように影響を及ぼすか、はわかっていない。

画像クレジット:Qi Heng / VCG / Getty Images

[原文へ]

(翻訳:Mizoguchi

米国のスマートスピーカー利用者の約7割がAmazon Echoを使っている

アナリスト会社eMarketer(イーマーケター)が2月11日に発表によると、米国のスマートスピーカー市場は、Amazon Echoのシェアに対してライバルのGoogleとAppleは伸び悩み、2020年、2021年もAmazonが独占的な地位を維持するという。eMarketerは、Amazonは2021年末までそのトップの座を悠々と維持し、米国のスマートスピーカー・ユーザー全体の70%近い人たちが、今後もAmazon Echoを使い続けると予測している。

正確にいえば、米国のスマートスピーカー・ユーザーの69.7%が2020年を通してEchoを利用するということとなる。2019年の72.9%からわずかに減少した。2021年にはさらに微減し、その時点で米国のスマートスピーカー・ユーザーの68.2%がEchoを使っていると予測される。一方、2020年には、スマートスピーカー・ユーザーの31.7%はGoogleブランドの機器を使い、他のブランドの製品、例えばApple HomePod、Sonos One、Harman Kardonなどを使う人はわずか18.4%に留まる(合計が100%を超えるのは、別ブランドの製品を同時に所有している人も含まれるからだと報告書は説明している)。

ブランド別2017年から2021年の米国のスマートスピーカー・ユーザー数(ユーザーの割合)
赤:Amazon、黒:Google、グレー:その他
1カ月にスマートスピーカーを少なくとも1回利用したすべての年齢層の個人を対象とする。別ブランドの製品を同時に所有している場合を含む
eMarketer 2019年12月

この数字は、米国のスマートスピーカー市場で大きなシェアを狙うApple HomePodやGoogle Home、その他の製品の目前に立ちはだかる高い壁を表している。

つまり消費者は一度、機器を購入すると、次に買うときに別ブランドへの乗り換えを滅多にしないということだ。最初に買った製品は、その企業(例えばAmazon)が、スマートスピーカーの便利さを証明する足がかりとなる。ユーザーが、寝室やキッチンにもスマートスピーカーを増設したいと考えたとき、通常は、家中で整合がとれるよう同じブランドの製品を買う。

必ずとは言えないが、そうすることのほうが多い。

Amazonはこのユーザー傾向を鋭く見抜き、エントリーレベルの製品を無料に近い価格で提供した。それがEcho Dotだ。このローエンドの製品は、小売りサイトでは29.99ドル(約3300円)で販売され、さらに値引きされていることもある。Amazonのプライムデーでは、Alexa製品はさらに安く販売される。そのおかげでここ数年、Echo Dotはプライムデーのベストセラーになっている

その一方で、Amazon Echoが米国以外では同等の躍進を遂げていないこともあると報告書は述べている。

Google Homeなどの強力なライバルに比べて英語以外の言語への対応が弱いEchoは、一部の市場では競争力が低下する。

とはいえ、スマートスピーカーの普及にとって米国は依然として重要な市場であるため、米国でのAmazonの力をあなどってはいけない。

「Amazonが初めてEchoを発売したとき、米国で確実な主導権を握りました。それ以来、迫る競合他社を突き放し続けてきています」と、eMarketerの主任アナリストのVictoria Petrock(ビクトリア・ペトロック)氏は話す。「当初私たちは、GoogleとAppleがこの市場にもっと食い込んでくるだろうと予測していました。しかし、Amazonの積極性は衰えませんでした。安価な製品を提供し、大量のAlexaスキルを作り、AmazonはEchoの魅力を維持してきたのです」と彼女は言い足した。

米国のスマートスピーカー・ユーザーの数は、今後数年間は増え続けるが、その伸び率は下がるとeMarketerは予想している。現在は28.9%のインターネットユーザーがスマートスピーカーを利用しているが、2021年には、その数は30.5%に達すると見られる。

2020年に米国のスマートスピーカーのユーザー数は13.7%伸びて8310万人に達する。しかし、2021年には伸び率は一桁に落ちるとeMarketerは予測している。

しかしこれは、残りのインターネットユーザーが音声アシスタントを使わないことを意味するものではない。スマートスピーカーは、音声でテクノロジーを利用するための手段のひとつに過ぎない。いずれ人々は、自動車や家電製品や他のスマートホーム機器など、他のデバイスに組み込まれた音声アシスタントも使うようになる。それに、GoogleもAppleもスマートフォンで音声アシスタントを提供していることを忘れずにおくべきだ。GoogleアシスタントとSiriを使っている人の数はEchoの比ではない。

Siri対応デバイスは5億台ほど普及している。Googleアシスタントのユーザーも5億人いる。つまり今日、音声アシスタントを使っている人は、Alexaよりも、iOSやAndroidのスマートフォンに話しかけている人のほうが多い可能性があるとも言うことができる。裏を返せば、音声アシスタントでライバルに大きく差をつけられた中で、AmazonがEchoスピーカーの市場を切り拓いたことは大変な偉業だ。

Amazonがスマートスピーカー市場で70%のシェアを獲得したことを伝えたのは、eMarketerが初めてではない。2019年のCIRP(国際生産工学アカデミー)の報告書にも同様の内容が書かれていた。

[原文へ]
(翻訳:金井哲夫)

自然言語理解APIを開発するヘルシンキの「Speechly」が2.4億円を調達

音声認識と「自然言語理解」の経験豊かな専門家チームを誇るヘルシンキのスタートアップ「Speechly」(スピーチリー)が、200万ユーロ(約2億4000万円)のシード資金を調達した。この資金で、開発者がプロダクトに音声UIを簡単に組み込めるようにしていく。

このラウンドはベルリンのCherry Venturesが主導し、Seedcamp、Quantum Angels、Joyance Partners、Social Starts、Tiny.vc、King.comにエグジットしたNonstop Gamesの共同創業者であるJuha Paananen(ジュハ・パーナネン)氏、Algoliaの創業者であるNicolas Dessaigne氏(ニコラス・デサイン)が参加した。Speechlyはこの資金を活用して、音声に関する専門家でなくても音声対応のアプリを作れるようにするためのAPIの開発をさらに進める。

Speechlyの共同創業者でCEOのOtto Söderlund(オットー・セーデルランド)氏はTechCrunchに対し、「ここ数年、音声の可能性は示されてきたが、キッチンタイマーをセットしたりSpotifyを再生したりする以上の真のブレイクスルーはまだ見られない。音声アシスタントプラットフォームが現在抱える根本的な問題は、ユーザーの複雑なリクエストやニーズに応えられないことだ」と語った。

セーデルランド氏によれば、Speechlyのソリューションは自然言語理解と音声認識を「革新的な方法」で組み合わせるもので、開発者は「極めて反応が早く、シームレスでマルチモーダルなユーザーエクスペリエンス」を作り、ユーザーが複雑な意図を表現したときに適切にガイドできるようになるという。

「友人にちょっと面倒なことを説明するのに、電話越しでは難しくても顔を合わせて話せばずっと簡単な場合がある。この違いは想像できるだろう」と同氏は語る。

Speechlyはこれを実現するために専用の音声認識技術を「イチから」設計し、既存のプロダクトよりずっと広範囲の音声関連ユーザーエクスペリエンスをサポートするという。

音声アプリが複雑な意図をもっと理解できるようにするだけではない。Speechlyは音声のビジネスケースに関する問題も解決しようとしている。同社は、アマゾンのAlexaやアップルのSiriといった現在の音声アシスタントプラットフォームは「他人のエコシステムの中で動作し」、貴重なユーザーデータを共有することを企業に対して強いていると主張する。

さらにSpeechlyは、現在のSDKとAPIは複雑すぎる、あるいは開発者はエンドユーザーのエクスペリエンスを十分に制御できないとも述べている。

さらにセーデルランド氏は次のように語った。「グーグル、アマゾン、マイクロソフト、アップルに加え、独自の音声言語理解(SLU)技術を開発している企業やスタートアップもいくつかある。我々も独自の技術を持っていて、独自のSLU技術を持っている企業が競合と考えている。しかし競合各社が主に提供しているプロダクトは、Siriがどんなものかを考えればわかるように、双方が順番に話す古典的な会話エージェントの比較的単純な延長線上にあるものだと我々は見ている。我々は音声UIの新しいビジョンを提供したい。それは、反応の良いマルチモーダルなフィードバックでユーザーをリアルタイムで「ガイド」し、もっと難しいタスクを解決するというものだ。我々のプロダクトで実現しようとしているこのビジョンは、ほかにはないと思う」。

[原文へ]

(翻訳:Kaori Koyama)

AIが声の調子を理解してカスタマーエクスペリエンスを向上させるOtoが5.8億円を調達

SRI Internationalの研究からスピンオフしたスタートアップのOtoは、声の語調を理解してカスタマーサービスの運営に生かそうとしている。このOtoが米国時間12月18日、シードラウンドで530万ドル(約5億8000万円)を調達したと発表した。

画像:filadendron / Getty Images

このラウンドには、Firstminute Capital、Fusion Fund、Interlace Ventures、SAP.iO、SRI Internationalが参加した。Otoによれば、総額には以前のシードラウンドの100万ドル(約1億900万円)が含まれる。

Otoの共同創業者でCEOのTeo Borschberg(テオ・ボルシュベルク)氏によれば、同社はSRI International社内の研究からスタートした。同社は、後にApple(アップル)のSiriのもととなる技術を開発していた研究機関だ。OtoはSRIの研究に基づいて語調のデータを作成し、カスタマーサービスに電話をかけてきた顧客の感情への対処を向上させようとしている。この分野のAIを活用して、カスタマーサービス担当者と顧客との間のやり取りをリアルタイムで改善することが目標だ。

Otoは研究の一環として、セールスに関する200万圏件の会話から3000人の話者の10万とおりの発言を抜き出してデータベース化した。同社はこのデータから、カスタマーサービス業務で語調を自動で理解するツールをいくつか構築した。

ツールの1つは、ライブコーチングだ。マネージャーがすべての通話をモニタリングすることは難しく、モニタリングできるのはごく一部だ。Otoのツールを使うと、カスタマーサービス担当者はすべての通話のコーチングをリアルタイムで受けることができ、担当者の活力を高めたり、問題をエスカレートさせることなくイライラしている顧客を落ち着かせたりすることができる。「リアルタイムで電話担当者の声の響きや意欲について本人に助言し、担当者がもっと前向きになれるように働きかける」とボルシュベルク氏は説明する。

同氏は、このツールには主なメリットが3つあるという。担当者に対するエンゲージメントの向上、セールスのコンバージョンレートの上昇、顧客満足度の向上とコスト削減だ。

これとは別に、コールが終わるごとに語調からカスタマーエクスペリエンスの質を測定しスコアを算出して、担当者(とその上司)がサービスの結果を知るプロダクトもある。スコアはダッシュボードに表示される。ボルシュベルク氏は「我々は語調から満足度に関して普遍的な理解を構築し、ここから好意的、否定的、そのどちらでもない音の特徴を学習することができる」と言う。

ボルシュベルク氏は、昨年SAPに80億ドル(約8750億円)で買収されたQualtricsのように、こうした市場には巨大なチャンスがあると見ている。人々を調査することはストーリーのほんの一部だと同氏は言う。エクスペリエンスがうまくいっているかどうかの語調を理解すれば、カスタマーエクスペリエンスを向上させることができる。尺度を導入することで、うまくいっているのか、いないのかが簡単にわかる。

Otoには現在20人の従業員がいて、ニューヨーク、チューリッヒ、リスボンにオフィスがある。同社のプロダクトを使っている顧客はこれまでに7社で、まだアーリー段階にあると言える。

[原文へ]

(翻訳:Kaori Koyama)

アップルはSiriの音声録音のグレーディングのオプトインと履歴の削除をベータ化

Apple(アップル)は、Siriの音声サンプルレビューに対するオプトインの通知を、iOS 13.2のベータ版に実装した。今回のオプトイン機能は、遡ること8月に導入が約束されていたもの。Siriへのリクエストの音声が、Appleの契約社員によってレビューされていて、その音声には機密情報や個人情報が含まれている可能性があるという指摘があったことへの対策として発表していた。

それ以降Appleは、グレーディングのプロセスを完全に停止していたが、その間、音声クリップを利用して「Siriを改善する」プロセスを見直していた。

今後のグレーディングは、明示的にオプトインしたユーザーだけが対象となる。そうしたいと望んだユーザーは、コマンドの音声クリップをAppleに送信して、Siriがコマンドをよりよく理解できるように改善するプロセスに協力できる。

この機能を含むアップデートは、iPadOS 13.2、iOS 13.2、Apple tvOS 13.2、WatchOS 6.1、およびMacOS 10.15.1の各ベータ版に組み込まれている。

新しいポリシーの詳細は以下の通り。

  • 明示的なオプトインが必要
  • Appleの正社員だけが音声クリップをレビューする。契約社員は関わらない
  • コンピューターが音声を文字化したテキストは、引き続きすべてのSiriユーザーについて使用される。文字情報だけで音声は含まれない。個人を識別可能な情報とは分離され、代わりにランダムな識別子が使用される
  • Appleによれば、これらのテキストは、Siriに対するリクエストの小さなサブセットを含んでいる。これについては正社員だけでなく契約社員によってレビューされることもある
  • すべてのユーザーは、いつれも音声レビューからオプトアウトすることができる。方法は、「設定」→「プライバシー」→「Analytics and Improvement(分析と改善)」で、「Improve Siri and Dictation(Siriと音声入力の改善)」をオフにする

またAppleは、新たにSiriと音声入力の履歴を削除する機能も導入した。ユーザーは、「設定」→「Siriと検索」に設けられた「Siri History(Siriの履歴)」を開いて、Siriへのリクエストに関してAppleが保存しているすべてのデータを削除できる。実際にリクエストしてから24時間以内に履歴を削除するれば、音声はもちろん、テキスト化されたデータも、グレーディングに使われることはなくなる。

この新しいポリシーは、iOS 13.2ベータ版の「設定」→「プライバシー」→「Analytics and Improvement(分析と改善)」の「About Siri(Siriについて)」で読むことができる。その中には、Siriのデータを扱いについて、以下のような重要な記述が含まれている。

ユーザーとSiri、または音声入力とのやりとりの1つがレビュー用に選択された場合、そのリクエストと、それに対するSirの応答が分析され、的確さが判定されます。その結果は、Siri、音声入力、およびAppleの製品やサービスで使われる自然言語処理機能を、全般的に改善するために用いられます。ユーザーのリクエストのコンテキストに応じて、リクエストに直接関連するSiriデータをAppleの社員がレビューし、Siriの応答の有効性を評価することがあります。厳格な守秘義務の対象となるAppleの正社員のみが、Siriや音声入力の音声データにアクセスできます。

Siriに関するデータの保護と、ユーザーの懸念への対応については、このように堅実なアップデートが施されたと言えるだろう。ちょっと気にかかるのは、テキスト化されたデータは、引き続き契約社員によってレビューされることがあるという点だ。しかし、それはあくまでテキストであり、匿名化され、録音に含まれる周囲の音も排除されている。その点は、批判的な人を納得させる材料になるかもしれない。

こうした対応は、このプロセスを、ユーザーにとって透明なものにするために必要な合理的ステップだった。そして、自分の音声がレビューされても構わないという人には、明示的にオプトインしてもらう手段も用意した。

私が考える次の合理的なアップデートは、AppleがSiriへのリクエストからキャプチャしたテキストと音声を、ユーザーが見たり聞いたりできるようにすること。例えば、Appleの正社員や契約社員がレビューするのと同じ、最新の100件のリクエストのテキストを読んだり、音声クリップを聞くことができるようにすれば、このプロセスに対して人々が抱く不安を解消するのに、大いに役立つのではないかと思う。

これは、Appleが明言した、自らの製品におけるユーザーのプライバシーに関する透明性のポリシーに合致する動きだろう。自分の個人データについて、たとえそれが匿名化されていたとしても、他の人間が見ているのと同じものを見ることができるようになるのは、フェアというものだろう。

原文へ

(翻訳:Fumihiko Shibata)

SpotifyがApple TVに、iOS 13ではSiriもサポート

米国時間10月7日、音楽ストリーミングの大手であるSpotifyのサービスがついにApple TVで使えるようになった。またiOS 13に対応した最新のSpotifyアプリがSiriをサポートしたことも発表された。 音楽を聞くときにSiriの音声コマンドが使える。「Hey Siri, play」の後に楽曲名を付け加え、最後に「on Spotify」と付け加えればいい。

Siriのサポートがテストされていることは今年に入って発見されていたが、一般向けにサポートされる日時についての正式な発表はなかった。

Spotifyによれば、AirPods、CarPlay、HomePodでもSiriはサポートされているという。また最新のSpotifyアプリは、データ帯域幅が問題になる場合に役立つ、iOSのデータセーバーモードにも対応する。

アプリのアップデートは順次行われているのでApple TVでSpotifyが使えるようになるまでいま少し待つ必要があるユーザーもいるかもしれない。

これまでSpotifyでSiriがサポートされていなかったのもSpotifyの責任ではなかった。Siriを使ってアプリに音声コントロール能力を与えるAppleのSiriKititフレームワークがiOS 13でやっとサードパーティに公開されたのだ。これでSpotifyなどの音楽サービスはオーディオ再生や、曲のスキップや移動、トラック情報の取得などの機能を音声で操作できるようになった。

iOS 13になって、まずPandora、Googleマップ、WazeなどがSiriのインテグレーションを行った。 つまり日頃Appleのライバルである企業もSiriのサポートができるようになれば即座に飛びつくということが証明されたわけだ。

もちろんSiriの音声コマンドが使えるのは一般ユーザーにとって便利だし、結局アプリの運営者のビジネスにもメリットがあることになる。SpotifyはこれまでAppleの行動を反トラスト法に違反する疑いのある競争制限的なものとして対立していたが、こうした事情がその主張を軟化させたようだ。

長らくSpotifyはAppleのアプリプラットフォームは反競争的であり、自社アプリやApple Musicのような自社サービスを不当に優先するビジネス慣行を継続させてきたと非難してきた。そうした不満の最たるものがAppleがSiriに自社のアプリ、サービスを優先させていることだった。またApp StoreにおけるAppleの取り分が30%であることもSpotifyの成長を妨げる要因だとしていた。

この3月にSpotifyはEUに対しAppleに対して反トラスト的ビジネス慣行の申立を行っていた。また米議会もAppleに関する反トラスト法調査に関連して情報を提供するようSpotifyに接触しているとReuters(ロイター)が報道している。

iOS 13でSirikitがサードパーティに公開され、Siriが使えるようになってもSpotifyは「これでは十分でない」という立場を維持するだろう。たとえばユーザーがSiriにSpotifyを操作させるためにはいちいち「on Spotify」と付け加える必要がある。ユーザーがいつもSpotifyで音楽を聞いているなら、このサービスを音楽再生のデフォルトに設定できる機能があれば大いに手間が省けるわけだ。またSiriのサポートが行われたのはすべてのiOSではなくiOS 13のデバイスのみだ。

Spotifyは本日、Google Nest Home Max、Sonos Move、Sonos One SL、Samsung Galaxy
Foldに加えて、スマートウオッチではMichael Kors(マイケル・コース)のAccessシリーズ、Wear OSを搭載したDiesel(ディーゼル)やEmporio Armani(エンポリオ・アルマーニ)のサポートも発表している。

原文へ

(翻訳:滑川海彦@Facebook

【先週の話題】アップルが珍しく謝罪、任天堂が自らのイノベーションを再発明


先週のTechCrunchから大きな話題をピックアップして紹介する。

ビッグニュース

Siri、Alexa、Google Assistant、Facebook Mなどはただのデジタルアシスタントではなく、シリコンバレーのAIワークフローの入り口だと暴露する報道が相次いだ。ちなみに「AIワークフロー」とは、ユーザーの質問の意味を理解するために、多くの外部契約者が人力作業を行っているという意味だ。

今週Apple(アップル)は、ユーザーがSiriにリクエストする音声情報の扱い方を全面的に変更し、ユーザーは自分のプライバシーがどう扱われているかを正確にわかるようにする、と発表した。

その大きな変化とは、Siriの録音データをチェックする「グレーディング」と呼ばれる処理にサードパーティー作業者が関与しなくなること、および、ユーザーが明示的にオプトインするプロセスができることだ。Appleは明確に謝罪したが、これはMacBookのキーボードが今も問題ないと思っている会社にとってはかなり異例だ。

こうした状況はいくつかの理由で非常に重要だ。第一に、Appleが消費者のプライバシーを重視する態度を明確に示したことで、他のIT巨人らも追随する可能性がある。第二に、Appleの消費者向けデジタルアシスタントは最低水準にあり、Siriは明らかにAlexaやGoogle Assistantより劣っているので、今回の変化で受けるダメージは大きく、自社技術を改善するためのデータが減ることを意味している。

一連の失敗は、特別ひどいものではなく、扱っていたのは名目上ユーザーにつながりのないデータではあるが、オーディオデータの扱いをもう少し慎重ですべきだったことは間違いない。The Guardianなどの報道が、業界のこうした「一般的」慣行を暴露したことが良い変化をもたらしたと思われる。
関連記事:アップルはSiriの音声クリップのレビュー方法を抜本的に見直しへ

Nintendo Switch Lite

今週のトレンド

大きな会社の大きなニュースをいくつか紹介する。リンク先に詳しい記事がある。

[原文へ]

(翻訳:Nob Takahashi / facebook

アップルはSiriの音声クリップのレビュー方法を抜本的に見直しへ

Apple(アップル)について重要なニュースが入ってきた。同社のすべてのデバイスについて、Siriの音声レビュー、いわゆる「グレーディング」といわれる作業を見直すというもの。まず、ユーザーが明示的に選択しなければ、音声レビューを実行しないようにする。これは、今後のソフトウェアアップデートで対応予定だ。現在、そして将来のすべてのSiriのユーザーに適用される。

次に、ユーザーがレビューを許可した場合も、契約社員ではなくAppleの社員が自ら音声クリップを扱うようにする。これにより、プライベートなデータの処理を会社として中核的なプロセスに位置付けることになる。

Appleは、Siriのプライバシーの詳細の一部について、概要を説明するブログ記事を掲載した。これは、以前にもセキュリティに関するホワイトペーパーで説明していた内容だが、必ずしも一般に知られているわけではなかった。

Appleはこの問題について謝罪している。

「見直しの結果、私たちが掲げる高い理想に完全には到達していないことに気付きました。その点についてはお詫びします。以前にお知らせしたように、Siriのグレーディングプログラムは現在停止中です。ソフトウェアアップデートがユーザーにリリースされたとき、この秋の終盤には再開する予定でいます。それは以下に挙げる変更を加えた後ということになります」。

そして、Siriのグレーディング作業に加えられようとしている3つの変更の概要を説明している。

  • デフォルトでは、Siriとのやり取りの音声記録は保存しないようにします。引き続き、コンピューターによって文字情報に変換されたものを使って、Siriの改善に努めます。
  • ユーザーが明示的に選択すれば、ユーザーがSiriにリクエストした音声サンプルから学習することにより、Siriの改善にご協力いただくことができます。Appleがユーザーのデータを尊重し、強力なプライバシー管理を実施していることをご理解いただいて、多くの方々がSiriの改善にご助力いただけることを願っています。参加を選択していただいた方は、いつでもキャンセルすることが可能です。
  • ユーザーが参加を選択した場合には、Appleの社員のみが、Siriとのやりとりの音声サンプルを聞くことができるようにします。私たちのチームは、意図せずにSiriが起動してしまったと判断される場合には、その録音は削除することにします。

Appleは、まだこれらの変更を実施していない。また、停止したSiriのグレーディング作業も再開していない。それらは、OSのソフトウェアアップデートによって、ユーザーが自分の意思でプログラムに参加できるようになるのを待たなければならない。OSを新しいバージョンに更新すると、ユーザーがSiriに対してリクエストした内容を検証するための音声記録を使ったグレーディングのプロセスを有効にする設定が可能となる。これは事実上、アップデートが公開されてインストールされると、Siriのすべてのユーザーは、いったんこのプロセスから除外されることを意味する。

Appleによれば、今後もコンピューターによって文字情報に変換され、匿名化されたユーザーのリクエストを、データとして機械学習エンジンに入力するという。これは、他社の音声アシスタントでも同様だ。こうした文字情報も、おそらくAppleの社員によってレビューされることになる。

Amazon(アマゾン)とGoogle(グーグル)も、アシスタント機能の音声記録を人間によってレビューしていることが、すでに露見していて、やはりユーザーの同意を求めるという方策を取り始めている。

Appleは、グレーディングのプロセス自体にも変更を加えようとしている。たとえば、「ホームアプリで設定したデバイスと部屋の名前は、評価されるリクエストに家屋内のデバイスのコントロールが含まれる場合にのみ、レビュー担当者からアクセスできるようにします」としている。

8月初旬にThe Guardianに掲載された記事は、Siriの音声サンプルが、Appleが雇った契約社員に渡されていたことを明らかにした。そこでは、Siriの応答の品質や、機械学習エンジン用に生成した文字情報が評価されていたという。このような作業形態は前例のないものではないが、あまり明確に公にはなっていなかった。Appleはプライバシーポリシーの中で、そうした作業には人間が関わっていることを明らかにすべきだったのだ。さらに、サンプルの評価を、Appleの社員ではなく、契約社員に任せていたという問題もある。ある契約社員は、音声記録には秘密にすべき情報やプライバシーに関わるものが含まれていたと告白している。また場合によっては、ユーザーを特定できそうなものもあったという。Appleによる匿名化処理を施しているにもかかわらずだ。

それを受けてAppleは、そのプロセスを見直すため、世界中でグレーディング作業を停止したのだ。今回のブログ記事と、そこで述べているプロセスの改善案は、その見直しの結果として出てきたもの。

Appleによれば、そもそも音声サンプルのレビューを受けたSiriへのリクエストは、全体の0.2%程度に過ぎないという。しかし、Siriは毎月150億ものリクエストを処理している。統計的に見れば小さな数字だとしても、簡単な計算をしてみれば、それが実際にはかなりの数になることが分かるはずだ。

Appleが契約社員による作業を止めたことは、Alex Hearn(アレックス・ハーン)氏が報告しているように、ヨーロッパで大量の解雇があったことから推察できる。

Appleは、Siriのプライバシー管理が、こうしたグレーディングのプロセスにどのように適用されるのかについて、FAQを公開している。ここで、すべてを読むことができる。

Appleのブログ記事とFAQは、Appleがグレーディングのプロセスをどのように扱うのか、そうしたグレーディングのプロセスにおいて、データをレビューする人に示すデータをどのように最小化するのか、そしてSiriにおいてプライバシーはどう守られるのか、といったことに関する詳細の一部を消費者に開示するものだ。

当初、AppleのSiriに関する処理は、かなりの部分を可能な限りデバイス上の処理に限定するものだった。そのため、多くの専門家は、Appleはプライバシーを重視して性能を犠牲にしていると評価していた。AmazonやGoogleのような会社のアシスタント機能は、データセンターを使った負荷の重い処理を実行しているのに対し、Appleはデバイス上の「パーソナル・クラウド」によるデータ処理にこだわっているということ。残念ながら、人間によるレビュープロセスの透明性を欠いたこと、そして契約社員を使ったことが、Appleが当初から取り組んできた基礎的な作業の価値を棒に振ることになってしまった。ここでAppleが、プライバシーポリシーに関して過去の業界標準にまでさかのぼって、グレーディングの改善に取り組み直すというのは、むしろよいことだろう。そうする必要があったのだ。

実のところ、他社のアシスタント機能は、どれもSiriほどプライバシーに気を使っていない。すでに述べたように、そうしていては進化の速度が妨げられてしまう、ということを言い訳にする。今回のできごとが、Appleにとって、より高い透明性を実現するきっかけになることを願うのみだ。完全に自動化されていると思われているようなプロセスにも、実は人間が関わっているという事実を明らかにするよい機会だろう。

ほとんどの人は、「AI」や「機械学習」は、コンピューターのみによって実現されていると考えている。しかし悲しいことに、そうしたプロセスのほとんどは、まだかなりの部分で人手に頼っているのが実情だ。なぜなら、AI(人工知能)などというものは、実はまだ存在せず、機械学習もクズのようなものばかりだからだ。そうしたものが賢く見えるようになるまでには、この先まだだいぶ長いこと人間が関わっていく必要がありそうだ。

原文へ

(翻訳:Fumihiko Shibata)

GDPR発効後初となる中止命令を受けたグーグルの音声AIレビュー

ドイツのプライバシー監視機関は、音声AIによって録音されたオーディオクリップの人間によるレビューを停止するよう、Google(グーグル)に命じた。

これは先月、Googleアシスタントサービスから、かなりの数のオーディオクリップがリークしたことを受けたもの。オランダ語の評価を担当する契約社員が、1000点以上の録音をベルギーのニュースサイト、VRTに提供した。VRTではそこから何人かの個人を特定することができた。ユーザーの住所、病状に関する会話、打ちひしがれている女性の肉声、などを聞くことができたと報告している。

ハンブルグのDPA(データ保護当局)は、GDPR(一般データ保護規則)の第66条に基づく権限を行使し、同条項が定める「緊急手続き」を開始すると、先月グーグルに通達した。

第66条は、「データの対象者の権利と自由を保護するために行動を起こす緊急の必要性」があると確信できる場合には、DPAがデータの処理を停止するよう命令することを認めている。

昨年5月にGDPRが欧州圏全域で発効されて以来、この事例が同権限の最初の適用例と考えられる。

Googleによれば、7月26日にDPAに回答し、すでにヨーロッパ全域で、Googleアシスタントの人間による音声レビューを停止することを決定したという。データのリークが判明した後、7月10日には対応したとのことだ。

また先月には、ヨーロッパにおける主幹プライバシー規制機関であるアイルランドのデータ保護委員会(DPC)に、その違反について報告した。DPCは、ハンブルグのDPAによる命令によって明らかになった問題を現在「調査中」であるとしている。

アイルランドDPCの広報責任者、Graham Doyle(グラハム・ドイル)氏は、Googleアイルランドが「2、3週間前」に、Googleアシスタントのデータに関して第33条に違反していたという告知を提出したと述べた。「われわれの認識では、7月10日に、Googleアイルランドは、問題となっている処理を中止し、本日(8月1日)を起点として、少なくとも3ヶ月間は、処理の停止状態を維持すると約束しました。それはともかくとして、われわれは現在その問題について調査中です」と付け加えた。

Googleが、ヨーロッパで、現地のプライバシールールに準拠した方法で、人間による音声レビューを再開できるかどうかは不透明だ。ハンブルグのDPAは、GoogleアシスタントがEUのデータ保護法を遵守しているかどうか、「重大な疑念」を抱いていると、ウェブサイトに掲載した声明(ドイツ語)で述べている。

「ハンブルグのデータ保護当局とは連絡を取り合っています。音声レビューをどのように実施すればよいのか、データがどのように使われているかをユーザーに理解してもらうにはどうすればよいのか、検討中です」と、Googleの広報担当者は私たちに明かした。

リークが明らかになった後、先月掲載されたブログ記事の中で、Googleの検索担当のプロダクトマネージャー、David Monsees(デビッド・モンシーズ)氏は、Googleアシスタントのクエリの人間によるレビューは、「音声認識技術を開発するプロセスの中で非常に重要な要素」であると断言している。そうした製品の開発には「不可欠」だとも表現している。

「そうしたレビューは、音声認識システムが、さまざまな言語において、異なったアクセントや方言に対応できるようにするのに役立ちます。レビューの過程で、オーディオクリップをユーザーアカウントに関連付けるようなことはしていません。そしてレビューを実施するのは、すべてのクリップの0.2%程度に過ぎません」と、Googleの広報担当者は説明している。

しかし、現在市場に出回っている無数の常に稼働している音声AI製品、サービスによって録音された音声の人間によるレビューが、ヨーロッパ人の基本的なプライバシーに関する権利と両立できるものなのか、かなり疑わしい。

通常こうしたAIでは、録音を開始してクラウドに送信するためのトリガーとなる単語が決められている。しかし、現在の技術では、何かのはずみでトリガーがかかってしまうことも避けられない。そして、今回のリークによって明らかになったように、そうした機器の所有者だけでなく、その周囲にいる人も含めて、秘密の、あるいは私的な個人データが収集されてしまうことになる。しかも、機器の至近距離にまで近付かなくても、音声は記録されてしまう。

ハンブルグのDPAのウェブサイトには、Googleに対して行使された法的手続きは、ただちに影響を受ける可能性のあるユーザーのプライバシー権を保護することを目的としたものだ、と記されている。またGDPRは、EU加盟国の関係する当局に対して、最大3ヶ月間の効力を持つ命令の発効を許可していることも書いてある。

ハンブルグのデータ保護担当のコミッショナー、Johannes Caspar(ヨハネス・キャスパー)氏は、次のように述べている。「EUにおける言語アシスタントシステムの使用は、GDPRのデータ保護要件に準拠している必要があります。Googleアシスタントの場合、現状ではかなりの疑いがあります。言語によるアシスタントシステムの使用は、ユーザーに対するインフォームドコンセントが可能なよう、透明性の高い方法で実行されなければなりません。特に、ユーザーに十分な情報を提供し、音声コマンドの処理に関する懸念についても、はっきりと通知しなければならないのです。さらに、音声AIが誤動作によって起動してしまう頻度と、それによるリスクも説明する必要があります。最後に、録音の影響を受ける第三者を保護する必要性についても、十分に考慮しなければなりません。まず何より、音声分析システムの機能に関する、いろいろな疑問について明確にする必要があります。そうしてから、データ保護当局は、プライバシーを尊重した運用のために必要な、確固たる方策を決定する必要があるでしょう」。

またハンブルグのDPAは、他の地域のプライバシー監視機関に、言語によるアシスタントシステムを提供する他のプロバイダーに対するチェックも、優先的に実施すること、そして「適切な手段を実行に移す」ことを呼びかけている。そこに挙げらている音声APIのプロバイダーとは、Apple(アップル)とAmazon(アマゾン)だ。

今回、第66条による命令が下ったという事実は、ヨーロッパで音声AIを運営している他の大手IT企業にも、広く影響が及ぶ可能性があることを示唆している。

GDPRが繰り出した法的執行がもたらす本当の衝撃は、ニュースの見出しになるような罰金にあるのではない。もっとも、それはGoogleの世界規模の年間売上の4%に相当する金額にまで膨れ上がる可能性がある。しかし、それより重要なのは、ヨーロッパのDPAが、データの流れを止めさせるほどの力を持った命令を発行するという規制手段を手に入れたことなのだ。

「これはほんの始まりに過ぎません」と、ヨーロッパのデータ保護法に詳しい専門家が、匿名を条件に私たちに述べた。「第66条には、いろいろな引き出しがあり、いつでも開くことができるのです」。

音声AIのプライバシー問題が、だんだん深刻化してくる可能性を示すものかもしれないが、Appleも米国時間の8月2日、Siriの音声アシスタント機能のための人間による同様のレビュー、「品質管理プログラム」を一時停止中であると明らかにした。

この動きは、規制当局の指示によるものではなさそうだ。これは先週のGuardianの記事が、Appleの請負業者による内部告発を詳細に報じたことを受けたもの。それによると、その業者は「日常的に機密性の高い詳細な」Siriの録音を聞いていたという。たとえば、セックスをしている音、身元の特定につながる財務情報の詳細、などが含まれていた。Appleでは、録音を匿名化するプロセスを経たものだとしていたにもかかわらずだ。

AppleのSiriの録音の人間によるレビューの停止は、全世界規模のものとなっている。

画像クレジット:TechCrunch

原文へ

(翻訳:Fumihiko Shibata)

アップルはプライバシー上の懸念に応えてSiriの応答評価を停止中

先週、Guardian誌の記事が提起した懸念に応えるかたちで、Apple(アップル)は世界中で、Siriの品質管理のプログラムを停止している。その記事は、Siri(シリ)への質問を録音したものが、品質管理のために他所で使われていることを報じたもの。Appleによれば、同社が見直そうとしているのはグレーディング(格付け)と呼ばれるプロセスで、Siriが質問を正しく受け付けたのか、あるいは誤動作によって起動してしまったのかを調べるものだという。

それに加えて同社は、今後ユーザー自身が、Siriのグレーディングのプロセスに参加するかどうかを選択できるよう、iOSのアップデートを実施するつもりだという。

Alex Hern(アレックス。ハーン)氏によるGuardianの記事は、Appleと契約して、グレーディングと呼ぶSiriの品質管理のプロセスの一部を請け負う業者の話を大々的に引用したもの。このプロセスでは、個人の名前やIDとの関連を除外した音声データの断片が契約業者に渡される。業者は、それを耳で聴いて、Siriが正しく音声を認識したか、あるいは誤って起動してしまったのかを判断する。

「私たちは素晴らしいSiriのエクスペリエンスを提供することに尽力しています。もちろんユーザーのプライバシーは保護したうえで」と、AppleはTechCrunch宛てに表明している。「このプロセスを徹底的に見直していますが、その間はSiriのグレーディングを世界的に停止しています。さらに、将来のソフトウェアアップデートには、ユーザーがグレーディングに参加するかどうかを選べるようにする機能を組み込む予定です」。

契約業者によると、Appleは録音を匿名化するプロセスを踏んでいるはずなのに、録音データには、個人情報、セックスに勤しんでいる音、識別が可能な財務情報の詳細などが含まれていることもあるという。

Siriの動作を向上させるために、そうした生の録音データを業者に渡して評価することを、ユーザーはどの程度認識しているのか、業者自身が疑問に思っているという。今回の問題が明らかになってから、私は自分でAppleのサービス利用規約をよく読んでみた。確かに、Siriの品質管理や、データの共有についての記述はある。しかし、実際の録音データが、いくら短いものだとしても、評価プロセスの中で利用され、しかも第三者に送信されて聴取される可能性があるということを、はっきりとわかりやすく説明できてはいないことがわかった。

Appleが示した数字によれば、グレーディングのためにピックアップされている質問の量は、日常的にSiriが受け取っている質問の1%にも満たないという。

実を言うと、数秒間の録音データを取得・送信して評価することは、それを社内でやるか外部の業者に委託するかは別として、この業界では標準的に行われていることだ。AmazonやGoogleの音声アシスタント機能が録音したリクエストの音声も、人間の耳で評価されている。

録音データが、このような目的のために利用されることを、はっきりとユーザーに了解してもらうことは、こうしたビジネスにとって、もはや不可欠だ。Appleが、それを表明したことは朗報と言える。

そのようにユーザーの意思を確認することは、すでにAppleも他の種類のデータを扱う際には行っている。例えば、デベロッパーがソフトウェアのバグを修正したりする際に役立つ、アプリのパフォーマンスデータがそうだ。現状でも、iPhoneをセットアップする際には、パフォーマンスに関するデータをAppleに送信することを許可するかどうか、必ず設定しているはずだ。

Appleは、自らを大手IT企業の中で最もプライバシーを重視する会社として位置付けるため、長年にわたって取り組んできた。そのため、道徳規範という話になるとかえって重い負担を背負うことになる。ユーザーのデータを、品質管理やサービス向上のために利用するような場合には、他の大手企業となるべく同じように行動するというだけでは、Appleにとって不十分なのだ。それだけでは、プライバシーを重視する会社というスタンスと、それによって培ってきたこの市場における優位性を維持することは難しいのだから。

原文へ

(翻訳:Fumihiko Shibata)

Siriの録音が定期的に契約企業に送られて分析されていた

内部告発者が持ち込んだその情報をThe Guradian紙に対して確認したApple(アップル)は、ユーザーの音声の録音を秘密裏に契約企業と共有していることにより、GoogleやAmazonなどのいかがわしい企業の仲間入りをしてしまった。その人物は、Siriのクエリは常時人間リスナーたちに送られ精査されていると告げた。そのことは、Appleのプライバシーポリシーに明記されていない。

それらの録音からAppleのIDはわからないそうだが、数秒間の中に個人的な内容が含まれていることもあり、誰であるかがバレてしまうこともある。たとえば位置情報やアプリのデータ、知人の詳細情報などだ。

ほかの企業と同じようにAppleも、このデータはサービスを改善するために収集し人間が分析していると言う。そして分析はすべて、安全な施設で守秘義務を負った者が行っていると表明している。そしてほかの企業と同じようにAppleも、それをやってることを開示を強制されるまでは言わなかった。

AppleはThe Guardianに、毎日のクエリの1%未満が送られていることを明らかにした。Appleはこれまで、Siriのクエリの量が多いことを常に自慢してきたから、1%という数字は慰めにならない。何億台ものデバイスがその機能を頻繁に利用しており、控えめに見積もってもその1%未満はたちまち数十万には達するだろう。

SiriのリクエストのAppleの言う「小部分」は、ランダムに選ばれているようだ。内部告発者が言うには「医師と患者の会話やビジネスの取り引き、犯罪臭のある取り引き、性的な関係などなど、プライベートな会話の数え切れないほど多くの断片が含まれている」そうだ。

リスナーは、Siriの起動が意図的でなく偶然だった場合を聴き分けるよう訓練されている。しかしそういう偶然の音声にも、IDは分からないけれども長くて大量の個人情報が含まれていることがある。

関連記事:Google is investigating the source of voice data leak, plans to update its privacy policies(Googleが音声データのリークを調査中、未訳)

つい先日も、Googleがクリップを分析していたことが明らかになった。そしてAlexaのクエリを録音しているAmazonは、そのオーディオを無期限に保存している

Appleのプライバシーポリシーは、Siriのクエリのような非属人情報についてこう述べている:

検索のクエリも含め、私たちのサービスに対するあなたの使い方の詳細を集めて保存することがあります。この情報は、私たちのサービスが提供する結果の適切性を改善するために利用することがあります。インターネット上の私たちのサービスの品質を確かなものにするための、ごく限られた場合以外には、そのような情報にはあなたのIPアドレスが付随しません。

上で「検索のクエリ」と言っているのは、おそらくクエリの録音も含むのだろう。そして上では、一部のデータをサードパーティと共有する、と言っている。しかし、「あなたがあなたのスマートフォンに尋ねる質問が録音されて第三者と共有されることもある」とは上のどこにも書いてない。ユーザーがそれをオプトアウトする方法も、明記されていない。

Appleはプライバシーと透明性の重視を常に力説しているから、これは重大かつ明らかに意図的な手抜きだろう。今Appleに問い合わせているので、情報が得られ次第この記事をアップデートしよう。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AirPodsとHomePodにも新機能が登場

WWDCで、アップルのオーディオハードウェアは大注目を浴びたというわけではなかったが、まったく何もなかったわけでもない。HomePodとAirPodsの新機能をお伝えしよう。

  • AirPodsを使っているとき、iPhoneにiMessageが届くとSiriが読み上げ、すぐに返信することもできる。「Hey Siri」とわざわざ言う必要がなくなる。
  • あるiPhoneで聴いている曲を別のiPhoneにすぐ共有できる機能が紹介された。
  • HandoffがHomePodにも対応する。物理的な移動に伴う方法だ。外から部屋に入り、iPhoneで聴いている音楽の続きをHomePodで聴きたいとする。このようなとき、iPhoneをHomePodに近づければオーディオが転送される。HomePodからiPhoneも同様だ。
  • お待ちかねのアップデートが、HomePodのマルチユーザー対応。自分専用にカスタマイズされた音楽を聴くことができる。iMessage、リマインダー、メモなども自分の情報を利用できる。
  • SiriでiHeartRadio、TuneIn、Radio.comなどのラジオ局を聴けるようになる。


[原文へ]

(翻訳:Kaori Koyama)

WWDCでiOS 13の詳細判明、ダークモード、プライバシー強化などアップデート多数

先ほど開幕したWWDC19でApple(アップル)は、iOS 13のプレビューを紹介した。製品版はこの秋に一般公開される。

ダークモード始め、大小さまざまなアップデートが発表された。ソフトウェアエンジニアリング担当副社長のクレイグ・フェデリギ氏は「iOS 13には多数の新しい機能が追加され、非常に大規模なアップデートになる」と述べた。

フェデリギ氏はこれに続いて、パフォーマンスの改善の詳細を説明した。Face IDは30%速くなる。App Storeからの新規ダウンロードはサイズが小さくなる。しかもiPhoneはアップデートのたびに全体をダウンロードするのではなく、必要な部分だけ取得するので、サイズは平均60%も小さくなるという。アプリのローンチまでの時間は半分に短縮されるなどなど。

ダークモードとシステムレベルの改善

すでの多数のアプリがダークモードを採用している。しかし今回アップルは、iOS 13ではダークモードがシステムレベルで実装されることを明かした。コントロールセンターからワンタッチでUIをダークモードに設定できる。音楽、カレンダー、メッセージなどネイティブアプリはすでにダークモードをサポートするようアップデートされている。

通知、ウィジェットの外観が変わり、全体として暗めのデザインになった。アプリを開くと背景は純粋黒になる。OLEDモニターはまったく光を発しないようにできるので黒がすっきり締まって見える。

ネイティブキーボードは、キーからキーへスワイプして入力できるようになった。共有をコントロールするシェアシートのデザインがアップデートされ、ユーザーの活動履歴をベースに最適と思われる連絡相手がシェアの候補に表示される。音楽アプリではスクロールして歌詞を表示できるようになった。

純正アプリのアップデート

アップル自身が提供するアプリについてだが、Safariにはウェブサイトごとにテキストサイズを設定できるオプションが加わった。メールもリッチテキストが利用できる。メモ(Notes)にはギャラリー表示とフォルダーが加わった。

リマインダーもまったく新しいデザインになった。タスクを追加するためのクイックタイプバーが新設された。タスクをネストさせて下位のタスクをインデントできる。連絡相手をタグ付けすると、iMessageで通知が行く。

アップルのメグ・フロスト氏は、新しいマップをデモした。地図データが改良されたのはもちろんだが、アップルの地図にGoogleのストリートビューに似たLook Aroundという機能が追加された。同機能による地点間の移動は驚くほどスムーズだ。

このほか、マップには友だちとの待ち合わせの予定到着時間(ETA)を表示する、お気に入りの場所を記録する、リストを友だちと共有するなどの機能も追加された。

米国については、年末までにアップル独自の地図データが利用できるようになるという。他の国では来年以降になる。

プライバシー強化

アップルは位置情報の取扱を厳格化するアップデートを行う。ユーザーはワンタッチでロケーション情報の共有設定ができるようになる。

これによりサードパーティーのデベロッパーはユーザーが利用しているWi-FiやBluetoothについての情報を得られるなる。こうした情報からユーザーの位置がリークされるというスキャンダルの防止に役立つはずだ。

アップルはまた「Facebookでログイン」に対抗して「アップルでログイン」というという機能を追加する。ユーザーは個人情報を明かす心配なしに新しいアカウントを作成できる。またアカウントがメールアドレスを必要とする場合、ランダムな文字列によるアドレスを生成し、アカウントへのメールを受信することができる。メールは本当のアドレスに自動的に転送される。

スマートホーム関係ではHomeKitのプライバシーも強化された。セキュリティカメラの映像10日ぶんをiCloudのHomeKit Secure
Videoに保存できるようになった。再生するためのキーはアップル自身ももっていない。またセキュリティカメラのデータはiCoudの容量にカウントされない。Logitech、Netatmo他の有力メーカーは今後、新しいHomeKitをサポートするという。

HomeKitデバイスのセキュリティをさらに強化するため、アップルはHomeKitにルーターを経由させる機能を加えた。これを利用すればHomeKitデバイスはファイアウォールで切り離され、インターネットに直接アクセスできなくなる。

iMessageがさらにパーソナルに

iMessageにはどうしても強化版のSMSというイメージがつきまとっていた。iOS 13ではもっとWhatsApp的になる。ユーザーはプロフィール画像を登録し、選択した連絡相手に表示できるようになる。

アップルはこの機会に、人の顔のアニ文字、ミー文字のカスタマイズ機能も強化した。ミー文字をオリジナル絵文字のビット文字やスタンプに利用することもできるようになる。

写真

写真まわりではアップルはポートレートに新しい照明効果を追加した。ポートレートモードでの撮影がプロフェッショナルなレベルまでカスタマイズできるようになる。

カメラアプリにはサチュレーション、ハイライト、シャドウなどをコントロールするボタンが追加された。これらの機能は静止画だけでなく動画でも利用できる。ビデオが回転できるのはInstagramのユーザーには朗報だ。

写真ライブラリの管理では、iOSは同一写真を自動的に検出し、最もよく撮れている写真を選んでくれる。写真ライブラリをナビゲートするための新しいタブも追加された。写真のブラウズはよりスムーズになり、ビデオは周囲が暗く表示される。新しいタブバーで年、月、日ごとにハイライトを見ることができる。

Siriもさらに賢くなった

AppleはSiriの音声機能を強化した。例えば、AirPodsを装着しているときにメッセージを受信するとSiriはそれを読み上げる。ユーザーは音声で返信ができる。

iPhoneとAirPodsを持っている友だちと音楽を共有することもできる。具体的には、1台のiOSデバイスから2台のAirPodsに音楽をストリーミングできる。

スマートスピーカーのHomePodに関してはiPhoneをタップしてHomePodに音楽を送れるようになった。またインターネットラジオをライブで再生できるようになったというのだが、これは正直、今までできなかったことを知って驚いている。また、マルチユーザーでの利用が可能になり、カレンダー、メッセージなどをユーザーごとに呼び出せるようになった。

CarPlayもアップデートされ、Siriの新機能が利用できる。ユーザーは車内で音声でPandoraの音楽やカーナビのWazeをコントロールできる。SiriにアニメがCarPlayのスクリーンを占領してしまうこともなくなった。

iOS 13ではSiriのショートカットアプリが標準でインストールされる。ユーザーは簡単な操作でSiriの音声ショートカットを設定でき、ひと言で複雑な動作を行わせることができる。またお勧めのショートカットの候補も推薦される。Siriの音声も改良され、自然さがアップした。

これ以外にもiOS 13には多数の新機能が登場する。特にiPad独自の機能が拡充され、iPadOSという独自の名称となった。詳しくはこちらの記事を参照

原文へ

(翻訳:滑川海彦@Facebook

iOSのSiriショートカットとスクリーンタイムが今秋macOSに

アップル(Apple)は、iOSの機能をさらにたくさんmacOSに載せたがっていると9to5MacのGuilherme Ramboが書いている。それはまず、Siriの改良からだ。

Siriはかなり前からmacOSにあるが、でもそれは縮小バージョンみたいだ。もちろん天気予報やNBAの結果や翻訳はできる。Wi-Fiを切ったり、ハードディスク上のファイルを見たりもできる。

でもmacOSのSiriではサードパーティのアプリを動かせない。WhatsAppでメッセージを送れない。Square Cashで送金ができないし、Uberも呼べない。

9to5Macによると、でもそれはこの秋のmacOS 10.15で変わるそうだ。しかもSiriショートカットが加わるから、少なくとも理論的には、自分の音声ショートカットでサードパーティアプリのアクションを起動できるはずだ。

macOSの既存のアプリケーションをSiriのショートカットで呼び出すのは無理だ。それは、もうすぐやってくるMarzipanフレームワークを使ってiOSにポートされたのでないとだめだ。しかし、「ショートカット」アプリを使って自作のスクリプトをビジュアルなインタフェイスで作れるらしい。ショートカットアプリはいわば、iOS用のAutomatorだ。そのAutomatorの方は、macOS 10.15でどうなるのだろう。

macOSのアップデートはSiriだけではない。アプリを使った時間がわかるiOSのスクリーンタイム機能がmacOSでも使えるようになる。これまではiPhoneやiPadのようなiOSデバイスのみだったが、macOSが加われば、あなたのコンピューター生活の全貌がわかる。

そして、Apple IDをMacからもっと容易にコントロールできるようになる。Appleのウェブサイトへ行かなくても、家族との共有などを「システム環境設定」の新しいパネルで操作できるようになる。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

アップルはSiriに航空会社や料理注文、辞書など多数のショートカットを追加

昨年のWWDCで発表した通り、アップルはSiriショートカットを速いペースで増やしている。同社は現在「数千」種類のアプリがこのiOS 12機能を統合していると言っている。その結果さまざまなタイプのサードパーティー機能がスマートアシスタントで使えるようになった。

今日から新しいショートカットが5種類使える。特に注目されるのは(どの航空会社を使っているかにもよるが)おそらくAmerican Airlinesだろう。「Hey Siri, flight update」と言うと最新の旅行計画の情報が提供される。応答内容は位置情報を使って、フライト状況、移動時間、出発ゲートなど提供すべき情報を決定する。

Caviarも新しいショートカットを出した。ユーザーは食べ物の注文状況を調べたり、「order my usual pizza」(いつものピザを注文)と言ってよく利用する品目の再注文ができる。食事がパターン化しているわれわれには理想的な機能だ。Merriam-Websterは「word of the day」(今日の単語)ショートカットを追加し、Dexcomは血糖値モニターをスマートアシスタントで可能にした。

今後数カ月の間に、アップルはAirbnb、Drop、ReSound、コーヒーメーカーのSmarterなどのショートカットを追加する。WazeとNike Run Clubはすでに最近追加されている。アップルがこの仕組みを利用してSiriの機能を強化することで、ライバルのGoogle、Amazonとの競争に備えていることは間違いない。

こうした機能追加によって音声エコシステムがますます豊かになる一方、サードパーティー開発者には多くの負担がかかっている。

[原文へ]

(翻訳:Nob Takahashi / facebook

iOS 12.2ベータの隠し画面が「ヘイSiri」に応答するAirPodsを暗示

現状のAirPodの、ちょっと奇妙な特徴は、Siriをサポートしてはいるものの、はじめにイヤホンをダブルタップしなければならないということ。iPhone、iPad、Apple Watches、HomePodとは異なり、「ヘイSiri」に続けてリクエストをしゃべればいいというわけにはいかない。

最近の噂では、「AirPods 2」と呼び習わされているAirPodの新しいバージョンは、「ヘイSiri」に応答すると囁かれている。そして、最新のiOSベータ版に隠されていた画面も、それを裏付けているようだ。

これは一般に公開されている画面ではないが、9to5macのGuilherme Ramboは、リリースされたばかりのiOS 12.2ベータで、次のようなダイアログを表示することに成功した。

(画像クレジット:9to5Mac

この画面には、「『ヘイSiri』と言って、AirPodまたはiPhoneでSiriに話しかけてください」と書いてある。

この機能が現行のAirPodに搭載されていないのは、つまるところ、バッテリー寿命の問題によるのだろう。Appleは、iPhone 6sで、バッテリー寿命に与える影響を最小限に抑えながら「ヘイSiri」を機能させる方法を見つけ出した。その詳しいしくみは、2018年4月号のMachine Learning Journalの記事に掲載されている。しかし、その同じしかけを小さなイヤフォンで実現するのは、まったく新しい挑戦だ。何しろ、バッテリー容量は片方で93ミリワットアワーしかない。これはだいたいiPhoneの1パーセントに過ぎない。第1世代の製品では、イヤフォンにダブルタップを検出させる方が簡単だった。もしAppleがその問題を解決する方法をみつけたら、新たなセールスポイントにするつもりでとっておいたのだろう。

噂では、その新しいAirPodは、防水仕様で、健康データを監視するセンサーまでも装備しているという。残念ながら、それらを暗示するような、こっそり隠されたダイアログは、まだ発見されていない。

原文へ

(翻訳:Fumihiko Shibata)

AppleはSilk Labsを買収して次世代のAIに焦点を絞る

最近の調査によると、AppleのHomePodは、ホームハブとして市場が倍増している米国内のスマートスピーカーの市場シェアで、AmazonとGoogleから大きく引き離された3位となっている。シェアは、5%にも満たない。そして、そのフラグシップのパーソナルアシスタントSiriも、理解力と精度においてGoogleに遅れをとっていると見なされてきた。しかしAppleは、さらにAIを強化し、次世代の製品の中心に据えることを目指していることがうかがえる。そしてその動きは、買収によって加速されているように見える。

The Informationによれば、Appleはサンフランシスコを拠点とするスタートアップ、Silk Labsを密かに買収したようだ。同社は、ホームハブとモバイル両用の、AIベースのパーソナルアシスタント技術を開発している。

Silkのプラットフォームには、他のアシスタント技術とは異なる、2つの注目に値する部分がある。1つは、時間の経過とともにユーザーのことを(聴覚と視覚の両方を使って)よりよく学習し、振る舞いを修正すること。もう1つは、デバイス単独で動作するように設計されていることだ。つまり、「常時オン」のスピーカーがいつもユーザーに聞き耳を立て、デバイス内で何か処理しているというプライバシー上の心配や、クラウドとネットワーク技術による制約を受けるといった懸念を払拭できる。

Appleは、まだ取材に応じていないが、少なくとも何人かのSilk Labsの従業員が既にAppleで働いているようだ(LinkedInによれば、Silk Labの9人のエンジニアリング系の社員がそれに含まれている)。

つまり、まだこれが完全な会社の買収なのか、人的な買収なのかははっきりしない。もし、新たな情報が得られれば、この記事をアップデートするつもりだ。しかしそのチームを(そしてその技術を)導入するということは、Appleがすでに市場に出回っているようなものとは異なった製品の開発に注力することに関心があり、それを必要としていることを物語っている。

Silk Labsは、Mozillaの元CTOで、結局うまくいかなかったFirefox OSの生みの親、Andreas Galと、Qualcomm出身のMichael Vinesの両氏によって、2016年2月に創立された。ちなみにVinesは、その後2018年の6月、ブロックチェーンのスタートアップ、Solanaに主席エンジニアとして転職している

Silk Labsの最初の製品は、もともとソフトウェアとハ​​ードウェアを統合したものとして計画された。そして、Kickstarterからほぼ16万5000ドルを調達して、Senseというスマートスピーカーを製造し、発売する予定だった。Senseは、接続された家庭用の機器をコントロールし、ユーザーの質問に答え、内蔵されたカメラによって室内を監視し、人間とその行動を認識して学習できることになっていた。

しかし、そのわずか4ヵ月後、Silk LabsはSenseのハードウェアを切り捨て、Silkと呼ばれるソフトウェアに集中することを発表した。それは複数のOEMから、各社のデバイス上でSilkを稼働させることはできないか、という問い合わせを受けていると、Silk Labsが表明した直後のことだった(そして同社はKickstarter以外からも、約400万ドルを調達した)。

Silkには、そうしたOEMに対して、すでに市場に出回っている数多くのデバイスから差別化するため手法を提供する潜在能力はあったのだ。GoogleやAmazonのような製品に加えて、マイクロソフトのCortanaを利用するデバイスなど、そうしたアシスタント機能を搭載したスピーカーはいくつもある。

Silk Labsがハードウェア開発を中止すると発表したとき、一部の商業的なパートナーシップに関して、いくつかの話し合いが進行中だとしていた。また同時に、IoTデバイスを使ったコミュニケーション機能を開発するために、Silkプラットフォームの基本的なバージョンをオープンソースにすることも発表された。

Silk Labsは、そうしたパートナーの名前は明かさなかったが、会社を買収して廃業してしまうことが、技術を1社で独占するための1つの方法であったことは確かだ。

Silk Labsが構築してきたものを、これからAppleの製品、特に同社のスマートスピーカー、HomePodと結合することは魅惑的だ。

具体的に言えば、ユーザーについて学び、インターネットがダウンしていても機能し、ユーザーのプライバシーを保護する。そして特に重要なのは、常時接続された生活において、他のすべてのものを操作するための要となる、より賢いエンジンを提供できることだ。

それは、現在の市場リーダーから、はっきりと差別化できる機能セットを実現するために、おあつらえ向きだろう。特に、最近ますます重要視されるようになったプライバシーを考慮すればなおさらだ。

しかし、現在Appleが取り組んでいるハードウェアやサービスの領域を考慮すると、Silkチームと、その知的財産が、より広範囲のインパクトを持っている可能性を見ることができる。

Appleは、AIに関しては迷走してきた。2011年に音声アシスタントSiriをiPhone 4Sに初めて導入した際は、まだ他に先んじていた。それから長い間、数少ないえり抜きのテクノロジー企業がAIの有能な人材を独占していると人々が嘆くとき、常にAmazonとGoogle(Microsoftはそうでもないが)が引き合いに出された。そうした企業は、他の会社が製品を開発することを検討したり、より大きな規模での開発に関わろうとする余地を、ほとんど残していないというのだ。

さらに最近では、Alexaを搭載した数種類のデバイスを擁するAmazonや、Googleのような会社は、AI技術をコアとし、さらにメインのユーザーインターフェイスとしても採用したコンシューマー向け製品において、完全に他を出し抜いたようだ。Siriは、と言えば、うっかりTouch Barに触れたり、古いモデルのiPhoneのホームボタンを押してしまった場合に起動すると、うっとうしく感じることさえある。

しかし、こともあろうにAppleが、この分野で進むべき道を見失ってしまったと考えるのは、やはり完全に間違っている。この世界最大の会社は、いつも手の内を見せずに密かに行動することで知られているのだ。

実際、いよいよ真剣に取り組み始め、やり方を考え直そうとしている兆候も、いくつかある。

数ヶ月前に、元Google社員のJohn Giannandreaの下でAIチームを再編成した。そのプロセスの中で、若干の才能ある人物を失ったものの、それより重要なことに、SiriとCore MLのチームが、開発ツールからマッピングまで、社内の異なるプロジェクトにも協力して取り組める仕組みができつつある。

Appleは、過去数年間で、大小さまざまな買収を何十と繰り返してきた。それは、拡張現実、画像認識、そしてバックエンドでのビッグデータ処理など、複数の異なる領域で使えるAIエンジンの開発を目指して、有能な人材や知的財産を獲得するために他ならない。さらに、他にもイギリスのVocalIQなどのスタートアップを買収した。ユーザーとのやりとりから「学習」できる、ボイスインターフェイスを専門とする会社だ。

確かにAppleは、iPhoneの販売台数の低減に直面し始めた(単価は高くなっているので収益は減っていないが)。これは新しいデバイスに注力し、さらにその上で動くサービスをより重要視する必要があることを意味するはずだ。サービスはいくらでも拡張し、拡大させることができる。それによって定常的な収益を得ることもできる。それが、Appleがサービスへのさらなる投資にシフトすべき、2つの大きな理由だ。

AIのネットワークが、iPhoneだけでなく、コンピュータ、Apple Watch、Apple製のスマートスピーカー=HomePod、Apple Music、ヘルスケアアプリ、そしてあなたのデジタルライフ全体を支配することが期待されている。

[原文へ]

(翻訳:Fumihiko Shibata)

「ヘイ、Siri, オーケー Google」でアシスタントを起動できる――ただしプライバシーには十分注意

AppleはライバルがSiriのショートカットをこんなふうに利用するとは予想していなかったに違いない。しかしiPhoneに「ヘイSiri, オーケーGoogle」と呼びかけることでGoogleアシスタントを起動できる。

ただし設定には多少手間がかかる。まずiOS版のGoogleアシスタントをアップデートして最新版にする。次に Google Assistant起動のためのSiriショートカットを作成する。

名前のとおりSiriショートカットを利用すればカスタム・フレーズを録音して音声で特定のアプリないし機能を起動することができる。またSiriのショートカットでプレイリストを再生させたり、誰かにメッセージを送ったりすることも可能だ。もしいくつかの動作を連続して実行させたい場合はAppleが提供するショートカットを使う。

Googleアシスタントの起動はデフォールトでOK Googleに設定されているが、ユーザーは自分の好みで「ねーGoogle」などに変えることができる。フレーズを設定してSiriに呼びかけるとGoogleアシスタントが立ち上がる。

最初のトライでiPhoneまたはiPadのiOSにアプリを開く許可を与える必要があるかもしれない。Googleアシスタントが起動されると自動的にコマンドの聞き取りモードで待機する。アプリが立ち上がってから聞き取り可能になるまでわずかに時間がかかるので、その後で呼びかける。

ここまで手間をかけるユーザーがどのくらいいるかはともかく、「ヘイSiri、オーケーGoogle」でGoogleアシスタントが起動するのはやはり面白い。

ちなみにGoogle Assistantはプライバシーの点からは最悪アプリの一つだ。このアプリは例の 「ウエブとアプリのアクティビティ」を有効にするよう求めてくる。この機能はあらゆるプライベートな情報を収集することで悪名高い。有効になっている場合、Googleは検索履歴、Chromeのブラウズ履歴、位置、クレジットカードの履歴その他ありとあらゆる履歴を集めることができる。.

もし有効にしていない場合、目立つ青いバナーがアプリの下に表示され、「ウェブとアプリのアクティビティを有効にするとアシスタントでさらに多くの機能をアンロックできる」と勧めてくる。心理的トリックでユーザーに特定の行動を取らせることを企むダーク・パターンUIの例だ

クリックするとキュートなアニメが表示されるが気を取られてはいけない。内容が肝心だ。表示されるボタンはMoreしかない。Moreボタンをクリックするといつの間にか「オンにする」に変わっている。たいていのユーザーは左の「今はしない」ボタンに気づかないだろう。

これは古典的なトリックだ。相手が常にイェスと答えるような質問をいくつか続ける。相手はいつの間にかイェスと答えるのに慣れてしまい、最後の質問にもイェスと答えてしまう。これが「スタート」だの「さらに詳しく」だのと表示されたボタンの意味だ。なんども「さらに詳しく」ボタンをクリックしていると最後のボタンの内容に納得していなくてもついクリックしてしまうことになる。もし「無効にする」ボタンを選択すると、「本当によいですか」とうるさく尋ねてくる。

無名のゲーム・アプリからAmazon、Googleまでユーザーを誘導するデザインをひんぱんに使っているので、ことプライバシーに関してユーザーは自分が何をしているのか十分に意識する必要がある。

〔日本版〕日本版iOSでも上記手順で設定できる。手持ちのiPadの場合、電源が接続されている場合は「ヘイSiri」と呼びかけるだけで起動される。接続されていない場合はホームボタンを押して「へいSiri」と呼びかける。Siriが起動した後、「オーケーGoogle」と呼びかけるとGoogleアシスタントが起動する。利用法はGoogle Home/Miniと同様だが、常に身近に置かれるモバイル・デバイスの場合は上記記事のようにプライバシーに注意する必要がある。

原文へ

滑川海彦@Facebook Google+

Siriが地元の変わった名前の店も認識できるようになった

近くのスターバックスやTargetストアへの道順を教えることはAppleのバーチャルアシスタントが得意とするところだ。しかし、Siriは自分が聞いたことのない地元の店を別のフレーズやユーザーの言い間違えと誤解することがある。Appleはこれを解決するために、Siriの知らない超ローカルな名前のライブラリを作り、”Godfather’s Pizza” を ”got father’s piece” と聞き違えないようにする。

音声認識システムは膨大な量のデータを使って訓練する必要があるが、それによって文の解析やフレーズ認識の能力は高まるものの、ユーザーや友達がいつも使っている語彙を理解できるとは限らない。

私が友人に向かって “let’s go to St. John’s for a drink” と言えば、彼らは私が中西部の大聖堂ではなく、近くのバーを指していると理解する。しかしSiriにはそれを知る術がない——それどころか “St. John’s” がひとつのフレーズであることを認識できなければ、私がまったく別のことを言ったと思うかもしれない。入力ボックスにテキストをタイプするのとは違い——あれは文字列の一致をみるだけ——Siriはユーザーの発した音声から最善の予測をしなくてはならない。

しかし、もしSiriがシアトル地域のことを知っていれば、誰かが “St. John’s” と言えばバーのことだろうとわかるので、苦労して考えたり聖人(saint)の候補リストから選んだりすることなく、すばやく正確に反応できる。それがAppleの最新研究の結果だ。今は英語のみだが、多言語への対応も時間の問題だろう。

このためにAppleの音声認識チームは、Appleマップのローカル検索結果を使って「関心のある場所」を取り出した。人は場所を探すとき「いちばん近くの~」や「~への道順は?」などと聞くので識別できる。

こうした関心のある場所は、Taco Bellなどの全国チェーンを除けば地域に特化した場所を表す。シアトルのハンバーガー好きなら、一番近くにあるDick’s Drive-inを調べるだろう(実際にはどこにあるか知っているが)。ロサンゼルスなら、もちろんIn-N-Outだ。しかしピッツバーグの人はどちらも探すことはない。

Appleはこの地域情報を、米国国勢調査局が定義した169の「大都市統計地域」に分けた。これらの地域に特化した店などの名称は、Siri が使う主要な言語モデル(LM)ではなく、ユーザーが関心のある場所を探すフレーズ(「いちばん近い~はどこ?」や「~への道順は?」など)を使ったときに用いる小さな補助モデル(Geo-LM)に登録される。

このため、”who is Machiavelli” と言ったときには、人名のMachiavelliに関する答えが返ってくるが、” is Machiaveli’s” と言えば、システムはGeo-LMを使って地元の関心スポットリストにMachiavelli’sが載っているかどうかを調べる。こうしてSiriは、マキャヴェリ氏が投獄されていた場所ではなく、レストランへの道順を答えるべきだとわかる。

こうすることで、最大25~30%だったエラー率は10~15%へと大幅に減少した。これは3回中2回しか正しい結果が得られなかったものが、10回中8~9回になることを意味している。Siriが繰り返しユーザーの欲しいものを理解できなくて、使うのを諦めてしまうことを防ぐ可能性のある質的改善だ。

この方法のすばらしいところは、比較的容易に多言語にも拡張できることだ。スペイン語でも韓国語でも、十分なデータさえあれば使えない理由はない。その意味では、Siriが隠語の多い業界人向けに特化した語彙ライブラリーを作ってくれれば、スペリングエラーを減らすことができるだろう。

機能はすでに公開されているので、今すぐテストできるはずだ。あるいはすでに使っていて気づいていないだけかもしれない。

[原文へ]

(翻訳:Nob Takahashi / facebook

AppleのSiriはShortcutsツールでユーザーが簡単にコマンドを作れるようになった

Siriは長年、iOS上のもっともぶっ壊れたユーザー体験だった。Appleもその改良を口にすることは少なかったが、今回のWWDCで発表されたアップデートによりインタフェイスが改良され、ユーザーが自分のコマンドを作ったり、Siriからの早めのアップデートをもらいやすくなった。

Siriの提案機能でこのデジタルアシスタントは、ユーザーのビヘイビアから学ぶ。いつも決まった時間にコーヒーをオーダーしていると、Siriはその時間になると、そのことを提案する。会議に遅れそうだったら、Siriは連絡のメッセージを誰かに送るよう提案する。

今度登場したShortcuts(ショートカット)というアプリでは、ユーザーが“add to Siri”ボタンを使ってサードパーティのアプリを利用するカスタムコマンドを作れる。これによりユーザーは、たとえばKayakアプリのショートカットを使って、次の旅行の情報へジャンプできる。

これに関するAppleのプレゼンはかなり簡潔だったから、もっと詳しく知る機会がほしいね。Siriに対しては、いつも疑ってかかるのがベストだが、でもこれらのアップデートは、iOSだけでなくWatchやHomePodにとっても前向きの展開だろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa