営業の最終過程を管理するサービスApttusが$55Mを調達、次はIPOか

Salesforce上の見積請求管理サービスApttus日本)は今やユニコーン企業だが、このほど5500万ドルの資金調達ラウンドを発表した。これは同社の、IPO前の最後のプライベート投資になるものと思われる。

CEOのKirk Krappeは上場についてまだ明言しないが、今日(米国時間9/13)のラウンドは今後の投資家の信任を獲得するだろう、と述べた。“バランスシート上に一定量の流動性が必要である、と判断した。企業が上場や買収に臨むときは、投資家たちがその企業の確実な流動性を求める。流動性は、企業を良い位置につける”、と彼は説明する。“弊社の成長は今でも大きいが、最後の手早いプライベートラウンドをやるのが賢明かつ慎重と言えるだろう”。

5500万ドルのラウンドをリードしたのは、インドのシステムインテグレーターWiproのプライベート投資部門Premjiだ。これまでの投資家Salesforce, K1, Iconiqも参加した。

今や13億ドル(2016/9現在)というユニコーン評価額の同社は、これで累計調達額が3億2900万ドルになる。最近では、投資家を国際的に求めることにも果敢だ。たとえばシリーズCの1億800万ドルには、Kuwait Investment Authorityが投資家として参加した。シリーズDの8800万ドルには、サウジアラビアからの投資も含まれる。

バックにSalesforceがいることは大きい。2015年の終わりには、SalesforceがApttusのライバルSteelBrickを買収して割りを食った形になったが、Apttusはその後Microsoft Dynamics用のバージョンを作るなどして独立を模索した。しかし今ではその傷もすべて癒え、今度のラウンドではSalesforceが投資家として戻ってきた。

Krappeによると、Steelbrickの買収によってSalesforceとの仲がこじれたわけではない、という。“彼らは小さなコンペティターを買ったけれども、弊社の同社との関係は一貫して良好であり、今でもうちの仕事の大半はSalesforceの上でやっている”、と彼は語る。

見積〜請求〜回収の全過程を管理するApttusのサービスは、営業過程の重要な部分を担う。営業が顧客企業との関係を築くと、その対話過程をSalesforceに記録するが、実際に最終的な売買契約の過程(本番の見積提出以降)に入ると、企業はApttusなどのソフトウェアを利用して、見積書の作成や、契約書の生成、そして最後の代金回収までの流れを管理していくことになる。〔quote-to-cash, 見積から現金までのサービス、と言う。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

トランプ政権、国境での無令状捜査で訴えられる

国境の壁を巡る戦いが議会で激化する中、もう一つ国境にまつわる戦いが熱を帯びている。水曜日(米国時間9/13)、電子フロンティア財団(EFF)とアメリカ自由人権協会(ACLU)は、国境での無令状捜索で国土安全保障省(DHS)を訴えた。この Alasaad 対 Duke裁判で、上記2団体は米国国境でパソコンやスマートフォンを令状なしで捜査された11名の代理を務める。国土安全保障省のElaine Duke長官代理は、首席補佐官としてホワイトハウスの中核に入ったジョン・ケリー国務長官の後を引き継いだ。

裁判で原告が陳述した内容は実に興味深いものだった。11人中10人は米国市民であり、残る1人は永住者だ。EFFによると、何人かはイスラム教徒および有色人種であり、政府によるこうした人々を標的にした旅行・移民政策の強化によって標的に選ばれた可能性が高い。原告団には、NASAの技術者、学生、ジャーナリスト、および海外旅行から帰国した退役軍人も含まれていた。国境警備員にスマートフォンを数か月間取り上げられた人々もいるが、誰も具体的な罪には問われていない。

NASA技術者のSidd Bikkannavarの場合、休暇をチリで過ごした後帰国したとき、ヒューストン空港の職員に、パスワードを使ってロック解除するよう強制され端末を手渡した。職員は30分間にわたって電話機を調べ、「アルゴリズム」使って内容を調査していると説明した。別のケースでは、ロック解除された電話機を国境警備員に没収されたうえ暴行を受けたと訴えた。EFFのリリース文には原告全員の名前と申し立て内容が書かれている。

「政府は国境をプライベートデータを探るための捜査網に使ってはならない。」とACLU弁護士のEsha Bhandariは言う。「電子機器には、メール、テキスト、連絡先、写真、仕事の書類、医療や財務記録など、われわれの個人生活を詳しく描き出す情報が大量に入っている。憲法修正第4条は、政府が国境でスマートフォンやノートパソコンの内容を捜査するために令状を必要としている」。

[原文へ]

(翻訳:Nob Takahashi / facebook

TC Tokyo 2017:Google Home搭載の会話型AIの未来―、ブラッド・エイブラムス氏が登壇

Google アシスタントプロダクトマネージャー ブラッド・エイブラムス氏

11月16日、17日の2日間にわたって渋谷・ヒカリエで開催予定のテック・イベント「TechCrunch Tokyo 2017」の登壇者がもうひとり決まったのでお知らせしたい。米GoogleでGoogle アシスタントのプロダクトマネージャーを務めるブラッド・エイブラムス(Brad Abrams)氏だ。Google アシスタントは、国内発売が間近とも言われるGoogle Homeに搭載される会話型AIの基盤そのもの。「モバイル・ファースト」から「AIファースト」へ比重を移すGoogleのビジョンと戦略、現在の取り組みについて語っていただこうと考えている。

すべてのデバイスに共通するUI:会話的な音声

振り返ってみて歴史上のある時期に一気に起こったように見えるパラダイム変化も、実際には5年とか10年かかっていることが多い。パソコンのCUIからGUIへの変化は1980年代半ばのApple Macintoshに始まり、1995年のWindows 95で終了したと考えると、実に15年もかかっている。

いま現在、GUIからVUI(Graphical UIに対してVoice UIの意味)への変化の兆しが見えている。これは5年かかるかもしれないし、10年かかるかもしれないが、かなり大きなマン・マシン・インターフェイスの変革となりそうだ。

AmazonがAmazon Echoで切り開いたスマートスピーカーという製品ジャンルは、声で買い物ができたり家電がコントロールできる、ちょっと便利なツールというふうに見える。ただ、Googleアシスタントについて語るエイブラムス氏の説明によれば、Google Homeはもっと大きな変化の一部分ということが分かる。

Google アシスタントは、「Google Home」やGoogle謹製Android端末の「Pixel」、Googleのメッセアプリ「Allo」などのすべての背後にあるソフトウェア基盤だ。アシスタントが作り出そうとしているのは「会話的インターフェイス」で、いま現在ググるときに打ち込む「新宿 安い イタリアン」などという検索クエリではなく、「ぼくの今日の予定は?」とか「空港まで行くのにUberを手配して」といった、より自然で対話的なインターフェイスとなるようなものだという。これは現在スマホに搭載されている音声検索とは異なるもの。

これは何もGoogle Homeだけのためのものではない。オライリーメディアが行ったインタビューの中でエイブラムス氏は、スマホやメッセアプリなど、デバイスに依存しない形で使えるようにしていくと話している。Google Homeからスタートしているのは、家庭内のリビングという利用環境が限られていて、アプリ提供やユースケースの洗い出しに適しているから、という面もあるのだそうだ。

Googleはすでに「Surface」という概念によってアプリ起動の制御を行おうとしている。あるデバイスには画面がなく、音声だけかもしれない。だからアプリ開発者は今後、どういうSurfaceのときにアプリがどう振る舞うべきかを考えるようになるのかもしれない。

音声が入り口になると新しいビジネスが生まれるかも

エイブラムス氏が挙げる興味深い論点として、「瞑想したいんだけど、おすすめは何?」というような問いかけにGoogle アシスタントはなんと答えるべきだろうか、というものもある。

これまでのGoogle検索ように10個のリンクを提示するわけにはいかない。じゃあ、1つなのかというと、それも違う。2つか? 3つか? どうユーザーに対話的に提示するのか―、この辺もまだVUI揺籃期の興味深い論点だ。

もしユーザーの問いかけに対して1つか2つの選択肢が提示される未来が来るとしたら、これはECビジネスなど、従来のネットビジネスがガラッと書き換わる可能性すらあるのかもしれない。現在、Google アシスタントに対して回答となる「discovery phrase」とういうのはアプリ開発者が登録することになっているそうだ。discovery phraseは現在のネットで言うドメイン名ようなもので、スクワッティング(不正な占拠)が出て来る可能性もある。エイブラムス氏は、いずれレビュープロセスやランキングを使うことになるだろうとインタビューの中で示唆している。

ともあれ、すでにGoogle アシスタントはSDKとAPIが用意されていて、Web上のシミュレーターを使った開発が開始できるようになっている。エイブラムス氏によれば、自分の端末だけで動くものを作りたいという要望が個人開発者からあるといい、イノベーター層が関心をもって遊んでいる様子がうかがえる。

国内発売が間近との報道も一部にあったGoogle Homeだが、未来のコンピューティングと、それが可能にするライフスタイルやビジネスに関心のある人は、ぜひ東京・渋谷のTechCrunch Tokyo 2017に足を運んでみてほしい。

TechCrunch Tokyo 2017のイベントチケット購入ページはこちら

社外の専属経理チームに業務を丸投げできる「バーチャル経理アシスタント」、メリービズがリリース

「担当者がなかなか定着しない」「担当者によってスキルのバラつきが大きい」「繁忙期と閑散期の差が大きく、適正な体制を整えることが難しい」――このような”経理業務の課題”は多くの企業に共通する。

この課題をオンライン上に専属の経理チームを持つことで解決できないか、そのようなアプローチをしているのが経理代行サービスを提供するメリービズだ。同社は9月14日、企業が経理・会計業務をリモートの経理アシスタントチームに依頼できる「バーチャル経理アシスタント」をリリースした。

オンライン上でアシスタントに仕事を依頼できるサービスには「CasterBiz」やクラウドワークスの「ビズアシスタント オンライン」もあるが、バーチャル経理アシスタントでは経理業務に特化。メリービズ代表取締役の工藤博樹氏は「単発のタスクを依頼するというよりは、専門スタッフに経理業務を任せるとイメージしてもらうとわかりやすい。個々の企業のルールに合わせ、業務のプロセスを作るところから一緒にやるのが特徴」だという。

バーチャル経理アシスタントには簿記2級以上、経理経験3年以上という条件をクリアしたスタッフのみが在籍しており、リモートで経費精算や売上集計、収支表の作成といった幅広い経理業務をカバーする。個別のニーズや社内独自のルールにも対応し、コスト削減や社内経理スタッフの負担削減、全体の作業スピード向上に活用できる。

専属のリモートチームが、経理業務を丸ごと請け負う

メリービズでは今まで経理書類の入力代行サービスを提供してきた。これはレシートなどの経理書類をメリービズに送れば、同社に登録するスタッフが仕訳入力を代行してくれるというもの。経理の知識があるスタッフという人力に、システムのチェックも組み合わせることで品質を担保。上場企業を含め400社以上が導入している。

このサービスはメリービズのルールに沿って機械的に仕訳入力をすることで、現場の負担を削減する仕組みだった。一方で今回リリースしたバーチャル経理アシスタントは、対応できる業務の幅が広がり要望に合わせてカスマイズできる点が特徴だ。

「導入企業からは仕訳入力以外の業務も任せられたらという要望をいただいていた。バーチャル経理アシスタントではリモートでやれる経理業務には全て対応する。質問や要望にもすぐ返答があるといったように、隣に専属の経理アシスタントがいるような体験を提供したい」(工藤氏)

左が以前から提供する入力代行サービス、右が新たにリリースしたバーチャル経理アシスタント。既存の入力代行サービスも今回「ロボット経理」へ名称の変更を行っている。

経理の現場では冒頭で触れたような課題が生じていて、企業の悩みの種になっている。工藤氏によるとその原因の1つが「経理と人のミスマッチ」だという。

「経理は製造業のように仕事を細かく分解できる。その中には日付入力など専門知識がいらないものもあれば、月次決算など経理の知識と事業への理解が必要なものもある。今問題となっているのは、スキルのある人が単純な入力作業に追われたり、経験の不足している人に高度な作業を要求してしまっていること。これがスタッフの負担となり担当者が定着しづらい原因にもなっているが、コストの問題で経理スタッフの定員を増やすことも難しいというのが現状だ」(工藤氏)

そこで人手が必要になった時に、経理スキルのあるスタッフへ入力代行以外の業務も依頼でき、採用コストも抑えられるバーチャル経理アシスタントのニーズを再確認したそうだ。構想自体は以前からあったもののオペレーションの構築が簡単ではなく、ようやく体制が整いリリースに至った。

「業界や企業ごとにルールが異なるのはもちろん、大企業だと部署やプロジェクトによってもやり方が違う場合がある。顧客のルールを把握した上で、各業務の判断基準をどのように標準化していくのか。人力とAIを組み合わせて成り立つ仕組みなので、システムの設計も含めて時間をかけて作りこんだ」(工藤氏)

バーチャル経理アシスタントでは契約前にカウンセリングと1ヶ月のトライアル期間を設けている。この期間内で顧客のルールを把握し、オペレーションに落としこむことが重要なのだそうだ。

約半年前からベータ版の提供を開始していて、約300店舗を展開する飲食店では翌月15営業日までかかっていた月次決算が5営業日でできるようになった。従来は社内の経理スタッフ4名で担当していが、現在は1名とバーチャル経理アシスタントのみ。他の3名は本来やりたかった経営企画の仕事に時間を使えているという。

ビジネスインフラを構築し経理の負担削減へ

今後メリービズではビジネスインフラを作り、企業内での経理業務の負担を削減することを目指していく。

「今はほとんどの企業が社内で経理業務を行っている。これは例えるなら日本全国の家が個々で発電をしているようなもの。インフラが整備されて個々で発電をせずに済んでいるように、経理機能をインフラとして提供することで、企業の経理スタッフが本来やりたかったことにもっと時間を注げるようにしていきたい」(工藤氏)

直近ではバーチャル経理アシスタントの基盤を整えることに注力しつつ、将来的には社労士と組んで労務業務のサポートするなどサービスの横展開や、社内に蓄積された会計データを活用した事業も検討していくという。

Apple、AirPodsのワイヤレス充電ケースを発表

昨年のiPhone 7発表イベントで、AppleはAirPodsを発表した。一年後、Appleはこのワイヤレスイヤホンを早くも改訂する ―― 正確にはケースだけだが。AirPodsはいまだに多くの店舗で入荷待ちだが、オプションの充電ケースが発表された

新しいケースの見た目は殆ど変わっていない。しかし、インジケーターランプが外側についたので、ケースを開かずにバッテリー状態を確認できるようになった。なぜか? AirPowerワイヤレス充電パッドに置くだけで放っておけばいいからだ。

以前のAirPodsケースにもLEDはついているが、ケースの内側にあった。充電中はオレンジの点滅で、完了すると下の写真のようにグリーンに点灯する。

AirPodsをAndroid機やパソコンとペアリングするためには、ケースの後ろにあるペアリングボタンをLEDが点滅するまで押さなくてはならない。この手順が少し楽になる。ケースを開けたままスマートフォンをいじる必要がなくなるからだ。

Appleデバイスではその問題は起こらない。ケースを開いて一度だけペアリングすればいいからだ。すると、あなたの持っているほかのAppleデバイスとも自動的にペアリングする。

AirPower充電器の発売は来年なので、AirPodsの充電ケースはすぐには買えないと思った方がいいだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

OracleがCloud Native Computing Foundationにプラチナ会員として参加、Java EEをオープンソースに

Oracleが今日(米国時間9/13)、Cloud Native Computing Foundation(CNCF)にプラチナ会員として加わることを発表した。これによって同社は、Amazon, Cisco, Google, IBM, Intel, Microsoft, RedHatらとともに、このLinux Foundation傘下の団体に参加し、コンテナオーケストレーションプロジェクトKubernetesとその関連ツールを支えていくことになる。

CNCFへの入会はお安くない。プラチナ会員は、年会費が37万ドルだ(Linux Foundationの既存の会員には割引がある)。したがってこの団体に加わることは、その企業がKubernetesのエコシステムを支援していく意思表明になる。

Oracleは単に同団体に参加するだけでなく、Oracle LinuxにKubernetesを加え、Oracle Cloud InfrastructureのためのKubernetesインストーラーTerraformをオープンソースにする。このほかすでにOracleは、Kubernetesに多くのコントリビューションをしており、関連するコンテナツールも提供しているから、今日の正式加入は、エコシステムへのこれまでの投資を、公式化する動きにすぎない。

CNCFのCOO Chris Aniszczykは、今日の声明文でこう述べている: “Oracleには、世界クラスのエンタープライズのニーズに対応してきた数十年に及ぶ経験がある。そんなOracleをCNCFのプラチナ会員として迎えることは大きな喜びであり、同社はエンタープライズクラウドの未来を定義していくことに重要な役割を果たすと思われる”。

現時点ではKubernetesがコンテナオーケストレーションツールのデフォルトスタンダードであることに、もはや疑いの余地はなく、今やほとんどすべての企業が、お金の面やコードの寄与貢献の面でこのプロジェクトを支えている。

Oracleの加入の発表と並行してCNCFは今日、同団体が資格認定したKubernetesサービスプロバイダーの最初の一群を発表した。この分野の深い知識と同団体の公式の資格をもって企業のコンテナオーケストレーションを助けていくサービスプロバイダーは、Accenture, Booz Allen Hamilton, Canonical, CoreOS, Giant Swarm, そしてSamsung SDSである。

また今日は、二つの新たなプロジェクトが同団体のオープンソースツールの仲間に加わった。それらは、分散トレーシングシステムJaegerと、Lyftの開発チームが提供したエッジとサービスのプロキシEnvoyだ。

Oracleも今日、オープンソースの発表を行った。同社は、これまでクローズドソースだったJava Enterprise Edition(Java EE)をEclipse Foundationへ移し、そのコードをGitHubに置いた

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

このバッテリー不要の携帯電話は太陽光と高周波で動く

OLEDも切り欠きも関係ない。周囲からパワーを吸収して充電せずに携帯電話が使えるなら。

この大胆な携帯電話は、Google Facaulty Researchという研究プロジェクトの一環で作られたもので、全米科学財団から計200万ドルの助成金を受けている。この資金を使って開発者のVamsi Tallaは、通常の携帯通話で緊急サービスにかけられるワンボード電話を作った。研究チームはJeeva Wireless社と組んで製品化を進めている

According to IEEEによると、Skype通話も可能らしい。

この電話機は、電力を太陽光または近くの携帯電話基地局から発せられた無線周波数波から受け取る。バックスキャッタリングと呼ばれる技術を使って同じ電波を変調、反射して基地局に戻すことで、音声通話を発信することができる。

Skypeの音声通話もできたので、このプロトタイプ ―― 市販部品のみで作られている ―― は基地局と通信できるだけでなく、Skypeのようなアプリも動かせることが証明された。この電話機の消費電力はわずか3マイクロワット ―― これは今のスマートフォンと比べて約1万分の1にあたる。

このテクノロジーは、携帯基地局の変更をほとんど必要としていないため、将来この機能をほとんどの携帯電話に付加することは簡単だとTallaは言う。TallaはEインク表示装置を付加することも考えているので、バッテリーレス電話にスマートフォンの非常に基本的な機能をもたせることも可能になる。現在のモデルは最低1ドルで製造できるので、途上国での利用にも理想的だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

動画制作のCrevoが動画制作プラットフォーム「Collet」を公開、総額3.1億円の資金調達も実施

Crevo代表取締役の柴田憲佑氏

2014年に動画制作特化のクラウドソーシングサービス「Crevo」を公開したスタートアップ、Crevo。これまでの累計700社の動画を制作してきた同社が、その動画制作ツールをオープン化し、事業を拡大するという。Crevoは9月14日、動画制作プラットフォーム「Collet(コレット)」を発表。30社に限定して、クローズドベータ版サービスに向けた先行申込み企業の募集を開始した。またCrevoは伊藤忠テクノロジーベンチャーズ、三井住友海上キャピタル、AG キャピタル、D4Vを引受先とした総額3億1000万円の第三者割当増資を実施したこともあきらかにしている。

前述の通り、これまで700社の動画を制作してきたCrevoだが、20人弱という小さな組織で複数のプロジェクトを回すために、自社で制作管理ツールの開発を進めてきた。Crevoには現在、世界100カ国、3000人のクリエーターが登録しているが、そのクリエーターたちが離れた場所でも作業できるよう、ウェブ上で動画素材を集約。シーンごとに直接指示を出したり、コミュニケーションができる仕組みを作り上げた。Crevoでは、このツールによって、制作関連業務の負担を5分の1に圧縮したとしている。このツールを制作会社などに提供できるようにオープン化したものがColletだ。

Colletには大きく2つの機能がある。1つはCrevoが自社のビジネスで培ってきたノウハウを注ぎ込んだ、制作管理ツールとしての機能。そしてもう1つは、企業とクリエーターを直接繋ぐジョブボードの機能だ。Colletを利用する企業が、自社の動画制作案件をCollet上に掲載。Crevoに登録するクリエーターがその案件を引き受けるということができるようになる。

「若いクリエーターの労働環境は厳しいところがある。そこをなんとかしたい、働き方も改善して欲しいという思いがあった。クリエーターも(Crevoからの発注に限らず)さまざまな企業からの仕事ができるほうが魅力がある。動画制作事業は3年半で軌道に乗っているので、それで利益を上げつつ、Colletの開発に投資していく」(Crevo代表取締役の柴田憲佑氏)

Crevoでは、今冬をめどにColletをオープン化する予定。また今後はColletに限らず、「制作会社が困っていること、若い制作アシスタントたちが困っていることを解決できるようなサービスを提供していく」(柴田氏)としている。

iPhone 8とiPhone Xは高速充電に対応している

バッテリー容量の50%を30分で充電できたらいいと思わないだろうか? iPhone 8(と8 Plus)とiPhone Xならそれが可能だ(via Engadget)。この3機種は、Appleが初めて出した〈高出力充電器を使えば早く充電できる〉スマートフォンだ。

すでにiPad Proがそうであるように、新しいiPhoneは付属の充電器よりも速い充電速度に対応している。Appleの29ワットUSB-C充電器(MacBookに付属)とUSB-C-Lightningケーブルを使うと、ずっと早く充電できる。新しい13インチまたは15インチMacBook Proを持っている人なら、付属の61ワットまたは87ワットの充電アダプターを使うこともできる。

高出力に対応していれば、どのUSB充電器も使える、試してみる前に充電器の評判を確認することをお勧めする。USB-CとLightningの変換ケーブルについても同様だ。

MacBook充電器を使って、始終最新のiPad Proを高速充電している経験を言うと、違いはものすごく大きい。別の充電器が必要ではあるが、ついにiPhoneでもできるようになったのは大変うれしい。

[原文へ]

(翻訳:Nob Takahashi / facebook

iOS 11のサポートでQR、NFCに北米で復活のチャンス

今のところ世間の注目はピカピカの新iPhoneに集まっているが、iOS 11がわれわれの手元に届くのはそれより早い。9月19日にはモバイルOSのメジャーアップデートが実施され、対応するiPhone、iPadにインストールできるようになる。多くの新機能が用意されており、特にiPad、iPad Proのアップデートは大幅だ。

しかしiOS 11については、マスコミがあまり注目しない2つの新機能が将来のモバイル体験、ひいてはマーケティング全般を大きく変えることになるかもしれない。

iOS 11の2つの機能というのは、デバイスのカメラ・アプリから直接利用できるネーティブQRコード・リーダーとNFCチップのサポートだ(これまでNFCの利用はApple Payのみに制限されていた)。iPhone 7以降のアプリはNFCが利用できることを求められる。iPhone 6、6s以降のデバイスはApple Pay用のNFCチップを搭載していたものの、やはりこれは近接コミュニケーション・テクノロジーにおける大きな進歩だ。

その理由はこうだ。QRコードとNFCはモバイル・デバイスを現実世界に接続するためにきわめて有効な方法だ。QRはもちろん10年以上前からこの目的にために使われてきた。特にアジア市場では驚異的な普及をみせている。NFCもAndroidスマートフォンでは以前からサポートされていた。クレジットカードより偽造が難しく、交通機関における料金支払やショップでアイテムの購入に利用できる。また 公共施設のターミナルにスマートフォンをかざすだけでランドマークの情報を得られるなどさまざまな場面に応用可能だ。

NFCとQRはいわゆるハイプ・サイクルを何度もくぐり抜けてきた。実際QRコードが北米市場に紹介されたのは8年も前になる。当時、北米市場は日本を始めとするアジア市場で成功を収めたモデルをコピーして追いつこうと努力中だっった。NFCも大騒ぎされた後で失速し、それからある程度の成功を収めた。これが過去5年程度の間でおきた。

QRコードに至ってはアナリストや専門家によって何回も「死んだ」と宣告されている。しかしAppleはiOS 11でカメラが直接QRコードを読めるようにした(現在の一般公開候補のビルドでもデフォールトでそう設定されている)。これは北米でQRコードを復活させ、メインストリームに押し上げる効果があるかもしれない。残念ながらこれまでの努力はまったく実を結ばなかったのだが。QRコードはきわめて有力な規格で、現実世界の商品や広告ととスマートフォンを接続する方法としてこれ以上に使いやすく、また高機能なテクノロジーを新たに発明するのは難しいだろう。

NFCの普及はQRコードより困難度が高いかもしれない。AppleはNFCを何らかのタグの読み取りに制限しており、またアプリごとに実装されるべき機能としている。つまりデベロッパーはアプリを開発する際にアプリの中にNFCのサポート機能を独自に作り込まねばならないことを意味する。そうであっても、QRのサポートと同様、NFCにとって普及に向けた大きな一歩であることに変わりはない。

一部のアナリストや専門家は、「Appleのこれらのテクノロジーの採用は遅すぎだし、これ以前になされた普及の努力もほとんど効果を上げいない」などと批判するかもしれない。しかし新しいテクノロジーがメインストリームに普及するかどうかに関して、Appleがカギを握っていることを軽視すべきではない。ことに北米ではそうだ。その証拠に、たとえば、この次ホテルに泊まったときにベッドの枕元を見てみるといい。充電式の目覚まし時計に用いられているのはおそらく30ピン端子だろう。これは当初、iPhoneのコネクターとして普及したものだ。

QRコードとNFCは北米のメインストリームの消費者には依然としてほとんど知られていない。 しかしAppleがiOS 11に採用したことはこれらのテクノロジーへのアクセスを大幅に改善するだろう。当初の期待を実現するような普及への一歩となる可能性が十分ある。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ARネイティブアプリのUXについて考える――単なる流行りのプロダクトで終わらせないために何ができるか

【編集部注】執筆者のMatt MiesnieksはSuper Venturesのパートナー。

ARKitのローンチにより、向こう1年のうちに5億台ものiPhoneで拡張現実(AR)アプリが使えるようになる。さらにそれから1年以内には、ARCoreに対応したAndroidデバイスの登場で、その数は少なくとも3倍以上になると言われている。

このような明るい展望をもとに多くの開発者がARに興味を持っており、今後彼らがARという全く新しいメディアに挑戦する中で、数々の実験的な取り組みを目にすることになるだろう。もしかしたらARのインパクトはそれ以上かもしれない。これまで人間は視覚的なコンテンツを四角形のメディア(石版から映画館のスクリーン、スマートフォンなど)を通じて消費してきたが、ARは歴史上初めて形の制約から解放されたメディアなのだ。

ちょうど紙とウェブのように、ARと従来のメディアの違いはスケールというよりも根本的な種類にある。インターネットが普及し始めた頃の商業的なウェブサイトで一般的だった、印刷物の中身がウェブ上にアップされただけの「ブローシェアウェア型」ウェブサイト同様、初期のARアプリはきっとAR空間に従来のモバイルアプリを貼り付けただけのようなものになるだろう。つまりこれからたくさん発表されるであろうARアプリのほとんどは、ブローシェアウェアのようにひどいものになるだろうが、それでも新しい時代の幕開けということには変わりない。

このように新しいメディアが誕生した直後は、旧来のメディアで成功をおさめたプロダクトを無理やり新しいフォーマットにはめ込んだようなものが中心となる。消費者としてもその方がイメージをつかみやすく、発展途上にあるメディアを受け入れやすい。例えば、Uberの車が近づいてくる様子を確認するためにARが使えるという話をよく聞く(実際は2次元の地図の方がこの目的には合っているが)。しかし最終的にAR界で成功をおさめるのは、ARにしかない機能を活用し、これまでのメディアでは実現できなかったようなことができるアプリなのだ。

10年以上前に私がOpenwave(モバイルブラウザを発明した企業)で働いていたときは、同僚と「小さなスクリーンにフィットするウェブサイト」とは違う、「モバイルネイティブ」なエクスペリエンスに関する議論を交わしていた。Fred Wilsonが2010年に公開したモバイルファーストに関する有名な記事の方がこのコンセプトをよっぽどうまく表現しているが、本稿がARについてWilsonの記事と同じような価値を持つようになることを願っている。

最近ではAppleがHuman Interface Guidelines for ARKitという文書を公開した。GoogleからはARCoreに関して似たような文書が発表されていないようだが、もしもご存知の方がいれば教えてほしい。本稿ではAppleのガイドラインと似たトピックについて、私たちが学んできたことを踏まえて深掘りしていく。

「ARネイティブアプリ」の要件

以下では、ARKitやARCoreで開発できるスマートフォン向けのARアプリを特徴づける種々の要因について掘り下げていきたい。ここでは意図的にヘッドマウントディスプレイ(HMD)向けのARアプリについては触れていない。というのも、HMDでできることは(ハンズフリーアプリの実現、セッション時間の長大化、没入感のあるエクスペリエンスなど)スマートフォンよりもかなり範囲が広いからだ。

なお各要因は、ARアプリのコンセプトを考える際に検討した方がよいと思われる事項で、リストの順番に特別な意図はない。私の友人であるHelen Papagiannisの著書『Augmented Human』では、同じ内容についてさらに深い考察がなされているが、本稿の内容も合計50年以上分のARスマートフォンアプリ開発の経験が反映されていることを考えると、現時点ではかなり包括的な内容だと言えるだろう。

Super Venturesではかなり頻繁にARアプリのピッチを聞く機会があるが、開発者がARネイティブのプロダクトを作っていないときはすぐにわかる。「なぜARじゃないといけないのか? ユーザーにとっては普通のアプリの方が便利ではないか?」というシンプルな問いについて考えるだけで、ARアプリのことを全く新しい視点から見られるようになるはずだ。

スマートフォンという枠にとらわれない考え方

ARアプリのプロジェクトに取り組むにあたって、デザイナーや開発者はスマートフォンという枠にとらわれないようにしなければいけない。さらに、ユーザーがスマートデバイス一般とどう関わり合うかについて考え直すことも重要だ。現実世界の様子やスマートフォンがどのような位置・状態にあり得るか、さらにはユーザーの周囲の人やモノ、音といった要素が、全てプロダクトの設計に関わってくる。ARアプリでは全てが(たとえコンテンツは2次元でも)3次元空間で起きるのだ。

ユーザーはAR空間をスマートフォン経由でしか体験できないため、その外に「生きる」コンテンツを設計するには考え方を大きく変える必要がある。(出典:Mortar Studios

また、ユーザーとのインタラクションやコンテンツの移り変わり、アニメーション、アップデートといった要素は検討すべき内容の一部でしかなく、開発者は「アプリ外」で発生するであろう種々の要因についても考えなければならない。この部分が理解できれば、あとはそこまで難しくないはずだ。

手首vs頭vs胴体

手に持って使うというスマートフォンの特徴は、設計上の制約とともにチャンスでもある。人間の腕は頭(と首)に比べて可動域が広く、両手を使うアプリよりも片手だけを使うアプリの方がユーザーはデバイスを自由に動かせる(両手で使うアプリだとデバイスを物理的に動かすために胴体も一緒に動かさなければならず、前後動には歩行が不可欠だ)。

あるものの長さを測るのに頭を動かさなければならないとなると不便で仕方がないというのは想像に難くないだろう。このようなユースケースではスマートフォン向けのARアプリが真価を発揮する。

このように考えていくと、ユーザーが常にディスプレイを見ていなくてもいいようなARアプリは(スクリーンを視界の外に向ける場合も考えられるため)うまく機能するとわかる。Tape Measureや小さなものを3DスキャンできるARアプリはその好例だと言える。

逆に動きの早いシューティングゲームだと、デバイスをさまざまな位置に動かす際にスクリーン上で何が起きているか確認しきれない可能性があるため、AR化するのは難しいだろう(もしもデバイスを全く動かさないなら、そもそもARアプリにする意味もなくなる)。

ポケットに入れたまま使えるアプリ

AR開発者は見逃しがちだが、移動中の人はスマートフォンをポケットやカバンの中にしまっていることがほとんどだ。一般的に「ユーザーエクスペリエンス」は、ユーザーがアプリのアイコンをタップするところから始まると考えられている。しかし、ユーザーの位置に応じてリアルタイムにコンテンツを変化させられるというARの利点を考えると、ユーザーエクスペリエンスの開始地点はもっと早い段階であるべきだ。そうでないと、もしもユーザーがアプリを使い始めるタイミングが想定よりも30秒遅ければ、(アプリが意味をなす地点をユーザーが通り過ぎてしまい)アプリの意味がなくなってしまう可能性さえある。FacebookやSMSの通知であれば場所は関係ないので、このような問題は発生しない。

「どうすればスマートフォンをポケットから取り出すようユーザーを仕向けられるか?」というのはスマートフォン用のAR(さらにはビーコンを使った)アプリを開発する上で極めて重要な問題だ。(出典:Estimote

このように、アプリにとって最適な位置でユーザーにスマートフォンを取り出させるというのは、実用上の大変難しい問題だ。従来のアプリのようにプッシュ通知を使うという手もあるが、もしもユーザーがアプリの機能を理解していれば、現実世界で何かを見かけたときに自然とスマートフォンを取り出すということもあるだろう(外国語のメニューをきっかけにGoogle Word Lensを使う場合など)。

それ以外の場合は、構造物ではない何かをトリガーにしたり、どこにでもあるようなものを活用したりして、とにかくユーザーがどこにいてもサービスを提供できるようにしなければならない。他のユーザーに向けてメモを残せる「AR落書き」のようなアプリが抱える1番大きな問題がまさにこれなのだ。ユーザーはアプリを開かなければ、自分のいる場所にメモが残されているかどうかさえ知ることができない。ビーコンを使ったプロダクトも同じような問題を抱えており、各企業はお得情報を見てもらうために買い物客にいかにスマートフォンをポケットやカバンから取り出させるかという課題に取り組んでいる。

この問題は、ARアプリの開発者が「競争」について考えたときに違う形で表出する。AR技術の可能性の大きさゆえに、AR界にはチャンスがそこら中に転がっていると考える人は多い。しかし実際のところ、ユーザーにあなたのARアプリを使ってもらうためには、その他のさまざまな活動とユーザーの時間を分単位で常に奪いあっていかなければならないのだ。既にユーザーの時間はARアプリ以外のものにつぎ込まれているが、どうすればARアプリがそこに入り込めるのだろうか。

機能としてのAR(YelpのMonocle、Google Lens)

ARKitを使ったアプリといえば、アプリ全体が「ARモード」で現実世界に情報を付加するようなものを思い浮かべがちだ。しかし多くの機能(パスワードの入力など)はARでない方が使い勝手が良い。例えば位置情報だと、ARよりも2次元の地図を使った方が拡大・縮小ができたり、周囲の様子を見回せたりとユーザーにとっては便利だ。つまり、アプリのどの部分がARと親和性が高いかをよく考え、ARを機能のひとつとして使うようなハイブリッド型のアプリ開発も視野に入れた方が良いということだ。YelpのMonocleはまさにこの「機能としてのAR」の好例だ。

Yelpのアプリには「ARモード」があくまで機能のひとつ(Monocle)として搭載されており、これはARが目的化していないうまいやり方だ。

現実世界とのインタラクション

デジタルコンテンツと物理的な現実世界の間で何かしらのインタラクションを生み出せるかどうか、というのがARネイティブアプリの必要条件だ。もしも両者の間にインタラクションがなければ、それは普通のアプリということになる。もっと言えば、私たちにとっては現存するスマートフォン向けのアプリこそが「デフォルト」のUXであるため、ARテクノロジーを使ってしか実現できない機能がないとARアプリの意味がない。ここでいう「インタラクション」とは大きく分けて次の3つだ。

3Dジオメトリ:デジタルコンテンツが現実世界の環境に沿った反応を示すというのがひとつめのインタラクションだ。Tangoのデモの多くはこのタイプで、現実世界の坂からジャンプするDekkoのラジコンカーや机の下で動き回るMagic Leapのロボットなども全て同じカテゴリーに含まれる。

 3Dジオメトリを活用したアプリでは、周囲の物理的な環境が重要な要素となる。

視界・環境の共有:他の人が物理的に近くにいないといけないアプリがあれば、おそらくそれはネイティブARアプリだ。このタイプの例としては、建築家が建築物の3Dモデルを使って顧客に詳細を説明するためのシステムや『スターウォーズ』のホロチェスなどが挙げられる。

同じ空間にいる友人や同僚との「幻影」の共有は、ARだからこそ実現できる素晴らしい体験だ。

モーションコントローラー:これはコンテンツ自体は静的で、ユーザーがデバイスを動かしたり、Wiiさながらデバイスをコントローラーのように使ったりするケースを指している。このインタラクションのあり方がARネイティブと言えるかどうかは、個人的に微妙なラインだと考えている。例えば、アプリを通して見ると目には見えない何かが机の上に現れ、デバイスの位置によって違った角度からそのコンテンツを眺められるという類のアプリは、ただ目新しいだけでARネイティブとは言えないというのが私の意見だ。さらにこのユースケースに限って言えば、ズーム機能などが使える従来型のアプリの方がよっぽど使い勝手が良いだろう。

ユーザーが実際に動き回ることで感じられる物理的なスケールこそがARネイティブの核だと主張する人もいる。しかしここで重要なのは、目新しさ以外に何かメリットがあるかどうかということだ。コントローラー型のインタラクションがARネイティブな形で機能しうる例としては、Wiiのコントローラーのように、デバイスを動かすことでコンテンツを操作できるようなものが考えられる。例えばAR空間に風船が浮かんでいるとして、スマートフォンをバーチャルな風船に向かって押し当てることで実際に風船を「押す」ことができれば、これはARネイティブだと言えるかもしれない。

ARアプリを作ろうとしている人は、上記のようなインタラクションを活用することで、ユーザーに何かしらのメリットをもたらせられるかどうかをよく考えなければならない。もしもAR要素がユーザーのメリットに繋がらなさそうであれば、開発中のアプリを単に目新しいおもちゃ(これ自体は全く悪いことではないが、繰り返し使われる可能性はゼロに等しい)として考えるか、むしろ従来型のアプリを開発した方が良いだろう。

位置情報が希少性を取り戻す

2011年に行われた、Super Venturesのパートナー(OriとTom)主催のAWEというイベントで、私にとってはここ数年で1番興味をそそられるアイディアをJaron Lanierが語っていた。インターネットが希少性という概念を壊した(デジタルデータは無尽蔵にコピーでき、働く場所も制限されなくなってきた)が、ARには希少性を取り戻す力があるというのが彼の考えだ。ARエクスペリエンスはユーザーがいる場所と深く関係しているため、たとえ違う場所で同じ体験を再現できたとしても、やはりもともと想定された場所で使ってこそアプリの真価が発揮される。これは「音楽ファイル対ライブ」のデジタル版のような構図だと言える。

希少性にはかなりのビジネスチャンスが秘められており、特にブロックチェーンや非中央型のビジネスと組み合わさることで面白いことが起きるだろう。クリエイティブ系のビジネスは、特に希少性の崩壊でダメージを受けた業界ということもあり、ARを活用することで大きな利益をあげられるかもしれない。少なくとも音楽業界ではライブイベントこそが主な収益源なのだ。

Pokémon GOはレイドイベントの導入でこのコンセプトを活用し始めた。例えばレアポケモンのミュウツーを捕まえるには、日本で先日開催されたレイドイベントに参加しなければならなかった。

他にも例えばAR版のMMOで、ある鍛冶屋にたどり着くためには現実世界でアフリカまで行かないといけないといった使い方も考えられる。このように、希少性をデジタル世界に蘇らせることで、今後さまざまな面白い試みが生まれることだろう。

どんなに良いアイディアが思い浮かんでもそれにとらわれるな

ARはなんとも魅力的な概念だ。ARについて考えれば考えるほど、AR技術の大きな可能性に気づき、全く新しいアイディアが浮かんでくる。そんな素晴らしいアイディアとともに私たちのもとを訪れるスタートアップは後を絶たない。彼らは自分たちが解決すべき問題を発見し、次なるGoogleにさえなれそうな巨大プラットフォームの構築を夢見ている。しかし、彼らの夢を実現するのに必要なテクノロジーやUXはまだ(さらにもしかしたら向こう数年間は)存在しない。起業家は自分たちのアイディアを信じて新しいことを始めようとしているが、残念ながら市場やテクノロジーがそのアイディアに追いつく頃には彼らの資金が底をついてしまっているだろう。

最高のアイディアだと信じているものを保留するのは極めて難しいことだが、現時点で本当にそれを実現できる(真の意味で確かな)確証があり、あなたのアイディアに投資する人(本当にそんな人がいればぜひ名前と連絡先を教えてほしい)がいない限り、そうせざるをえない。

もしもこの条件を満たせないようであれば、自分のアイディアが現実とマッチしているか確認した方が良いだろう。

念のため付け加えておくと、「良い」アイディアとは単にクールなアイディアという意味ではなく、ユーザーにとって必要不可欠な存在になりうるアイディアのことを指している。つまり社会に受け入れられていて、効率的かつユーザーが自然と使っている非ARプロダクトから移行するだけの価値があるものということだ。

視野の問題

スマートフォンとHMDとでは視野に明らかな差異があり、HMD用のARアプリが登場すればかなり没入度の高いエクスペリエンスを味わえるようになるだろう。一方スマートフォン用のARアプリには大きな問題がふたつある。

  • ユーザーとARコンテンツの間には、スクリーンという名の小さな「窓」しか存在しない。もしも友人と視界を共有するとなると、その友人にとっての窓のサイズはさらに小さくなる。この問題はトラッキング技術が向上すればある程度軽減できるかもしれない。
  • そもそもスマートフォンに表示される映像は、カメラが見ているものであって、ユーザーが目で見ている景色そのものではない。カメラの向きが映像にも反映され、その視野は人間のそれとは異なる。仮に眼球の中心から直線をひき、その線に沿ってカメラを持てば両者の差異は縮まり、透明なガラスをのぞき込んだような映像が映し出されることになる。しかし実際にそうする人などおらず、誰もがその事実を気にせずスクリーンに表示される情報だけに注目している(ちなみにこの点に関してはいくつかの研究がなされており、人間の目が見ているものに近い映像を撮影できる技術も存在するが、恐らくこれが大衆向けのスマートフォンに搭載されることはないだろう。もしも興味があれば、こちらを確認してみてほしい)。

それでは、普段目で見ている景色とは異なる映像が表示されるスクリーンを使い、さらに没入感を高めるにはどうすればよいのだろうか?

まず、一般的にユーザーは疑うことなく、ARアプリが映し出す情報のことを現実世界に投影されたデジタルコンテンツとして受け入れるだろうという認識を持つことが大事だ。

次にコンテンツのサイズについても配慮が必要だ。もしもコンテンツがスマートフォンのスクリーンとカメラの画角に収まる程度の大きさであれば、端のほうが切れてしまうという事態を避けられる。例えば実物大のティラノサウルスよりも実物大の猫を投影するアプリの方が、ユーザーエクスペリエンスという点では優れている。コンテンツのサイズをうまく利用することで、没入感や魔法のような感覚をつくり出すという点については、仮想現実(VR)での学びを応用し、スケールインバージョンを使っても良いだろう(例:植木の周りを漂う小さな妖精)。

もしもコンテンツがスクリーンに収まらないほどの大きさになるのであれば、全体像は確認できないのだとユーザーが自然と理解できるような仕組みを導入しなければならない。例えば、ユーザー(の持つスマートフォン)が見ている部分だけコンテンツをハッキリと表示させ、スクリーンの端には霧を漂わせるという仕組みはうまく機能した。この仕組みを使えば、ユーザーはスクリーンに表示されたエリアの外には面白いものがないのだと感じる上、他の部分を見たい人はデバイスを動かすだけでいい。1点注意が必要なのは、スクリーン外のコンテンツがどのあたりにあるかという情報を同時に提供するということだ。ユーザーが周りを見渡してどこに残りのコンテンツがあるのか探し回らなければいけないということがないようにしたい。

視野をうまく使った没入感の創造というのはとても難しい課題だ。また、ARアプリを単なる目新しいものとしてではなく、繰り返し使ってもらえるようなプロダクトにすることも簡単ではなく、ユーザーエクスペリエンスのさまざまな要素について再考が必要になる。そこで基本的な機能からユーザーテストを行うことが極めて重要になってくる。特にARでは、目新しさというバイアスを取り除いて現実的なデータを収集するために、同じユーザーを対象に時間をかけて繰り返しテストを行わなければいけない。YouTubeの動画上ですごいと思えるようなアプリと、実際にユーザーが満足できるようなアプリとの間には大きな差がある。

シーンはコントロールできないと理解する

開発者にとってのARアプリとその他のソフトの大きな違いは、ユーザーがアプリを開く場所をコントロールできないということだ。例えば60x60センチのスペースが必要なARゲームを開発したとしても、ユーザーはバスに乗っているときにアプリ開くかもしれないし、小さなテーブルや食器が残ったテーブルにスマートフォンのカメラを向けているかもしれない。するとそのARゲームは使い物にならなくなってしまう(もしくは非ARアプリとして使うしかない)。この問題についてはふたつの対策と実現に時間がかかるであろうアイディアがひとつある。

まずひとつめの対策として、利用場所に関する具体的なインストラクションを提供するという手がある。別の部屋に移動したり、テーブルの上をきれいにしたり、家に到着するまで待つようにユーザーに指示を出せばいいのだ。しかし、もしもユーザーが想定外の場所でアプリを開いたときはエクスペリエンスが悪化してしまうため、種々の指標が低下してしまう可能性があるというのは想像に難くないだろう。利用場所を限りなく絞って、それ以外の場所でユーザーがアプリを開こうともしないようにするというのも手だ。

もうひとつのオプションとして、どこででも機能するようなコンテンツを採用するという手段がある。Dekkoではこの方法を採用し、当初はレベルや難易度が設定されたゲームを作ろうとしていたが、結局どこでも遊べるようなおもちゃの車が走り回るアプリを開発することに決めた。ARKitでゲームアプリを開発しようとしている人に対する私のアドバイスは、どこでも遊べるデジタルおもちゃ(バーチャルラジコン、バーチャルスケートボード、バーチャルボールとバットなど)を作るということだ。

そして現時点では技術的に実現不可能とはいえ、将来的にはどのARアプリもこの方向に進むであろう最後のアイディアが解決策としてはもっとも優れている。そのアイディアとは、アプリ自体が3次元空間を理解できるような仕組みを導入し、ユーザーの周りの環境に応じて自動的かつスマートにコンテンツを配置していくというものだ。このアイディアを実現するには、次のふたつの技術が実用化レベルに達するまで待たなければならない。ひとつは3Dシーンをリアルタイムで再構築して(これはほぼ実現しつつある)その内容を理解する技術、そしてもうひとつがコンテンツの自動レイアウト技術だ。

これらの技術が実現するまでにはまだ数年ほどかかることが予想されるため、少なくとも現時点では最初のふたつのいずれかを選ばざるをえない。

MoatboatのARアプリは特定の環境を必要とせず、ユーザーはどこにでもコンテンツを投影できる。このように自由度の高いコンセプトは、どんな環境で起動されるか予想できないスマートフォン向けARアプリとの相性が良い。Moatboatのアプリは物で溢れた部屋の中でも平らな床と何ら変わりなく機能し、バーチャルの小屋や牛を洗濯物の山の上に投影し、そこからオブジェクトがずり落ちる様子を見て楽しむことができる。

その一方で、開発者側にコントロールがなく、主体性がユーザーに委ねられているからこそ新しいものが生まれる可能性もある。これこそがARというメディアの特徴なのだ。Charlieがこの点について素晴らしい講義を行ったのでこちらから動画を見てみてほしい。

上記に加え、現状の開発ツールではアプリ内で任意の座標系しか利用できず、セッションごとに座標が変わってしまう。さらにARアプリは原点(X=0、Y=0、Z=0)から計測した周囲のオブジェクトの相対位置しか把握できない。つまりユーザーの周囲に関する情報には持続性がなく、絶対座標系による修正もなく、ユーザーが他の人と自分の「スペース」を共有することもできないのだ。ARCoreとARKitのどちらに関しても、この点はきっと近い将来(1年〜1年半のうちに)変わっていくだろうし、オーバーレイAPIを開発中のスタートアップも存在するが、とりあえず現時点では座標系についても設計時に頭に入れておかなければいけない。

コンテンツと現実世界の間でインタラクションを起こすためには、周囲の様子を反映したデジタルモデルをカメラから取り込むか、どこかからダウンロードしなければならない。(出典:Roland Smeenk

デバイスの自然な持ち方

モバイルARの黎明期には、ユーザーが目の高さまでスマートフォンを持ち上げてアプリを使う(このことをハンズアップディスプレイと呼んでいた)だろうと私たちは楽観的に考えていた。人の行動に変化を起こすことの難しさを過小評価し、スマートフォンを持ち上げている人を見た他の人も特にそれを気にしないだろうと考えていたのだ(グラスホールのことを覚えているだろうか?)。しかしARアプリをもってしてもこの状況を変えることはできない。つまり開発者は自然なデバイスの持ち方をもとにアプリを設計しなければならないのだ。

  •  デバイスを持ち上げる必要がある場合は、最長でも写真を撮るときくらいの長さにする。この持ち方は長時間利用するようなアプリではなく、疑問に対する視覚的な答えを見つけるようなものに向いている。

もしもタブレットやスマートフォンを写真のように持ち上げる必要がある場合は、1〜2秒間でおさまるようにする。(出典:GuidiGo

  • 普段のように下向きに45度の角度をつけて持つ。これはユーザーの目の前で小さなコンテンツ(高さが30〜60センチ程度のもの)を表示するのに適している。

この持ち方だと、ユーザーは一定時間にわたってアプリを使い続けられる。しかしスクリーンに映し出されるシーンは、デバイスを持ち上げた場合よりも狭く、面白みに欠けたものになる。

スマートフォンのセンサーを活用し、持ち方に応じてモードを切り替えるという方法もある。例えばデバイスが地面に対して水平な状態にあれば2次元の地図を表示し、垂直になった途端にARモードに切り替わってビジュアル検索機能が起動するといったアイディアが考えられる。NokiaのCity Lensアプリは2012年の段階で既にこのようなUIを採用していた。これは熟考する価値があるポイントだ。

スクリーン経由のインプット

アプリのテストを行っていると、ユーザーがまずスマートフォンの周辺に手を伸ばして画面に映っているものを触ろうとし、触れないとわかった途端に困ったような表情を浮かべる様子をよく見かける。これは面白いアプリができつつあるという証明でもあるのだが、それと同時に、コンテンツはユーザーから何十センチも離れたところにあるように表示されつつも、全てのインプットやインタラクションはユーザーの手の中にあるスクリーンを介して行われるのだということに気づかされる。

ユーザーは3次元でコンテンツを楽しんでいるのに、何かしらのアクションをとるには、またスクリーンという2次元の世界に頭を切り替えなければならないのだ。これは認知的負荷であるとともに没入感を損なうポイントでもある。その一方で、操作時に大きなジェスチャーが必要になったり、誰かが近くにいないといけなくなったりすると、それはそれで問題だ。

ユーザーが「目の前にある」にあるコンテンツを選んだり、両者の間にインタラクションを発生させたりするために、どんなアフォーダンスをUIに与えばいいのかというのは難しい問題だ。Dekkoのラジコンアプリでは、スマートフォンをコントローラーという現実世界にあるものに見立てることでこの問題に対処している。しかしDekkoで猿のキャラクターが登場するアプリを開発していたときや、SamsungでSamsung SmartHome製品の開発に携わっていたときは、全ての人がすぐに使い方を理解できるようなアイディアがなかなか浮かんでこなかった。

ラジコンのデザインコンセプトを利用することで、車とは別に手で持つコントローラーがあるはずだとユーザーに想起させることができた。その結果、スクリーンに触れながら、離れた場所に映し出された車を操作するというユーザーの課題を解決できたのだ。

単にコンテンツに「タッチ」できるだけでは、根本的な問題の解決にはつながらないということも覚えておいた方が良い。もしもMeta HMDやLeap Motionを試したことがあれば、触覚フィードバックがないと、ユーザーとコンテンツが分断されてしまうということがよくわかるだろう。個人的にはARへのインプットの問題こそ、消費者一般にARを普及させる上でまず解決しなければいけないことだと思っている。

現実世界の映像を加工する(VS透過型ディスプレイ)

映像を加工することで、仮想世界と現実世界の差が縮まり、UXの向上が図れる。上記のシーンに映った物のうち、何が現実に存在するもので、何がデジタルコンテンツなのか見分けられるだろうか? 加工の度合いが強まるごとに両者を見分けることが難しくなってくる。

透過型HMDと比べたときのスマートフォン向けARの特徴は、カメラのとらえた映像が「現実世界」としてスクリーン上に表示されるということだ。そしてその映像を加工することで、アプリ内の世界観の統一が図れる。Will SteptoeはFacebookに参画する前の2013年に素晴らしい研究を行い、現実世界の映像をわずかに加工することで、現実世界と仮想世界を見分けづらくなり没入感が増すという研究結果を発表した。これはARKitを使ったアプリ開発にも応用できる、かなり興味深いアイディアだ。

機能の切り替えにアプリのコンセプトを採用するVSネイティブAR UI

スマートフォン向けのARアプリは、(そもそものOSの性質としてデスクトップ画面が起動画面になるということもあり)モードを切り替えるときに「アプリ」を開いたり閉じたりするようなアクションをとることになる(メッセージアプリとゲームアプリの切り替えを例にとってみると、恐らくこのふたつをひとつのアプリに詰め込まれても不便だろうし、アプリに私が何をしたいのか推測してもらいたくもない)。なので(カメラ経由の)ARビューとそうでないモードは、ユーザーの意向に沿って絶えず切り替えられることになる。

つまりアプリの開発側はダイナミックなモード切替(建物にカメラを向けたときに、アプリが住所を表示しなければならないのか、それともYelpのレビューなのか、Truliaの価格情報なのか、建物の歴史なのか、中に友人がいるかどうかなのか)のことをそこまで深く考えなくてもいいということだ。さまざまなユースケースに対応するため、数え切れないほどの機能を搭載したアプリ(プラットフォーム的なアプリ)を開発するというのは魅力的なアイディアではあるが、ユーザーがほしいものを理解し、それを表示するというのはとてつもなく難しい問題なのだ(恐らくこの記事から何かしらの学びがある人には到底解決できないほど難しいだろう)。

スキューモーフィズム(実物に似せたデザイン)は良いこと

繰り返しになるが、ARは全く新しいメディアであり、ユーザーは単純にどうARを使えばいいのかわかっていない。インタラクションを設計する上ではさまざまな可能性があるが、ユーザーはその凄さには気づかないだろう。しかし現実世界にあるものをコピーしたようなデザインを採用すれば、ユーザーは直感的にアプリの使い方を理解できる。

Dekkoで小さな猿のキャラクターが登場するARアプリを開発したとき、キャラクター自体はかなり気に入ってはもらえたものの、ユーザーはそのアプリで何をすればいいのか全くわからなかった。しかしその後、猿のキャラクターからラジコンに方向転換し、本物のラジコンに似たコンテンツを準備したところ、もはやユーザーに何かを説明する必要がなくなったのだ。SamsungではAR空間で電話をとるプロトタイプを開発した。電話のとり方にはさまざまな方法(メッセージを握りしめたホグワーツのふくろうがユーザーの前に舞い降りるなど)が考えられたが、結局ユーザーテストでもっとも良い成績を残したのは、緑のマークで応答、赤のマークで拒否といったiPhoneの電話アプリとよく似たUIだった。

ここで重要なのは、恐らくARでは2Dではなく(影や透明度などで)奥行きを感じさせる3Dの新しいシンボルが登場するが、それを実物そっくりにする必要もないということだ。

ユーザーにとって全く新しいエクスペリエンスを提供する中で、現実世界の物に似たデジタルオブジェクトを準備するというのは良いアイディアだ。

シンボル化がうまくいっているかどうかを判断するには、ARに触れたことのないユーザーにアプリをテストしてもらうしかない。どれだけものごとをわかりやすく単純化しないと、何かしらの説明が必要になるという事実にきっと驚くことだろう。

目にするものを信じないユーザーのためのアフォーダンス

日常的にARテクノロジーに接している私たちにとって受け入れがたかったのが、目にするものを信じないユーザーの多さだ。彼らはデジタルコンテンツが「3次元空間」にあるのではなく、スクリーン上にあるだけだと考えていたのだ。

この点については、現実世界との繋がりを想起させるアフォーダンスや、かすかなシグナルを使うことで、アプリ内で一体何が起きているのかをユーザーに理解させることができるだろう。光源やダイナミックな影まで再現する必要はないが、少なくともドロップシャドウくらいは使わないといけない。デジタルコンテンツに加え、グリッド線などで現実世界に何かしらの目印をおくことでもユーザーの理解度は向上する。

Dekkoでもエッジに色のついたグリッド線を導入し、アプリが奥行きや3次元空間を理解しているということをハッキリさせ、さらに他のものを全て隠すことで、内部で何が起きているのかをユーザーにやんわりと伝えなければならなかった。こうすることでユーザーは、自分たちの信じていなかったようなことをアプリができるのだと理解できた。

その他には、デジタルコンテンツが現実世界のオブジェクトに衝突したり、行く手を阻まれたり、スマートフォンの動きやユーザーのインプットに反応したりする様子を表現することも、(実装は大変だが)コンテンツをリアルに見せる方法のひとつだ。トラッキングがズレることなく安定しているというのは、その一部でしかない。例えばキャラクターがAR空間を歩いているときに、一歩ごとにわずかにスライドしていることがよくあるが、これではユーザーは説得できない。同様に、キャラクターが現実世界の何かにぶつかったのに何の反応も示さないという場合もリアルさが損なわれてしまう。

逆にキャラクターとのアイコンタクトなどがあると楽しさが増してくる。ここではどのようなキャラクターを選ぶかということも大変重要だ。キャラクターがリアルであればあるほど、ユーザーが「正しい」と考える動きのハードルが上がってしまう。ARでは現実世界と仮想世界が混ざりあっているため、不気味の谷現象はアニメ映画よりもAR空間内の方が顕著に感じられる。私たちの経験によれば、できるだけリアルじゃない漫画っぽいキャラクターを選ぶことで、キャラクターの行動に関するユーザーの期待値が下がり、動きに多少の問題があっても見過ごされる可能性が高い。『ポーラー・エクスプレス』ではなく『ロジャー・ラビット』のように考えなければいけないということだ。

AR空間にアフォーダンス与える上での大きな問題としては、コンテンツのオーバーラップと情報の密度が挙げられる。ほとんどのデモでは、平らな場所でラベルがそれぞれから十分な距離を取って綺麗に並んでいる。しかし展示会のブースをデザインする人や建築家であればよくわかると思うが、動きながらでも読めるようなラベルやサインを3次元空間でデザインするのはかなり大変なことなのだ。

キャラクターやアセットのデザイン

HuckがデザインしたDekko Monkeyは本当にたくさんの人に気に入ってもらえ、アプリの誕生から3〜4年経った今でも知らない人にこのアプリについて尋ねられることがある。

どんなキャラクターやアセットを使うかについて考えていたときに、私たちは素晴らしいアプローチを思いついた。そして実は、今では私たちの考え方が業界全体に広がっているようなのだ。2010年にDekko Monkeyに関するさまざまな研究やユーザーテストを行ったSilkaは、「大人向けのピクサー」を目指してキャラクターをデザインすればいいのだという結論にたどり着いた。不気味の谷を越えず、かつある程度のアフォーダンスが残されていて、洗練されつつもポリゴン数の少ないキャラクターだ。このようなキャラクターのスタイルは、どんな性別や年齢の人にも馴染みがあり、さらには国境や文化の壁をも越える可能性を秘めている。

そこで彼女はKidRobotのビニール人形をデジタル化したようなキャラクターこそがピッタリだと考え、KidRobotのトップデザイナーHuck Geeに連絡をとった。結局彼がDekko Monkeyをデザインしてくれることになり、今では私の良き友となった(彼は本当に優秀なデザイナーでARキャラクターの制作にはピッタリの人物なので、もしも彼に連絡したい人はまず私にコンタクトしてほしい)。

数年後には、PentagramのNatasha JenがMagic Leapのデザインで(KitRobotの人形も含めて)ほぼ同じ結論にたどり着いた。彼女の考えにも興味がある人はこちらの動画見てみてほしい(30分前後の時点から)。

最新のARCoreのデモにも似たスタイルのキャラクターが登場する(特にWizard of Ozのキャラクター)。

最後に

私たちの経験をこの記事で共有することで、ARアプリの開発を考えている人たちがイテレーションサイクルを何回かスキップできるとともに、ユーザーを魅了するようなプロダクトが早く市場に登場することを願っている。YouTubeには10年近く前から素晴らしいコンセプトのデモ動画がアップロードされているが、私は素晴らしいプロダクトを実際に試したいのだ。両者の間には多くの人が思っているよりもかなり大きな差がある。

終わりの言葉として開発者のみなさんに覚えていてほしいのが、「経験豊かなAR、UXもしくは工業デザイナーを幹部に招き、あとは全てについてユーザーテストを繰り返す」ということだ。

グッドラック!

謝辞

この記事はAR UXに対する造詣が私よりも遥かに深く、それぞれ少なくとも5年間はARプロダクトのUXに関する課題に取り組んできた以下の人たちの協力なしには実現しなかっただろう。

  • Charlie Sutton:以前はSamsungのARチームでデザイン部門のトップを務め、それ以前にはNokiaでARプロダクトのデザインチームを率いていた(あまり知られていないが、Nokiaは2000年代後半にAR界の最前線を走っており、現在でも世界トップレベルのAR関連特許数を誇る)。現在はFacebookに勤めている。
  • Paul Reynolds:開発者・デザイナー向けに、AR・VRネイティブアプリの開発を簡素化するためのTorchというシステムを開発している。以前はMagic LeapでSDKチームのトップを務め、アプリとプラットフォームの中間にあるようなARプロダクトの開発にあたっていた。
  • Mark Billinghurst:世界トップレベルのAR研究者で、AR空間でのインタラクションに関する分野では知らない人がいないくらいの伝説的な人物。研究歴は20年以上におよび、ARやVRに関する本や論文のほぼ全てに彼の研究内容が引用されている。以前はHIT Lab NZに、現在はアデレードのEmpathic Computing Labに勤務しており、彼の研究のほとんどはこの2つの機関のウェブサイトに掲載されている。私にとっては良い友人であり、Super Venturesのパートナーでもある。
  • Jeffrey Lin博士:視覚から得た情報が脳でどのように表現されるのかという研究で世界的に有名な専門家。研究内容を応用し、以前はValveとRiot Gamesでプロダクトデザインに携わっていた。現在はMagic Leapでデザインディレクターを務めている。彼のMediumポストはARデザインに関する有益な情報で溢れている。
  • Silka Miesnieks:私の妻であり、2009年以降ARプロダクトの開発に取り組んでいる。私とともにDekkoを創設し、まだAR業界の人々が考えてもいないようなARのUXに関する問題を解決してきた。現在はAdobeのDesign Labに勤め、非エンジニア向けのイマーシブデザインツールの開発に携わっている。

この記事にもしも何か誤りがあれば、それは上記の人たちからのアドバイスをうまく表現できなかった私に全責任がある。ぜひ彼らをソーシャルメディア上でフォローして、何か質問があれば尋ねてみてほしい。そして願わくば、新しいプロジェクトに彼らを引き込んで、彼らが今の仕事をやめてしまうくらいのことが起きてくれれば幸いだ。

原文へ

(翻訳:Atsushi Yukutake

ソフトバンク、滴滴らUberに大型投資へ――会社評価額は700億ドル前後

日本のソフトバンク、アメリカの投資グループ、Dragoneer、中国最大のライドシェア・グループ、Didi Chuxing(滴滴出行)はジョイント・ベンチャーを通じてついにUberへの投資を実施することになるという。

情報源がTechCrunchに語ったところによれば、Uberに対する株式公開買付けの実施は今月末を目標として準備が進められており、 これにはUberへの直接投資に加えて社員、初期投資家の株式の買い上げも含まれるという。

Uberに対する大型投資の提案が取締役会で検討されていることが最初に報じられたのは1月前のNew York Timesの記事だった。TechCrunchが得た情報によれば、この投資は実施される可能性が高いだけでなく、何千人にも上る社員の売却可能な持ち株を買い上げるという株式投資の歴史上、最大となる市場外取引を含むことになりそうだ。

BloombergはUberは$20億ドルから100億ドルに上る投資を受け入れることになるだろうと報じていた。TechCrunchの得た情報では、投資額はこの数字の上限近く、80億ドルから100億ドルになるもようだ。

投資プロジェクトをリードするのはDragoneer、Didi、ソフトバンクだ。ことにソフトバンクはビジョン・ファンドの1000億ドルの資金が利用できる。しかしGeneral Atlanticも参加することになるという情報を得ている。この投資を実施するために特別の組織(special purpose vehicle)が組成されているという。

Uberはこの問題に対するコメントを避けた。

今回の投資ラウンドはきわめて重要なものとなる。投資額そのものも巨大だが、非公開企業であるUberにとってこのラウンドの会社評価額は700億ドル前後になる見込みだからだ。最近のトラブルにより、Uberの企業文化について正式の調査が行われ、その結果、共同ファウンダー、CEOのトラビス・カラニックを含む多数の幹部がUberを離れることとなった。これによりUberの企業評価額は下がるだろうという観測がなされた。しかし現実には大幅にアップしたことになる。

また今回の投資が実現すれば、初期の投資家と多くの社員が持ち株を現金化するチャンスを得る。Uberは長年にわたってこうした持ち株の売却に制限を加えており、社員はストック・オプションなどの形で得た報酬を現金化することが困難だった

Uberのポリシーが厳しい批判を浴びるようになり、今年に入って同社は株式の買い戻しを実施した。情報によれば、Uberは先週、2度目の買い戻しを完了した。対象は持ち株を最大20%まで売却する権利を得ていた数百人の社員だという。

今回報じられた投資が実現すれば、保有株式の現金化(liquidity event)についてUberが受けていた圧力を緩和するのに大いに役立つだろう。新CEOのダラ・コスロシャヒはUber社員に対して「株式上場は18ヶ月から36ヶ月先」だと発言している。

2010年以来、90億ドルを投資してきた株式保有者はこの新たな大型投資の提案を喜ぶはずだ。株式の買い上げが実施されれば紙の上の価値に過ぎなかったものが現金化され、数多くの富豪が誕生するだろう。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

iPhone 8にはAppleが設計した独自のGPUが新しいA11 Bionicチップとともに載っている、機械学習のためだ

iPhone 8のカメラには、A11 Bionicという新しいチップが載っていて、それは6-coreチップを上回るパワーを秘めているが、今日(米国時間9/12)の発表でいちばん重要なのは、たぶんそこではない。

AppleがiPhone 8に載せたのは、独自に設計したGPUなのだ。GPUの、大量のコアの配列を動員する高速かつ強力な計算力は、自然言語処理や画像認識など機械学習のタスクにうってつけだ。ハイスペックなGPUはもちろんゲームにも向いているが、デバイスの配列をベースにしてSiriのエコシステムに人びとを閉じ込めたいAppleにとっても、これ〔カスタムGPU〕は大きな一歩だ。

ここまでの道も、長かった。4月には、AppleがiPhone用の独自のGPUを設計している、と囁(ささや)く声があった。機械学習のためにカスタムハードウェアやGPUを作って、ハードウェアをそのニーズに向けて最適化しようとしているのは、Appleだけでなない。しかしAppleにとっては、Siriとカメラと今後の機械学習ツールのために最適化されたツールを作ることが目的だ。

それにまたこれは、拡張現実におけるAppleの取り組みにとっても重要だ。デベロッパーには、拡張現実を開発するためのツールを提供して彼らの気を引きたい。またスマートフォンが高品質な消費者体験をサポートして、その魅力を一層高めれば、それもより多くのデベロッパーの心を捉える。

一方A11 Bionicの重要な特長は、下図に‘表示’されている:

Appleは通常、スマートフォンのアプリやそれが取り扱うプロセスの高度化ニーズに対応して、プロセッサーの高速化と効率化に努めてきた。でも今回独自のGPUを使うようになったことは、長年その部分を独り占めしてきたNvidiaを袖にすることだから、重大事件だ。しかもそれは今後、デベロッパーにとっても重要な意味を持つ。

今回本誌TechCrunchは、iPhoneイベントの記事やライブブログがめちゃめちゃ多いから、ぜひお楽しみいただきたい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))



Rolls-Royceがパトロール、監視、そして機雷探知をおこなう自律型軍艦を設計中

Rolls-Royceは、パトロール、監視、機雷探索、艦隊スクリーニングが可能な自律型軍艦を設計している。この船の最新バージョンは、全長60メートルで100日間の航行が可能だ。最高速度は25ノット以上で、船がカバーするのは3500海里(6500キロ)の範囲だ。

同社は、人が操船する大型の船が、小型の自律船と協働する将来を見据えている。旧来の手動操作の自動化は、コストの節約と安全性の向上を同時に達成できる可能性を秘めている。

しかし、人間が乗っていなければ、障害が起きたときに物理的に対応できるものがいないことになる。Rolls-Royceによれば、解決できないメンテナンス問題の数を減らすために、パワーシステムと推進システムの信頼性向上を最優先としているということだ。これが意味することは、ある程度の機械的冗長性を追加し、機械学習を用いた予測機能を備えた遠隔保守能力を実装するということだ。

このRolls-Royceの船舶は、太陽電池を搭載し、船が待機モードに留まることのできる時間を延長するための電力を生成するように、設計されている。船には完全電力推進システムが装備されている。

自律船自身は新しいものではない。かつてDARPAはLeidosと協力して、潜水艦を密かに追跡する自律船を設計し、開発した。今回のコンセプト実証実験の結果、この船の運航コストは、有人船舶よりも大幅に安価だった。

自律的な船は、サイバー戦争によって直面させられる脅威から十分に保護されている必要がある。Rolls-Royceは、これらの脅威には特に注意を払っていると語っている。成熟しつつあるコンピュータビジョンとセンサ技術の下で、サイバー攻撃とダウンタイムは実装上の最大課題の1つだ。

現時点では誰が船の購入に興味があるのか​​は不明だ。Rolls-Royce plcは英国に本拠を置いている。

[ 原文へ ]
(翻訳:Sako)

Soundchartsは音楽アーティストとレーベルのための分析ツール

フランスのスタートアップSoundchartsは、音楽アーティストのためのApp Annieのようなものを構築している。このサービスは、世界中のラジオで何が再生されているか、Spotifyプレイリストなどで何が人気があるのかなどのデータを、大量に提供してくれる。同社はAlven CapitalKima Ventures、そしてGlobal Founders Capitalから、310万ドル(265万ユーロ)を調達したばかりだ。

多くの大手ミュージックレーベルは既に、多くの企業と協力してラジオ放送に関する洞察は得ている。彼らは、例えば、こうしたデータにアクセスするために、ニールセンに大金を支払っている。

Soundchartsが狙うのは、この世界を平等にしてより多くのデータを追加することだ。多くの人は新しい音楽を見つけるためにラジオを聴くことはしない。彼らはSpotifyで人気のあるプレイリストを購読し、Facebookやその他のでアーティストをフォローする。もしゲームに先行したいなら、放送だけでは十分ではない、少なくとも最早十分ではないのだ。

「私たちは音楽の世界のブルームバーグになりたいのです」と、創業者でCEOのDavid Weiszfeldは語った。「あるいはApp Annieがアプリケーションのためにやっていることをしたいと思います」。

Soundchartsは世界中にサーバーを設置し、同時に何百ものラジオを聴いている。これらのサーバーは、Shazamのような音楽認識技術を使用して、オーディオ信号を構造化データに変換している。

この方法で、国別、放送局別、アーティスト別、または曲別にブラウジングし、誰が何を再生しているのかを見ることができる。自分のところのアーティストを競合相手と比較することができ、何が人気があるのかを始めとする多くのものを知ることができる。音楽フェスティバルのプログラム担当者にとっても良いツールである。

SoundchartsはSpotifyのAPIを使用して、すべての公開プレイリストのインデックスを作成し、その変更を追跡している。という訳で、チャーチズの曲がSpotifyの公式プレイリストに追加されると、Soundchartsの中でそれを見ることができる。また、一般的なトレンドを探している場合には、このサービスはプレイリストの伸びも追跡している。ダブステップが復活しているかどうかを、すぐ知ることができるようになる。

そして、SoundchartsはFacebookの「いいね!」を追跡し、国ごとに集計し、その成長について教える。世の中にはソーシャルメディア分析サービスは数多く存在するが、これはSoundchartをワンストップショップにする良い方法だ。誰もがすべてのデータにアクセスできるため、これは自分のところのアーティストに限定されない。

これまでのところ、250社が既に提携していて、その中には独立系レーベル、出版社、マネジメント会社はもちろん、ユニバーサルミュージック、ソニーミュージック、ワーナーミュージックに勤務する従業員なども含まれている。これらの企業は、継続的にサブスクリプションを支払ってSoundchartsにアクセスしている。

  1. dashboard_airplay.png

  2. dashboard_playlists.png

  3. dashboard_social.png

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: ANNETTE SHAFF/SHUTTERSTOCK

Test IOのQAサービスに、開発ツールJiraからの直接アクセスが可能に

現代の「急げや急げ」アジャイル開発環境の中では、ソフトウェアの品質保証テストは控え目な場所に追いやられることもある。この不協和な状況に対してTest IOのようなオンデマンドテストスタートアップが参入してきている。開発者たちが有能なQAテスターたちに​​簡単にアクセスできるようにするサービスだ。

このたび同社は、Test IOサービスを、Atlassian Jira開発ワークフローツールに直接組み込む、新しいプラグインを発表した。このツールはAtlassian Marketplaceで入手できる。

インストールしたなら、開発者たちは単にJiraインターフェイスにあるTest IOボタンをクリックして、テストパラメータを選択し、ワークフローを開始するだけだ。するとサービスは、開発者が要求する必要な専門知識と機器を持つテスターを選定する。と、Test IOのCEOであるPhilip Sofferは説明した。

Sofferによれば、3万人の審査済みソフトウェアテスターからなるチームを擁していて、テスターたちは人間のスーパーバイザーによってある安定したテストレベルに達するまでクロスチェックを受けた者たちということだ。それぞれのテスターは、その品質、可用度、その他の要素によってランク付けされる。プログラマーが特定のスキルと機器を持っている人を問い合わせると、それらは要件に合致する、現在オンラインで対応可能な最も有能な人物にルーティングされる。2つ以上のスキルが必要な場合には、テストリクエストは同時に複数のテスタにルーティングされる可能性がある。ここでのアイデアは、実世界のテスト条件下で、可能な限り迅速かつ正確にQAを完了させることだ。

レビューが完了すると、問題を示すスクリーンショットとスクリーンカムムービーを添えたレポートが、問題のリストとともにプログラマーに直ちに送り返される。開発者は、レビューに関する質問があれば、インターフェースの中でテスターと直接コミュニケーションを取ることができる。

スクリーンショット2017-09-11 14.53.51.png

写真:Test IO

Test IOの顧客の70%がJiraを使用していることを考えれば、同社がサービスにアクセスするためにできるだけシンプルにすることは理にかなっている。Jiraプラグインがない状況では、開発者はブラウザを開いてTest IO Webサイトにアクセスし、サインインし、テストパラメータを選択し、テストする材料をアップロードする必要がある。プラグインを使えば、そうしたものの多くは組み込みツールによって処理され、プログラマたちはテストのリクエストや結果のレビューを行うために、Jiraから離れる必要はない。

Test IOは2011年にベルリンで創業し、現在もそこにオフィスを構えているが、現在の本社はサンノゼに置かれている。Sofferによると、スタートアップは毎年収益をほぼ2倍に伸ばしており、2015年には500万ドルの資金を調達している

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: HERO IMAGES/GETTY IMAGES

Googleはどのようにして重複コンテンツの排除を行っているのか?

私たちが検索を行って、Googleが検索結果を返すまでにはいくつかの過程があります。
クローラーがwebページを巡回して新しいページを発見する「クローリング」、
検索エンジンのデータベースに登録して呼び出せるようにする「インデキシング」、
検索ワードに基きインデックスされた情報を用いて結果を表示する「クエリプロセス」
の3つのプロセスです。
今回は、SEOに大きく影響を与える「重複コンテンツの排除」が、この3つの中のどの過程で行われているのかについての記事です。– SEO Japan


google-duplicate-content-detection

Googleがどのように複製コンテンツを検索結果から排除したり、隠したりするかについては、たくさんの興味深い質問や回答がある。インデキシングの段階で行われるのか、それともクエリプロセスで行われるのか、はたまたその両方で行われているのか?

Googleのゲイリー・イェーシュ氏はTwitterで、「このトピックは、ブログで記事が書かれるだけの価値がある。自分か、Googleの誰かが書くべきだ」とつぶやいた。複製コンテンツは、常にウェブマスター、出版者、SEO業者らが意識しており、またSearch Engine Roundtableでも恐らく100回以上取り上げている内容だろう。

インデキシングから、検索結果を返すまでの検索過程で、Googleが複製コンテンツ、複製行為などにどのように対応しているのか?それを知ることはとても有益だ。

このトピックについてゲイリー氏はこのようにつぶやいている。


[質問者]
canonicalの処理はクエリ単位かページ単位かどちらで行われていますか?(私はクエリ単位ではないかと考えています)
[ゲイリー氏回答]
これに関してはページ単位で行ってます。例えばページAがページBと比較されているとします。コンテンツ同士が戦い、そしてオークションを行い、勝者がcanonicalになることができます。

 

 


[質問者]
この「勝者」は、どの検索クエリが使われたかに関係なく、半永久的なステータスなのでしょうか?(つまり、いつ「オークション」は発生するのでしょうか?)
[ゲイリー氏回答]
オークション、canonical処理は、インデックスされたコンテンツが半永久的に勝者になる前の、インデキシングの過程で行われます。

 

 


[質問者]
ありがとうございます!それではこのボタンは検索結果では隠れていたcanonicalを明らかにするのでしょうか?それとも別の何かをするのでしょうか?(検索語に依存するので)pic.twitter.com/qt6YxZdd0G
[ゲイリー氏回答]
これは別々のメカニズムです。基本的に、もしインデキシングの段階で複製コンテンツを排除できなかった場合は、「&filter=1」を使って対応します。

 

お分かりなられたと思いますが、Googleはインデキシング中はもちろん、クエリプロセスでも複製コンテンツに対応する可能性があります。またゲイリー氏が、Google内の他の検索結果と類似していることを表す「&filter=1」をどのように書いているかも注目。

このトピックはGoogleがカバーするのにとてもテクニカルで、興味深いトピック。本投稿はそれを支持しています。


この記事は、Search Engine Roundtableに掲載された「Google: Duplicate Content Elimination」を翻訳した内容です。


 

ご存知の通り、重複コンテンツはWebサイトにとって望ましいものではありません。
また、理解しているつもりでも絶対URLではなく相対的URLで書いてしまったり、
wwwの有無で統一していないと、重複コンテンツとみなされる場合もあります。
これを機に、canonicalタグの見直しなど行われてみてはいかがでしょうか?
— SEO Japan

iPhone 8のカメラのポートレートライティング機能でプロがスタジオで撮ったような高級感ある写真を作れる

iPhone 8のカメラには、これまでのポートレートモード(Portrait Mode)に加えて、“ポートレートライティング”(Portrait Lighting)という新しい機能がある。この機能は機械学習を使ってカメラの画像をリアルタイムで分析し、それに基づいてプレビュー段階またはPhotosアプリで撮影後に、ライティングの効果を変えられる。

iPhoneでAppleは、人が気軽にいつも持ち歩くようなカメラに高度な撮影効果を持たせようとしているが、これもその一環だ。昨年のポートレートモードでは、人工的なボケ効果で背景をぼかし、被写界深度を変えたような写真を作れた。そして今回のイフェクトは、人工的にライティングを変えて、まるでプロの写真家が高価な照明装置のあるスタジオで撮ったような画調を作り出す。

Appleは、これがフィルターの一種ではないことを強調している。シーンを分析して、その結果に基づいて画像情報を自動的に調整するのだ。たとえば、いろんな部分の露出やハイライトを変えて、ダイナミックなライティング効果を作り出す。

今日(米国時間9/12)見たデモでは、顔の輪郭を明るくするとか、額(ひたい)などのハイライトを変えて単灯のステージライトが当たってる感じにしたり、顔をグレースケールにしてほかのものを黒っぽくフェードさせる、といった効果を見た。

この超クールなイフェクトは、iPhone 8 Plusのデュアルカメラを必要とする。だれもかれもがこの機能を使い始めたら、Instagramのフィードが、一見すごい上手な写真ばかりになるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))



カメラテスト専門のDxOMarkにとってもスマホカメラのテストは曲者、次々と新しいテスト項目が加わる

カメラを試験することがDxOMarkの仕事だが、DSLRやミラーレスは最近目立った変化や進歩や新しい機能がなくなってきたのに対し、スマートフォンなどモバイルのカメラは違う。デュアルレンズや光学ズームなど、各社がさまざまな新しい機能で競争に明け暮れているから、それらを試験して点をつける側も、日に日に新たなテスト用セットアップが必要になる。同社は最近の評価要素の構成を、このページで紹介している。

まったく新しいテストが二つあり、そして前からのテストも一部が更新された。

まず、スマートフォンカメラのズーム機能や、焦点距離の異なる複数のカメラの使用に対しては、もちろんズームのパフォーマンスをテストする。光の条件によっては、カメラ1台の方が良いのか。特殊なイフェクトや機能があるのか。モードによって優劣はあるか。などなど。

新しいテストの第二は、DxOMarkが“Depth Effects”と呼ぶイフェクトだ。いちばんよく知られているのは、iPhoneの“ポートレートモード”だろう。ユーザーの顔や体を検出し、背景をぼかす。そうすると、被写界深度が浅いような写真になる。この処理がお粗末な機種では、像が歪んだり、前景がぼけたりする。このイフェクトのスムーズさと正しさを、いくつかのテストで判定する。

合成画像は、それを“HDR”と呼んでいる機種もあるが、それは正しくない。露出の異なる複数の画像を組み合わせるのだが、これには新しい評価測度が必要だ。たぶんフレーム合成技術は、速い(明るい)レンズや感度の良いセンサーで、日常の利用に耐えうるものになるのだろう。

同社が、次に加えようとしている評価項目は、ぼくにとっても嬉しいものだ。それは、動きの捕捉の速さだ。ぼくの場合は、あまりにも多くの場合に、カメラのボタンを押したら、ねらった動きの直後しか撮れていない。まばたきをしているとか、おかしなポーズになってるとか。この、シャッターチャンスの遅れを調べて点をつける。被写体や撮影者の動きを、どのカメラが、正しく捉えているだろうか。

同社の新しいテストのセットアップを、ここで見ることができる。また評価や比較のやり方は、ここに説明されている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Apple、ワイヤレス充電パッドAirPowerを来年発売

AppleはAirPowerという名前の新しい充電パッドを開発中だ。今日発表されたiPhone 8またはiPhone XとApple Watch、さらにはAirPodsの新しい無線充電ケースも載せることができて、ケーブル無しで3つ同時に充電できる。ただし、手に入れるには2018年まで待たなくてはいけない ―― Appleは来年早くに発売すると言った。

AirPowerマットは、複数デバイスの充電が可能な新しい標準を利用する。今すぐ出荷しない理由がそれで説明できるかもしれない。おそらく量産体制にはいるまでにすべきことがあるのだろう。今日の発表前にそんな噂が流れていた。

AppleのAirPowerは、真のワイヤレスデバイスの普及を大いに促進するだろう。なぜなら今のワイヤレス充電には不便なことがおおいからだ(パッド1枚につき1台しか充電できない、置き方に制限があるなど)。出荷時期についてはチェックを続ける。値段(未発表)次第ではあるが、Appleはかなりの数を売るだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook