FacebookがChromeブラウザのAPIに初めて貢献

Facebookは米国時間4月22日、GoogleのChromeブラウザのAPIに対して、初めて大きな貢献を果たしたことを発表した。

Facebookのチームは、Googleと共同で、ブラウザにコードを提供するためのAPIプロポーザルを作成した。これはFacebookとしては初めてのこと。このコードは、ウェブ上のツールや標準に関するFacebookの他の多くの仕事と同様に、ユーザー体験をスムーズかつ高速にすることを目指したもの。このAPIの場合、ユーザーがクリック、またはキーを操作してから、ブラウザが応答するまでの時間を短縮する。

この新しいシステムの最初の試験的な実装はChrome 74とともにリリースされる予定だ。

一般的に、ブラウザのJavaScriptエンジンは、コードの実行を制御している。そして、応答しなければならない入力が保留になっていないかどうかを確認するため、一瞬コードの実行を停止することもある。マルチコアのマシンで動作する最新のJavaScriptエンジンも、基本的にはシングルスレッドで動作する。そのため、実際にはエンジンは1度に1つのことしか実行できない。そこで、入力イベントを確認しつつ、コードの実行をどのように組み合わせるかということがカギとなる。

「他の多くのサイトと同様に、私たちもJavaScriptを小さなブロックに分割することでこの問題に対処しています。ページがロードされている間も、若干のJavaScriptを実行し、その後にブラウザに制御を戻すのです」と、Facebookチームは発表の中で説明している。「ブラウザは、そこで入力イベントのキューをチェックして、ページに通知する必要のあるものがあるかどうかを確認できます。その後ブラウザは、JavaScriptのブロックが読み込まれる都度、それらを実行する動作に戻ります」。

ブラウザがこのようなサイクルで動作している際に、新しいイベントをチェックして、その処理に入ると、わずかながら余計な時間がかかる。それが何度も積み重なると、ページのロードが遅くなる。とはいえ、入力のチェックのインターバルを長くすると、こんどはブラウザの応答が鈍くなるので、ユーザー体験が劣化してしまう。

これを解決するため、FacebookのエンジニアはisInputPendingというAPIを作成した。これにより、上のようなトレードオフをする必要がなくなる。Facebookは、このAPIを、W3Cのウェブパフォーマンスのワーキンググループにも提案した。これを利用すれば、デベロッパーは保留中の入力があるかどうかを、コードの実行中に確認できる。

これにより、コードは応答すべきものがあるかどうかを自分でチェックできるようになる。ブラウザに完全に制御を戻さなくてもよく、さらにそこからJavaScriptエンジンに入力を引き渡す必要もない。

現時点ではこれはまだ試験的なもの。デベロッパーは、このAPIを自分のコードに組み込む必要があるため、Chrome 74のリリース後に、自動的にブラウザの動作が速くなるというわけではない。この試行が成功すれば、もちろんデベロッパーはこのAPIを利用するようになるだろうし(もちろんFacebookは自ら利用するだろう)、他のブラウザベンダーもそれぞれのエンジンにこのAPIを実装するようになるはずだ。

「ChromeにisInputPendingを導入するプロセスは、Facebookにおいてウェブ標準を開発する新しい方法を象徴するものです」とチームは言う。「私たちは今後も新しいAPIに取り組み続け、オープンソースのウェブブラウザへの貢献を増強したいと考えています。将来的には、このAPIをReactのコンカレントモードに直接組み込むことも可能となるでしょう。そうすれば、デベロッパーはこのAPIのメリットを、自動的に享受できるようになります。さらに、isInputPendingは、スケジューリングに関するプリミティブをウェブに導入するという大きな流れの一環なのです」。

画像クレジット:Getty Images上のAlexander Koerner/Getty Images

原文へ

(翻訳:Fumihiko Shibata)

顧客エクスペリエンス事業を強化するAdobe

マーケティング担当者たちは、顧客をよりよく理解し、カスタマイズされたインタラクションを提供し、最終的に売上を増やすために、長年にわたりオンラインショッピング体験を最適化してきた。人工知能がそれを加速すると期待されてきたが、今日(米国時間9月10日)Adobeは、Adobe TargetとAdobe Experience Managerの強化を発表し、少なくとも部分的にその約束を実現しようとしている。

Adobeはここしばらく、その企業向けビジネスの強化に注力してきた、彼らは100億ドルの企業になるための道を順調に進んではいるものの、企業側からのさらなる収益の可能性は残されたままだ。彼らはそれをさらに推し進めるために、AIに大いに頼ろうとしている。

AdobeのLoni Starkは、企業はカスタマイズと最適化に関するより洗練されたソリューションを求めていると語る。その中には、マーケティング担当者がプログラムを調整してより良いエクスペリエンスを生み出すのを助けるために、Senseiと呼ばれるAdobeのインテリジェンスレイヤーを使用することが含まれている。

まず手始めに同社は、ユーザーが任意の一連のタスクに対して最適なアルゴリズムを選択する手助けをしたいと考えていいる。Adobeは、昨年Auto-Targetと呼ばれたツールをリリースして、AIによる支援を持ち込んでいる。「マーケティング担当者が直面してきた課題の1つは、どのアルゴリズムを使用するのか、そしてそれをどのようにパーソナライズ戦略にマップすれば良いのかです。Adobe Senseiによって、最高のアルゴリズムを選択することができます」。彼女は、マーケティング担当者たちに選択のためのスマートアシスタントを提供することで、このタスクが遥かに負担の少ないものになるという。

Adobeはまた、3月のAdobe Summitで初めて導入された、Smart Layoutsと呼ばれる新しいツールを使って、レイアウトデザインにある程度のスマートさを導入している。ここでのアイデアは、マーケティングチームがパーソナライゼーションの規模を拡大し、行動を起こす可能性を高める(つまり購買につながる)ことができるように、どの時点でも適切なレイアウトを提供しようというものだ。

ここでも、同社はAIにプロセスをガイドさせ、サイト訪問者の任意の時点での振る舞いに応じて、異なる対象層に対して異なるレイアウトを生成させる。すなわち、訪問者がショッピングプロセスを辿る際に、小売業者は知っていることに基いてより細かいページを提供できるようになる筈だ。よりカスタマイズされたエクスペリエンスを提供できれば、買い物客が実際に購入してくれる可能性が高くなる。

Adobeは、Amazon Alexaのようなデバイスが徐々に普及するにつれて、新しい配信チャネル、特に音声を使ったものを検討している。ウェブ、モバイル、プリント、その他の配信アプローチと同様に、マーケティング担当者たちは、異なる音声やワークフローに対してA/Bテストなどの基本的なタスクを適用する必要があり、Adobeはこれらをツールに組み込んでいる。

これらの新機能はすべて、顧客の業務を楽にするために、マーケティングツールを合理化し続けるAdobeの継続的な試みの一環である。人工知能を使用してワークフローをガイドすることで、彼らはデジタルエクスペリエンス部門からより多くの収益を得ることを期待している。これらのツールは役に立つはずだが、それでもAdobeはまだCreative Cloudから大部分の収入を得ている。6月に出された最新のレポートによれば、四半期の総収益22億ドルのうち、デジタルエクスペリエンス部門が占めるのはまだ5億8600万ドル(前年比18%増)に過ぎない。

AdobeはMagentoを獲得するために、5月に16億8000万ドルという大金を費やした 。彼らは9月18日に次の四半期レポートを報告する予定である。Magentoの買収と人工知能の利用の増加が、ビジネスのこの側面を拡大し続けるのに役立っているかどうかを見ることは興味深い。

[原文へ]
(翻訳:sako)

写真提供: John Lamb / Getty Images

TeslaはModel 3のAutopilotの操作インタフェイスを使いやすくした

Model 3はAutopilotのコントロール方法が変わった。最近のアップデートでは、コントロールがインフォテインメントのスタックからステアリングホイールへ移った。それまでドライバーは、大きな画面を見ながらAutopilotのスピードや走行距離を変えていたが、その操作をするとき目が道路を離れてしまうのだ。

Model 3は、ミニマリズムの極地だ。そのために同社は、最良のインタフェイスをまだ模索しているようだ。たとえばModel 3では、ステアリングホイール上のコントロールは意図的に特定の機能に奉仕せず、車の役割に応じて変わるのだ。

2018.12のアップデートでは、右手のスクロールホイールが車のスピードを変え、その横のボタンが車間を変えるようになった。最新のコントロールは既存のコントロールを変えず、むしろそれらを補う。

Model 3の本誌のレビューでは、コックピットの簡素な設計に注目して、その長短を指摘した。前方視界に邪魔物がないのはすばらしいし、子どものころのソープボックスダービーで坂を転がっていくときのような、ピュアなドライブ体験が得られる。路面への接触感覚がとてもリアルだ。でもしかし、中央のタッチスクリーンへの依存が大きすぎて、単純なコマンドでも目が道路から離れることがよくある。

Autopilotがらみの死亡事故以降、Teslaに注がれる世間の目はますます厳しくなっている。今回のようなアップデートで同社は、オーナーの意見を取り入れてアップデートを実践していることを、見せつけようとしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

iPadをMacのセカンドスクリーンにするAstroのLuna Displayではカメラがメニューを呼び出すボタンになる

AstroのハードウェアドングルLuna Displayは、iPadをワイヤレスでMacのセカンドスクリーンにしたい、と思っていた人にとって夢のデバイスだ。今回同社はこれをアップデートして、iPadの前面カメラをいろんな状況で使える便利なボタンに変えた。これにより、画面上のユーザーインタフェイスを混雑させることなく、いろんな機能にアクセスできるようになる。

Luna Displayは小さなUSBドングルで、Macに挿入して使う。するとそれがiPad上のアプリと対話して、コンピューターのセカンドスクリーンに変える。遅延はないし、グラフィクスの醜い劣化もない。プロトタイプを試してみたが、彼らの宣伝どおりに動作し、そしてタッチ入力やApple Pencilも使える。

そして今度実装されたCamera Buttonは、AstroがLunaに新たに加えようとしたUI機能を画面から隠し、クリエイティブのプロやパワーユーザーとって、機能が増えても使いやすさを維持する。たとえば画面の明るさや表示の並べ方を素早く調節するためのメニューは、iPadの前面カメラの上に指を置くと、Lunaのアプリがサイドバーメニューをさっと出して、また指をカメラに置くとさっと隠す(上図)。

それはiPadのハードウェアのとってもクールな使い方で、面倒なアドオン・ハードウェアやBluetoothのアクセサリなどなくても、ボタンでないものがボタンになる。指を置くとき画像はぼかされるので、指紋などからプライバシーが漏れるおそれはない。カメラをその目的に使いたくない人は、iPadのボリュームボタンを代わりに使える。

結果は万々歳で、ハードウェアのおかしな使い方を毛嫌いするAppleさんも、これだけはぜひ許していただきたい。LunaはまだKickstarter上にあって、発売はしていない。支援者へのディスカウント提供は、あと1週間ぐらい続くだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

iOS 11のサポートでQR、NFCに北米で復活のチャンス

今のところ世間の注目はピカピカの新iPhoneに集まっているが、iOS 11がわれわれの手元に届くのはそれより早い。9月19日にはモバイルOSのメジャーアップデートが実施され、対応するiPhone、iPadにインストールできるようになる。多くの新機能が用意されており、特にiPad、iPad Proのアップデートは大幅だ。

しかしiOS 11については、マスコミがあまり注目しない2つの新機能が将来のモバイル体験、ひいてはマーケティング全般を大きく変えることになるかもしれない。

iOS 11の2つの機能というのは、デバイスのカメラ・アプリから直接利用できるネーティブQRコード・リーダーとNFCチップのサポートだ(これまでNFCの利用はApple Payのみに制限されていた)。iPhone 7以降のアプリはNFCが利用できることを求められる。iPhone 6、6s以降のデバイスはApple Pay用のNFCチップを搭載していたものの、やはりこれは近接コミュニケーション・テクノロジーにおける大きな進歩だ。

その理由はこうだ。QRコードとNFCはモバイル・デバイスを現実世界に接続するためにきわめて有効な方法だ。QRはもちろん10年以上前からこの目的にために使われてきた。特にアジア市場では驚異的な普及をみせている。NFCもAndroidスマートフォンでは以前からサポートされていた。クレジットカードより偽造が難しく、交通機関における料金支払やショップでアイテムの購入に利用できる。また 公共施設のターミナルにスマートフォンをかざすだけでランドマークの情報を得られるなどさまざまな場面に応用可能だ。

NFCとQRはいわゆるハイプ・サイクルを何度もくぐり抜けてきた。実際QRコードが北米市場に紹介されたのは8年も前になる。当時、北米市場は日本を始めとするアジア市場で成功を収めたモデルをコピーして追いつこうと努力中だっった。NFCも大騒ぎされた後で失速し、それからある程度の成功を収めた。これが過去5年程度の間でおきた。

QRコードに至ってはアナリストや専門家によって何回も「死んだ」と宣告されている。しかしAppleはiOS 11でカメラが直接QRコードを読めるようにした(現在の一般公開候補のビルドでもデフォールトでそう設定されている)。これは北米でQRコードを復活させ、メインストリームに押し上げる効果があるかもしれない。残念ながらこれまでの努力はまったく実を結ばなかったのだが。QRコードはきわめて有力な規格で、現実世界の商品や広告ととスマートフォンを接続する方法としてこれ以上に使いやすく、また高機能なテクノロジーを新たに発明するのは難しいだろう。

NFCの普及はQRコードより困難度が高いかもしれない。AppleはNFCを何らかのタグの読み取りに制限しており、またアプリごとに実装されるべき機能としている。つまりデベロッパーはアプリを開発する際にアプリの中にNFCのサポート機能を独自に作り込まねばならないことを意味する。そうであっても、QRのサポートと同様、NFCにとって普及に向けた大きな一歩であることに変わりはない。

一部のアナリストや専門家は、「Appleのこれらのテクノロジーの採用は遅すぎだし、これ以前になされた普及の努力もほとんど効果を上げいない」などと批判するかもしれない。しかし新しいテクノロジーがメインストリームに普及するかどうかに関して、Appleがカギを握っていることを軽視すべきではない。ことに北米ではそうだ。その証拠に、たとえば、この次ホテルに泊まったときにベッドの枕元を見てみるといい。充電式の目覚まし時計に用いられているのはおそらく30ピン端子だろう。これは当初、iPhoneのコネクターとして普及したものだ。

QRコードとNFCは北米のメインストリームの消費者には依然としてほとんど知られていない。 しかしAppleがiOS 11に採用したことはこれらのテクノロジーへのアクセスを大幅に改善するだろう。当初の期待を実現するような普及への一歩となる可能性が十分ある。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

【ポッドキャスト】GoogleのMaterial Designのリーダーが同社のデザインビジョンの起源を語る

[筆者: Jared Erondu, Bobby Ghoshal]

Rich Fulcherは、GoogleのMaterial Design UX and Engineeringのトップだ。今回はわれわれのHigh Resolutionシリーズの第14回で、Material Designがどのように作られたか、自分が勤める会社で自分独自のデザイン表現(デザイン言語)をどうやって作り出すか、デザインという工程では強力な文化性が重要な役割を演ずること、などを語ってもらった。

Larry PageがGoogleのCEOに復帰したとき、彼は非常に幅広い指示を出した。 それは、“Googleをビューティフルにすること”だった。その指示の下でGoogleのデザイン部門は、同社のプロダクトの呈示のされ方を根本から考え直すことになった。しかしながら、Googleほどの大きな企業で統一的なデザイン言語を作ることは、容易ではなかった。そこでFulcherは工程をいくつもの小さなステップに分割し、それを積み重ねていくと全体像が見えてくる、というやり方を選んだ。いくつかの大きな部品がまとまると、そこからSearch(検索), Maps, Gmail,などの消費者向け中核製品への実装過程が始まった。

自分の会社の普遍的なデザイン言語を作る過程が、複雑である必要はない。必要なのは、真剣に取り組むこと。それは、完成までに長期間の集中と献身を要する、今でもまだ進行中のプロジェクトだからだ。Fulcherは、デザイン言語が会社のビジネスにもたらす価値を説明している。そのステップは、あなたが今日からそれをやり始めるとしても、十分に参考になるだろう。

Jared EronduBobby GhoshalHigh Resolutionのホストだ。このポストと各回の注記は、フリーのライターGannon Burgettがまとめた。High Resolutionの各回は月曜日の太平洋時間午前8時に、本誌TechCrunchに載る。iTunesOvercastでも聴ける。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

どんな物でもタッチセンサーにしてしまう伝導性の塗装技術がCMUに誕生

カーネギーメロン大学(CMU)の研究者たちが、どんな面でもタッチパッドにしてしまえる伝導性のスプレー塗料を発明した。そのシステムはElectrickと名付けられ、“電界トモグラフィー(electric field tomography)”と呼ばれる技術を利用している。

同大の博士課程の院生Yang Zhangが作ったElectrickは、塗装した面の端に電極をつける。すると、木でもプラスチックでも壁でもゼリーでも工作用粘土でも何でも、タッチを検出できる面になる。こうやって加えたタッチ感度を利用してこれまで、玩具やギター、壁などの位置コントロールに成功した。

Human-Computer Interaction Instituteの助教授Chris Harrisonによると、“缶入りのスプレー塗料でほとんどどんなものにもタッチスクリーンをつけられる技術は、これが初めてだ”、という。

彼らのレポートは曰く:

多くのタッチスクリーンと同様に、Electrickも分流効果を利用する。指がタッチパッドに触(さわ)ると、少量の電流が接地へ流れる。その物や伝導性塗装の端に複数の電極をつけることによって、Zhangと彼の同僚たちはどこでいつその分流が起きたかを特定できた。彼らはこれを、電界トモグラフィーを利用して行った — 少量の電流を二つの電極間に継続的に流し、電圧の変化に注目した。

 

作者たちが今考えているのは、対話性のある壁や、指の位置を感取してアプリを起動するスマートフォンケース、などへの利用だ。その塗装面を保護するための保護膜も、可能だ。

Zhangはこの技術を、デンバーで行われるカンファレンスHuman Factors in Computing Systemsで発表する予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

目に見えないボタンやスイッチを操作する‘タッチレスインタフェイス’のUltrahapticsが$23Mを調達

今VRやARに大金を投じているテクノロジー企業は、目の前のデジタルオブジェクトが本物であるとユーザーに信じこませる努力を重ねているが、ユーザーがそれらを本当に本物だと感じるためには、まだ重要な何かが足りない。

Ultrahapticsは、超音波を利用して、ユーザーが感じることのできる3Dのオブジェクトを空中に作り出そうとしている。同社が当面考えているのは、その技術を使って“タッチレスのインタフェイス”を作ることだ。それは、ユーザーの手の動きをシステムが追う、というタイプではなくて、空中に作られる目に見えないスイッチやダイヤルなどをユーザーが操作し、しかも触感によって操作の完了をユーザーに伝える。

イギリスのブリストルに拠を置く同社は、今日(米国時間5/3)のブログ記事で、2300万ドルのシリーズB資金を獲得したことを発表している。このラウンドには、Dolby Family Ventures, Woodford Investment Management, Cornes, およびIP Groupが参加した。Ultrahapticsの調達総額は、4000万ドルになる。

同社は仮想現実の入力技術で興味深い企画をいくつか抱えているが、今では自動車業界にも顧客を求めている。パートナー企業はUltrahapticsの技術を利用して、手のジェスチャで操作するダッシュボードを作ることができる。2か月前にそのデモを見る機会があったが、まだ明らかに有効なユースケースを模索中とはいえ、同社の技術は古くからあるさまざまな日常的問題に、新鮮な解を与えそうだ。

これまでの拡張現実の技術では、手の動きを追うことが標準的なコントロールインタフェイスだったが、その最大の問題は触感のフィードバックがないことだ。Ultrahapticsは、同社のソリューションがVRやARのニーズを満たすことを期待している。それは、ヘッドセットにデバイスを付加したり、テーブルトップのミニチュア世界を構築する使い方になるだろう。

同社は今、超音波プラットホームで何かを構築してみたいデベロッパーのために、Touchと名付けた開発キットを提供している。そして今四半期のアップデートで、そのインタフェイスに感覚を導入するためのライブラリを提供する予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google、300×250のモバイルページトップ広告を許可――ユーザーフレンドリーは後退?

昨日(米国時間5/2)、GoogleはAdSenseの約款をアップデートし、広告掲出に関する規制を一部緩めたことを発表した。これにより、従来は禁止されていた“above the fold”(スクロールせずに見える範囲)に広告を表示することが可能になった。今後は300×250の広告〔レクタングル(中)〕をモバイルでウェブページのトップに表示してもAdSenseの約款違反にならない。

なるほど。

300×250の長方形といえば、スマートフォンの小さな画面の相当部分を占めるサイズだ。しかしこれまではページをスクロールしなければこうした広告を目にしなくてすんだ。しかし今回の変更でモバイルウェブページを開いたとたんに大きな広告が目に飛び込んでくることになる。トップページの残りの部分にはコンテンツを表示する場所がろくに残らない。特にコンパクトサイズのスマートフォンの場合はそうだ。

この変更をもたらした原因の一つは、まさにその点だろう。多くの消費者がiPhone 7 Plus、Samsung Galaxy S8+、Google  Pixel XL、Huawei Mate 9 等々の大型スマートフォンを好むようになった。大型スマートフォンは当然画面のサイズも大きい。しかしGoogleは声明で「(above the fold広告は)消費者を苛立たせ、コンテンツを読むことを妨げるなどの副作用なしにユーザーフレンドリーな広告として掲出できることが判明した」からだと述べている。

本当だろうか?

そもそもこの位置の広告が禁止されていたのは「ユーザーフレンドリーではない」からだったはずだ。長方形の中型広告は、当然ながら、ページの本来の大半をコンテンツを次のページに追いやる。

このことはGoogle自身がAdSense文書で説明している(今のところまだこの部分はアップデートされていない)。

パブリッシャーは広告がページコンテンツを次のページに追い出すようなレイアウトを採用してはならなない。こうした理由からGoogleはモバイルウェブの場合、300×250またはそれ以上の広告ユニットをabove the foldの位置に表示することを許可していない。このようなレイアウトはユーザーがサイトのコンテンツを表示させるためにページを下にスクロールさせる必要が生じるからだ。【略】

なるほどGoogleは昨日のブログ記事でも、パブリッシャーはモバイルページで広告がコンテンツの消費を妨げることがないようレイアウトの十分に「気を配る必要がある」と述べている。

だが、今回のモバイル広告の規制の緩和はわかりやすいレイアウトを実現する努力に逆行していないだろうか?

Googleのモバイルウェブに関する改良の努力の中心はユーザーフレンドリーさだ。AMP広告(モバイル広告を高速にロードするテクノロジー)や Chromeブラウザに広告ブロック機能を導入したのも、苛立たしい待ち時間や広告表示をできるだけ減らそうとするのが目的のはずだ。

しかしGoogleの本質はやはり広告企業だ。GoogleのCPM(クリック単価)が低落傾向にある中、 同社はユーザーからより多くの収益を上げる必要に迫られている。Googleは株主を満足させておくために少しでも多くのインプレッションを必要としている。above the fold広告の許可はインプレッションを増やし、クリックも増やすことになるだろう。

画像: Marcio Jose Sanchez/AP

〔日本版〕日本のAdSense広告での取扱はまだ不明。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

同一のコードベースからiOSアプリとAndroidアプリを並行開発できるUXツールキットFuseが$12Mを調達

fuse_laptop

エンドユーザーにとっては、アプリケーションのユーザー体験(user experience, UX)こそが、まさにそのプロダクトそのものだ。だからデベロッパーは、良質なユーザー体験ツールキットに大きな投資をする。Fuseは、そんなツール集のひとつだ。同社の目的は、複雑なアプリケーションの開発時間を半減すること。今日(米国時間1/24)同社は、NorthzoneAlliance Ventureからの1200万ドルの資金調達を発表し、今後はそのツールキットをもっと広いオーディエンスに周知していこうとしている。

The ability to show the app design on multiple platforms and screen sizes is a boon for developers

複数のプラットホームや画面サイズに対応できるデザイン能力は、デベロッパーにとってありがたい。

同社がとくに力を入れているのは、アプリケーションのユーザー体験のインタフェイスを作るデザイナーと、アプリケーションの中にそういうユーザー体験を実装するデベロッパーとのあいだのコラボレーションを、良くしていくことだ。Fuseの主張では、同社の製品を使えば両者間のシナジー効果が大きいので、ネイティブアプリケーションの制作とその後の進化が迅速かつ容易になる。

Fuseの協同ファウンダーでCEOのAnders Lassenはこう語る: “アプリケーションの市場競争で勝つためには、UXが優れていることがすべてだ。しかし最近ではますます、ユーザー体験の優れたアプリケーションをより短時間で作りたい、という声が大きくなっている。うちのプラットホームに対する初期の反応は、私たちに大いに自信を持たせてくれるものだった。そして、こうやって投資家が注目してくれたことは、なお一層すばらしい”。

Fuseを利用すると、同一のコードベースからiOSアプリとAndroidアプリをリアルタイムで同時に開発できる。つまりこのプラットホームでは、開発中のアプリに対するUIのアップデートや、コンテンツやデータの反映がリアルタイムでできるから、相当早く、アプリのテスト工程へ移行できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))