安価なエッジデバイスにディープラーニング搭載、AIoT時代の開発基盤構築へIdeinが8.2億円を調達

「やりたいのはセンシングをソフトウェアを用いて高度にしていくこと。画像認識や音声認識などの信号処理技術によって、従来の物理的なセンサーでは取れなかった実世界の情報を取得してソフトウェアで分析できるようになった。自動車産業を代表に、製造や物流など様々な分野がソフトウェアでビジネスをしていく形に変わる中で、その基盤となるサービスを提供したい」

そう話すのはIdein(イデイン)で代表取締役を務める中村晃一氏だ。近年サーバーではなく末端のデバイス(エッジデバイス)で画像や音声データを処理する「エッジコンピューティング」が注目を集めているが、Ideinは安価なエッジデバイスにディープラーニングを搭載する技術を持つスタートアップとして知られる。

7月には手軽にエッジコンピューティング型のシステムを構築・運用できる開発者向けプラットフォーム「Actcast」のβ版を公開。今後はActcastのADKを用いて開発したアプリケーションを売買できるマーケットプレイス機能などを備えた正式版のリリースも見据えている。

そのIdeinは8月19日、グローバル・ブレインなど複数の投資家を引受先とした第三者割当増資により総額8.2億円の資金調達を実施したことを明らかにした。調達した資金は同社のメインプロダクトであるActcastの本格的な事業展開に向けた人材採用の強化や業務環境の拡充に用いる計画だ。

Ideinとしては2017年7月に数社から1.8億円を調達した後、2018年2月にアイシン精機と資本業務提携を締結して以来の資金調達。今回同社に出資した投資家陣は以下の通りだ。

  • グローバル・ブレイン6号投資事業有限責任組合及び7号投資事業有限責任組合(グローバル・ブレイン)
  • HAKUHODO DY FUTURE DESIGN FUND投資事業有限責任組合(博報堂DYベンチャーズ)
  • Sony Innovation Fund by IGV(Innovation Growth Ventures)
  • SFV・GB投資事業有限責任組合(ソニーフィナンシャルベンチャーズとグローバル・ブレインが共同設立)
  • DG Lab1号投資事業有限責任組合(DG Daiwa Ventures)

エッジコンピューティングを普及させるために必要なこと

ここ数年エッジコンピューティングがホットな領域となっている背景には、サーバー集約型(オンプレ・クラウド型)AIシステムの課題がある。

「従来のソフトウェアと違いAI技術を使ったサービスの大きな違いは常時動き続けるのが基本。扱うのは画像や音声といったデータのボリュームが大きいもので、膨大な生データを処理するため計算の負荷も高い。結果的に通信コストとサーバーコストが従来のWebサービスとは比べ物にならないくらい、桁違いにかかってしまう」(中村氏)

高コストであることが現在AIの発展を阻害している1つの要因であり、まずはそれを解決したいというのがIdeinの考えだ。末端デバイスで計算を行うエッジコンピューティングの場合、サーバーに送るのは必要なデータのみ。通信回数が桁違いに減るので通信コストを削減でき、計算用のサーバーがいらないためサーバーコストも抑えられる。

加えてサーバーのスペックがボトルネックになることによるスケーラビリティの問題を回避できるほか、プライバシーの観点でも個人情報や機密情報が漏洩するリスクも減らせる。

もちろんエッジコンピューティングを普及させるためにはクリアしなければいけない課題もある。中村氏が主要なものとして挙げるのが「エッジデバイスの価格」「ソフトウェアの入ったデバイスがばら撒かれた際のシステム開発やメンテナンス」「ビジネスモデル」の3点だ。

「サーバーでやっていた計算をデバイスに持っていくので高額になりがち。画像認識機能を持ったカメラが1台数十万円で販売されているのが現状だ。また様々な場所にソフトウェアの入ったデバイスがばら撒かれた時、たとえば数千個のデバイスに1個1個ソフトウェアが入っている場合にどのようにメンテナンスを行うのかはものすごく重要なポイントになる」

「ビジネスモデルもやっかいな問題。デバイスにソフトウェアを乗っけるので、組込みソフトウェアのライセンス販売のようなビジネスになりやすく、クラウドでサブスクリプション型のサービスとはギャップがある」(中村氏)

安価なデバイスへディープラーニング搭載、遠隔運用の仕組みも

この3つの課題をクリアし、幅広い開発者がエッジコンピューティング型のシステムを構築する手助けをするのがActcastだ。

前提としてIdeinは自社のエッジ技術を使った受託開発を主力にしているわけでも、ディープラーニング用のコンパイラを販売しているわけでもない。開発者向けのクラウドサービスを提供するスタートアップであり、サービスのユーザーである開発者に対してエッジ技術を無償で提供している。

同サービスの特徴の1つは安価なエッジデバイスで高度な計算ができること。これは上述した「エッジデバイスが高額になってしまう」問題を解決する技術であり、前回の記事で詳しく紹介した点だ。

IdeinではかねてからRaspberry Pi上でディープラーニングモデルによる高度な計算を実行できる仕組みを研究してきた。エッジAIに取り組むプレイヤーはいくつか存在するが、演算量をできるだけ減らすためにモデル圧縮を採用する企業が多い。一方でIdeinはモデル圧縮ではなく“プロセッサー側をハックする”というアプローチをとった。

「自分たちがやったのはプロセッサー側に乗っているGPUを汎用的な計算に使えるように、アセンブラからコンパイラまでソフトウェアスタックを丸ごと作るということ。プロセッサーの引き出せる性能を上げるとともに、高い効率で使えるコンパイラ技術を研究した」(中村氏)

中村氏によるとモデル圧縮を採用した場合「精度の維持が難しい」ことに加え「開発者が作ることのできるアプリケーションに制約が出てくる」ことがネックになるそう。Ideinは別のアプローチを取ることで安くても精度を落とさず、なおかつ開発者がより自由にアプリケーションを作りやすい仕組みを整えた。

ユーザーはActcastのSDKを利用すると追加のハードウェアを用意せずともRaspberry Piのみでエッジデバイス向けのアプリケーションを開発することが可能。TensorflowやChainerなど既存のフレームワークで開発したモデルをそのままの精度で動かせる。

また中村氏いわくこの技術ばかりがフォーカスされがちなのだそうだけれど、実はより重要なのが「遠隔からソフトウェアを書き換えられること」だという。

「AI技術のようなものは開発者もユーザーも最初から正確なニーズを掴むのは難しく、やりながらアップデートすることが重要。やればやるほどデータも蓄積され精度が上がるので『1回作りきって現場に設置したら終わり』というやり方では上手くいかない。Actcastでは核となるアプリケーションの遠隔インストールや設定変更機能を始め、エッジコンピューティングシステムを構築しようとする際に必要な『ディープラーニング以外の部分』を一通り揃えている」(中村氏)

正式版ではApp Storeのようなマーケットプレイスの仕組みを

上述した特徴に加え、今後予定している正式版には同社のビジネスのキモとなる「マーケットプレイス」など新しい概念も追加される。

これはApp Storeのような感覚で、ActcastのSDKを使って開発したアプリケーションを売り買いできる仕組みだ。各アプリの価格は1デバイス、1日単位で自由に設定可能。エンドユーザーはミニマムで様々なアプリを試すことができ、ベンダーもいいものを作ればサブスク型のスケーラブルなビジネスを確立するチャンスを手に入れられる。

中村氏によるとエンドユーザー側からは特にリテールやセキュリティ業界からの問い合わせが多いそう。Actcastを上手く使えば従来は受託開発会社などと時間とコストをかけてPoCから取り組んでいたようなプロジェクトも、より安価に最小単位から現場でテストできる。これまでコストなどが理由でAI活用に踏み切れなかった企業や個人にとっても新しい選択肢になるだろう。

このマーケットプレイスはIdeinにとっての収益源でもあり、同社はApp Storeと同様にベンダーから手数料を得る計画。開発用ツールの提供などは無償で行うことで、より多くのベンダーが参加しやすい環境を作っていきたいという。

IdeinではActcastのパートナープログラムも展開中で(現在は24社が参加)、多くのパートナーとの協業を通じて魅力的なプラットフォームサービスの構築を目指すとのことだ。

XnorのAI2GOは数回のクリックだけでエッジAIをカスタマイズ

AIは、中小企業やその他の業務で発生する大量の日常的なタスクの実行に役立つ。もし自分専用の機械学習エージェントを構築して展開する方法を知っていさえすればの話だが。残念ながらそれを知っている人はほとんどいない。そんな状況の中、エッジベースAIのスタートアップXnor.ai は、非専門家たちがウェブサイトを更新するのと同じくらい気軽に、最先端のAIを動かせるようにすることを狙っている。

同社はAI2GOという名の新しいプラットフォームを立ち上げたばかりだ。これは基本的に、エッジベースAIのための一般的なアプリケーションとハードウェアプラットフォームの組み合わせを一箇所に揃え、ほとんどあるいは全く専門知識なしでもそれらをダウンロードできるようにしたものだ。

創業者でCEOのアリ・ファハディ(Ali Farhadi)氏はTechCrunchに対して次のように語った。「AIの開発は難しいことですし、それができる人はそれほど多くありません。そして、エッジデバイスへの展開はさらに困難です。消費電力、メモリ制限、その他すべてについての心配する必要があるからです。つまり、AIとシステム両方の専門知識を持っていなければならないのです」。

あなたが小さなビジネスオーナーであるとして、仮に自分のレストランに特定の時間に何人の人がいるかがわかったら素敵だと考えたとしよう。幸運を祈りたい。TensorFlowのようにAIをトレーニングして展開するための比較的入手しやすく広く利用可能なフレームワークでさえ、ドメインの専門知識がない人にとっては利用は難しい。AI2GOは、技術的な基本的な知識は持っているものの、自分の目的に利用するカスタムのコンピュータビジョンモデルを構築するために数万枚もの自動車や人間の写真は提供できない人たちを対象としたものだ。

「汎用プラットフォームを使って、ご自身のモデルの訓練を行うことが可能ですが、多くのビジネスやアプリケーションでは、そうした訓練を行う必要はありません。すでにそのためのソリューションが存在しているからです。例えば、駐車場のオーナーならおそらく車の出入りとかそうしたものをモニターしたくなるでしょう」とアリ氏は語る。「AI2GOを使えば、例えば車の認識といったモデルをクリックして、次にハードウェア(例えば、セキュリティカメラチップセットやRaspberry Pi Zeroなど)を選択するだけです。それから、いくつかのパラメータを調整することで、自分の制約条件に合致したXnorバンドルを生成することができるのです」。

この生成されたバンドルは、ユーザーが選択したモデル(群)で構成され、電力またはメモリの制約を満たすようにカスタマイズされた、完全に機能するエッジベースのAIシステムである。ユーザーは指示に従ってそれをインストールすることになる(なおここではソフトウェアの構築と展開についてのある程度の知識が必要となる。このシステムはド素人向けのものではない)、ほんの2、3分ですでに設置してあるカメラを使って、リアルタイムに動作する車検知モデルが手に入るはずだ。そのプロセスは下の図のようにみえるだろう。

ファハディ氏はこのやり方を、Stripeのようなものと比較しながら説明した。もしオンラインショップを始めようとしているなら、支払い処理機構をゼロから構築したくはないだろう。それでも自分の要求に調整された何かは必ず必要だ。同社はすでに企業顧客向けのカスタム高性能エッジAIモデルを作成しているが、中小企業は同じような製品に興味を持つだけでなく、よく似たタスクを抱えていることもわかってきた。

猫の探知機能からジェスチャーの識別に至る、あらゆる領域をカバーした事前に訓練されたモデルがたくさんある。以下に示したのは現在利用可能なもののいくつかの例である。

  • 人物検出機能:カメラが捉えた人物にバウンディングボックスを設定
  • 人物分離機能:人体を検出して背景から分離
  • 表情分類機能:怒り、恐怖、幸福などの表情を読み取る
  • スポーツオブジェクト探知機能:ボール、テニスラケット、スキーなどのものを識別して追跡する
  • アクション分類機能:楽器の演奏、何かを押す、自転車に乗る、登る、走るなどの一般的な人間の行動を見つける
  • 台所用品および食品分類機能:一般的な食品(リンゴ、調味料)ならびに台所用品(スプーン、マグカップ)に対してラベルを付与
  • 車内アイテム検知機能:車の中にある(または置き忘れた)鍵、人、電話、その他のものを追跡
  • 自動車モデル分類機能:自動車の一般的な構造とモデルの識別

この他にも多くのものがあり、異なる目的別に似たような機能がさまざまなかたちで用意されている。車載カメラの人物識別機能は、当然スマートホームやセキュリティで使われる同機能とは異なるものとなる。

現在はまだ、複数種類のアイテムを混在させることはできない。これは新しいハードウェアプラットフォームやユーザー自身のデータを持ち込ませる機能と並んで、今後のバージョンで提供される可能性が高い。

ライセンスモデルは非常に簡単だ。ダウンロードしたモデルは試用あるいは個人的な目的で使用する場合は無料だが、それを商用展開する際にはライセンスを申請する必要がある。コードサンプル付きのSDKが用意されているが、自分自身で構築せずに、単に試してみたい場合のデモもいくつか用意されている。

[原文へ]

(翻訳:sako)

ShippableとARMとPacketがパートナーしてARMベースのサーバーにCI/CDプラットホームを提供

継続的インテグレーションとデリバリー(CI/CD)の市場は、その大半がハイエンドのx86サーバーにフォーカスしているが、しかしARMベースのサーバーの出現により、ARMサーバーの上でネイティブに動くソリューションへの需要も芽生えてきた。そしてその気運に乗ったCI/CDプラットホームShippableは今日(米国時間7/9)、ベアメタルのホスティングプラットホームPacketおよびARMとパートナーして、まさにそのようなソリューションを提供しようとしている。

そのパートナーたちは、ARMベースのサーバーの採用が増えているのだから、デベロッパーはそれらをネイティブにサポートするCI/CDプラットホームが必要だ、と主張する。“正しいインフラストラクチャの上でテストできることが、楽しめるビルドプロセスと苦痛なプロセスをわける境界だ。エッジやIoTなど今急成長中の分野につきものの、多様なハードウェア環境ではとくにそう言える”、とPacketのCEO Zac Smithは言う。“Shippableは最初からARMをサポートしているので、その速いビルドとシンプルなワークフローの組み合わせは、他に類がないほど強力だ”。

Packetは現在、比較的強力なARMベースのマシンを1時間$0.50(50セント)で提供しているが、競合他社も多くて、たとえばScalewayはメニューがもっと豊富だ。

当然ながらShippableはPacketのARMマシン上に同社がホストするCI/CDプラットホームを提供し、その上でデベロッパーは32ビットおよび64ビットのアプリケーションを構築できる。オープンソースのプロジェクトを動かしているなら、そのワークフローのビルドとテストに無料でアクセスできる。

このようなコラボレーションがここでも再度強調しているのは、Packetのようなセカンドティアの(== あまりメジャーでない)クラウドプロバイダーと、彼らの周辺にあるデベロッパーツールのエコシステムは、パートナーシップを武器としてAWS, Google, Microsoftのようなハイパースケールなクラウドベンダーに対抗する、というパターンだ。たとえばPacketは最近、このほかにPlatform 9やBackblazeなどともパートナーシップを組んだ。今後このような動きが、さらに多くなると予想される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ロボット革命は始まったばかりだ

【編集部注】著者のSanjit DangはIntel Capitalの投資ディレクターである。

毎年Time誌は、何千もの企業からの、自分たちの製品こそがTime誌が選ぶ”25 Best Inventions”(25のベスト発明)に相応しいとの売り込みに圧倒されている。この前の12月には、同誌のカバー写真は、まるでピクサーのアニメに登場したような、11インチのアームレスロボットJiboで飾られた。

いわゆる「ソーシャルロボット」であるJiboは、この先多数のインテリジェントで有能な新世代のロボットたちが登場してくる現象を示す、最新の例に過ぎない。実際には、彼らは既に、私たちの視界のそこここに存在している。私たちの頭上に、車や手術室の中に、組立ラインの脇に、軍隊の中に、そしてラストマイル上に。

そして急増するロボットの数、扱うべき急増するデータの可能性は、さらに多くのコンピューティングパワーだけでなく、全く新しいプロダクトアーキテクチャを必要としている。

元ペンタゴンのロボット研究者によって2015年に書かれたある記事は、現在ますますその先見性を示している。

その夏、国防高等研究計画局(DARPA)のマネージャーとしてロボット技術を統括していたGill Prattは、ロボットの能力がある重要な境界を超えたと語った。電気エネルギーの蓄積技術の改善と、計算能力とデータストレージの飛躍的増加によって、ロボットが他のロボットたちの経験から知らされる情報を学習し、意思決定を行うことが可能になったと、彼は主張したのだ。

その当時彼が予想したことは?もはや単純ではなく、単一目的の機械ではなくなったロボットたちが、まるでウサギのように繁殖するという事態だ。そして、ロボットがますます学ぶにつれて、より多くの人びとがそれを使うようになるだろうとPrattは主張した。

それこそ、私たちが現在目にしているものだ。ロボットに対する需要はますます広範なものになっている。誰もがそれを望んでいるようだ。

この成長を実感するためには、以下のことを考えてみて欲しい:2014年にはボストン・コンサルティング・グループ(BCG)が、世界のロボットマーケットはこの先10年で670億ドルに達するだろうと予測した。そのわずか3年後の昨年6月、BCGはこの金額に、さらに200億ドルの積み増しを行った。

DARPAの馬

ユースケースが拡大するにつれて金額が積み上がる

製造業界が何十年もの間、ロボットの中心的な利用者だった。現在、世界のロボットの大半は、依然として工場で使用されている。

大きな違いは、これらのロボットは、以前のロボットに比べて、はるかに小さく、知覚的で、協力的であるということだ。そして、この分野へ注がれるベンチャーキャピタルの資金の洪水によって、近い将来には流通センターや倉庫で、さらに多くのロボットたちが見られるようになるだろう。

2016年から2017年の間を考えてみても、産業用ロボットへのベンチャーキャピタル投資額は、4億200万ドルから12億ドルへと3倍に増えている。5年前にこの分野でスタートアップたちが調達したのは、わずか1億9500万ドルだった。

また、現在のロボットの爆発的増加に関して興味深いのは、小売業者からホテルに至るまで幅広い業界の企業たちが、よりスマートなマシンのメリットを受けているということだ。例えば保険業界は、マシンビジョンや自然言語処理などの人工知能ツールを利用して、保険請求を処理し始めている。

これらの拡大するユースケースは、今やBCGが商用ロボットマーケットの成長を2025年までには230億ドルに達する(オリジナルの予想よりも34%多い)ものと予測した理由を説明してくれる。

だが、需要の最大の増加を占めるのは消費者たちだ。BCGの消費者市場規模に対する予測は156%増加したAndreessen HorowitzFenox Venture Capital、そしてSequoiaを含む多くの有名VCたちが、教育と「エンターテイメントロボット」に注目して投資を行っている。

一方こうしている間にも、自律運転自動車技術を開発する激しい競争が繰り広げられている。自律運転車のスタートアップは2017年に調達したのは30億ドルだが、これはその前年の3倍を上回る額である。ロボットの教師やコンパニオンも注目を集めている。

そして、ドローンを無視することはできない。多くの商用アプリケーション(特にセキュリティ)以外では、パーソナルドローンがますます人気のあるガジェットとなっている。中国のドローンメーカーのDJIだけでも、米国のベンチャーキャピタルから1億ドル以上を調達しているのだ。

(写真提供: Zhang Peng/LightRocket via Getty Images)

エッジインテリジェンス

ロボットの核となる場所では、多くのデータが作成されている。実際、それこそが彼らの働く方法である。そして、ロボットにおけるいくつかの傾向は、より多くのプロセッサーと、まったく新しい製品アーキテクチャーのの必要性を増していく。

これからのロボットたちは、より多くのことを聞き、より多くを見て、より多くを感じる必要がある。これらの機能のそれぞれは、それぞれのセンサーを必要とする。例えばマイクロフォン、カメラ、そしてそれらよりも必要度は低いが、タッチスクリーンディスプレイなどだ。そして、そうしたもののそれぞれが、自身のプロセッサを必要としている。

そして、ロボット機能の基礎となるソフトウェアが必要だ。私たちはAI、コンピュータビジョン、自然言語処理、そしてブロックチェーンが重要な力を発揮すると考えている。

ロボットは、クラウドを経由するにせよ、それへのアクセスは行わないにせよ、より多くのコミュニケーションを行う必要がある。
結局のところ、今日のロボットの(ほとんどではないにしても)多くは、インターネット接続によってその有用性が発揮できる。そして、ロボットの数が増え、洗練されていくにつれて、ネットワーク帯域幅に大きな負担がかかり、スマートロボットたちの動作が遅くなっていくことが予想される。

こうしたことを考慮すれば、ロボット革命はまだ始まったばかりであることは明らかなのだ。

[原文へ]
(翻訳:sako)

AWS Lambdaのイベントトリガを使いやすくしてWebサイトの開発方法を改革するNetlify

Webプロジェクトの継続的なデプロイメントを支援するサービスNetlifyのビジョンは、Webサイトの作り方を変えることだ。とくに、フロントエンドのデザインとバックエンドで実行されるサービスとの結合を、もっとシンプルにしたい。今日同社は、そのビジョンの実現に向かう次の一歩として、NetlifyのサービスにAWS Lambdaのファンクションを導入した。

同社のねらいは、Web開発に伴う多くの複雑性を、できるだけ減らすことだ。たとえば、ユーザーがHTMLとJavaScriptでフロントエンドをデザインすると、Netlifyはそれをさまざまなサービスに結びつける。決済ならStripe、メールによるニューズレターの管理ならMailChimp、というように。このやり方でNetlifyは、Webサーバーという概念を抽象化(実体のないものに)してしまう。デプロイが遅くてセキュリティもスケーリングも困難なあのあれが、消えてなくなる。そして、一枚岩的なWebサイトから、スタティックなフロントエンドとバックエンドのマイクロサービスという組み合わせへ移行し、それによりセキュリティとスケーリングの問題を解決、そしてサイトを従来よりも相当早くユーザーに渡せるようになる(デリバリが早い)、と同社は信じている。

ユーザーは、サイトの構築に何を使ってもよい。ユーザーが作った設計/デザインを渡されたNetlifyは、バックエンドのコーディングのすべてをエッジに置き、コードはエッジで実行される。その意味で同社のサービスは、半分はContent Delivery Network(CDN)、残る半分はデベロッパーの自動化エンジンだ。

この、より動的なWebサイトをより早く作るというNetlifyの能力がAndreessen HorowitzのパートナーPeter Levineの目に留まり、昨年8月に同社の1200万ドルのシリーズを彼がリードした。Levineは曰く、“彼らの、マイクロサービスとAPIsを活用して柔軟性に富む動的な(ダイナミックな)Webサイトを作る、という考え方はすばらしいアイデアだ。しかも、エッジへデプロイすることによって、さらにハイパフォーマンスなユーザー体験を作れるし、GitHubを統合することによってアプリケーションを容易に作成し管理できる”。

今日の発表は、同社のサービスのそんなアプローチをさらに一歩前進させる。Lambdは、AWSのいわゆるサーバーレス・ツールだ。デベロッパーはファンクションを作り、それが特定のイベントにトリガされて実行される。デベロッパー側には、サーバーを24/7動かし管理しメンテナンスする苦労がない。これは、NetlifyのWeb開発アプローチとぴったり相性が良い。つまりそれは、AWS Lambdaと同じく、WebのパブリシングプロセスからWebサーバーを取り除くから。

そしてNetlifyは、Lambdaのファンクションを、もっと容易に実行できるようにした。同社によると、Webデベロッパーは確かにイベントトリガーという考え方を気に入っているけど、AWSのワークフローは複雑すぎる。イベントトリガーをデベロッパーのアイデンティティで容易に作れるようになれば、Lambdaをもっと気軽に利用できるだろう。

同社の協同ファウンダーChristian Bachは、こう説明する: “Lambdaが良いことは自明だが、それを軸とするワークフローがないために、使いづらい。われわれにはフロントエンドをパブリシングするワークフローがあるので、サーバーレスもそれと同じようにしたい、と考えた”。

“Lambdaのトリガのひとつひとつが小さなマイクロサービスになり、ブラウザーからそれらにアクセスできる”、と彼は述べる。たとえばStripeを使って決済をする場合なら、Stripeの秘密の認証情報のコードで決済のゲートウェイに入る。“従来なら、この小さな呼び出しのために、どこかでサーバーを動かす必要がある。この小さな機能だけのために、Railsのアプリケーションを作るだろう”、Bachはそう述べる。

しかしNetlifyのやり方では、認証情報を数行のコードでタイプし、それからLambdaのトリガとNetlifyの糊的なコードを少々使うだけだ。これにより、そのコードをどこに置くか、それをどうやって管理するか、という問題が解決する、とBachは言う。

かねてからエッジコンピューティングをテクノロジーの大きな駆動因として見ているLevineがNetlifyのシリーズAをリードし、同社の取締役会に加わったたのは、たぶん偶然ではない。

Levineは曰く、“かなり前からエッジコンピューティングには注目しているし、Netlifyは、エッジにおけるサービスという大きなトレンドの一部だ。同社は、現代的なWebサイトを構築しデプロイする方法を開発した”。

同社は、2015年に創業され、これまでに1410万ドルを調達している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Cloudflareが自分のグローバルネットワークへのアクセスを提供して真のエッジコンピューティングを可能に

ますます多くのコンピューティングがエッジへ移行して行くに伴い、プログラマーはレイテンシーを減らしパフォーマンスを上げるために、ユーザーになるべく近いコンピューティングパワーにアクセスしたい、と願っている。今日(米国時間3/13)Cloudflareが発表したCloudflare Workersは、そんなデベロッパーたちがCloudflareのネットワークのエッジで直接実行されるコードを、書けるようにする。

同社の協同ファウンダーでCEOのMatthew Princeによると、これまでそんなアクセスができるのはCloudflareの社員だけだった。“今日からはそれを、自分のアプリケーションをエッジで動かしたい人なら誰でも使える。これによってCloudflareの可能性も広がり、アプリケーションのこれまではできなかったような構成やプログラミングが可能になる”、と彼は説明する。

今の、IoTやゲーム、ビデオなどのアプリケーションは大量の帯域を使用するから、処理をなるべくエッジに持ってこれればパフォーマンスも改善され、またコードの実行に対する細かい粒度のコントロールも可能になる。

Princeによると、プログラマーは、ユーザーがそのアプリケーションにアクセスする場であるフロントエンドをいじったり、あるいはバックエンドではデータベースをいじくってパフォーマンスをアップしようとする場合が多い。しかしこれまでの彼らは、Cloudflareのネットワーク上のどこで自分のコードが実行されるかを、コントロールできなかった。

“本質的にローカルなプロダクトを開発する場合は、大多数のユーザーが至近距離にいるわけだから、コードがエッジで実行されるようプログラミングすればよい”、と彼は語る。至近距離という言い方は、誇張でなない。Cloudflareはデータセンターが世界中127箇所にあり、しかもその数はコンスタントに増え続けている。

この新しいサービスによりプログラマーは、コードが実行される場所をJavaScriptのコードで指定できる。しかも、そのコードをアップデートすると、エンドユーザーのところでアプリケーションのアップデートをする必要なく、ほとんどすぐに実装される。変更を、今使っているクラウドプロバイダーへアップロードする必要もない。

Cloudflareは、企業のWebサイトのパフォーマンスとセキュリティを向上することがメインの仕事だが、今回は自分のネットワークのパワーを顧客に利用させようとしている。コードの実行場所をプログラミングできることによって、ユーザーは自分のアプリケーションを動かすために必要なさまざまなレベルのリソースにアクセスでき、そしてロードバランシングやリソースアロケーションなどの面倒な仕事はCloudflare自身がやってくれる。AWsなどの、クラウドインフラストラクチャプロバイダーが、まさにそうやっているように。

2009年に創業された同社は、これまでに1億8200万ドルを調達し、これからの数か月ないし数年で同社のネットワークへのアクセスを拡大したい、という大きなビジョンを持っている。Princeによると、同社は昨年売上1億ドルのラインを超え、社員は600名を抱えている。今回のCloudflare Workersのようなサービスが加わると、売上はさらに拡大し、同社が作った全世界的なネットワークを、さらに有利に利用していけるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MITの新しいチップはニューラルネットワークを電池駆動のガジェットの上でも動かせる

MITの研究者たちが開発したチップは、ニューラルネットワークをスピードアップするとともに、その消費電力を最大で95%も引き下げる。その基本的なコンセプトはチップの設計を単純化して、チップ上の複数のコンピューター間のデータの行き来をなくすことだ。

MITの院生Avishek Biswasのチームが開発したこの新しい方法の利点は、ニューラルネットワークをスマートフォンや家電製品やそのほかの機会器具類の上で動かせるので、膨大な電力を消費するサーバーが要らないことだ。

それがなぜ重要なのか? つまりそうなると、このチップを使っている未来のスマートフォンは、高度な音声認識や顔認識などを、ニューラルネットワークやディープラーニングをローカルに動かして実行できる。原始的なルールベースのアルゴリズムを使わずにすむし、データをクラウドに送って処理の結果をもらうことも、する必要がない。

センサーがデータを集めている現場で、必要なデータ処理をすべて行うことを、‘エッジにおけるコンピューティング’、エッジコンピューティングと呼ぶが、それが一般企業のレベルで実用段階になりつつある。この新しいチップ設計の方法は、今成長中の機会がさらに商用化大衆化していくとき、業界に大きなインパクトを与えるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

WICASTRはエッジコンピューティングのためのプラットフォーム

コンテンツの配信は困難だ。顧客が待たなくても良いように、そして新しいデータの遅延が起きないように、なるべく顧客の近くにコンテンツを置いておきたいはずだ。それこそが、WICASTRがSMART Edge Platformを開発した理由だ。これは互換性のあるローカルルーターやアクセスポイントといった、ネットワークの終端近くまで、コンテンツを送り込むシステムだ。

「WICASTRは、エッジコンピューティングのための『オールインワンソリューション』です」と創業者のArmine Saidiは語る。「私たちは、Androidのエコシステムとも似ていますが、アクセスポイント、ルーター、その他のエッジデバイス向けのエコシステムを提供します。私たちはエッジ向けのアプリケーションを簡単に開発展開するための、ハードウェア、オペレーティングシステム、そしてアプリケーションストアソリューションを持っています」。

同社は100万ドルを調達し、TechStarsプログラムを完了した。彼らのエッジプラットフォームは、「アラブの春」に触発されたものだ。創業者たちは、ネットワークを封鎖しようとする政府によってもたらされる妨害に、耐えることのできるシステムを構築したかったのだ。

「私たちのチームが着手した使命は、政府による故意のモバイルネットワークシャットダウンの際にも、すべてのスマートデバイスを介することで、シームレスで中断されないコミュニケーションとコンテンツ配信を達成する技術を開発することでした」とSaidiは語る。こうすることで、ネットワーク上のデバイスがコンテンツプロバイダとして機能できるため、攻撃中にもデータが失われないことが保証される。

チームは7年間に渡って作業を続けており、IoT、ワイヤレス、ソフトウェア、ハードウェア開発、製造、そして流通に深い専門知識を持っている。彼らは現在20以上の有料顧客を抱え、Intel、Cisco、Deutsche Telekomと協力して強力なエッジ配信を構築中だ。

[原文へ]
(翻訳:sako)

ディープラーニングエンジンをUSBチップ化してエッジコンピューティングをサポートするMovidius、Intelに買われてから快調

MovidiusとIntelが79ドルの小さなUSBスティックに、ディープラーニングを収めた。これでハードウェアのAI化が、超簡単になる。

昨年の4月にMovidiusは、このデバイスの最初の試作機を披露した。当時の名前はFathom Neural Compute Stickだったが、結局発売まではこぎつけず、同社はその後、Intelに買収されることに忙殺された。

Movidiusの長年の目標は、このような画像を扱うディープラーニングを、同社のビジュアルプロセシングユニット(VPU) Myriad 2を使ってクラウドからエッジへ移すことだった。そのチップは、セキュリティカメラやドローン、ARヘッドセットなど、至るところで使われ、まわりのいろんなものを認識していた。

今回Movidius Neural Computer Stickと名前を改めた製品は、同社のそんなVPUをUSB 3.0のスティックに放り込んで、デベロッパーや研究者たちが、プロトタイピングやヴァリデーション、推論などのアプリケーションをオフラインでデプロイできるようにする。クラウド依存に比べると、レイテンシも電力消費も一挙に激減する。

これをRaspberry Piのような定置型(notモバイル)のコンピューターに接続すると、そのデバイスがプル&プレイのインテリジェンスを持つ。実はこのニュースは、Intelが自社のコンピュートモジュールEdison, Joule, Galileoから手を引いたと報じられてからちょうど1か月後に出てきたのだ。

買収されたことによってMovidiusの自由度が増し、ひとつのデバイスに複数のスティックをプラグインして強力なディープラーニング能力を持たせる、なんてこともできるようになった。製造環境も断然良くなったため、お値段もかつての99ドルから79ドルに下げることができた。量産も、完全にOKだ。

さっそく買ってみたい人は、RS ComponentsMouserへどうぞ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))