エッジコンピューティングによる家庭用防犯カメラのSimShineが約8億6000万円の資金を調達

深圳に拠点を置くコンピュータビジョンのスタートアップのSimShineは、エッジコンピューティングを使ってデータをデバイス上に保持するホームセキュリティカメラのSimCamに向け、プレシリーズAの資金調達で800万ドル(約8億6000万円)を調達した。資金調達はCheetah Mobileが主導し、SkycheeやSkyview Fund、Oak Pacific Investmentが参加した。

今年、SimShineはKickstarterのクラウドファンディングキャンペーンで31万95ドル(約3300万円)を集めた。同社は製品開発と雇用のために、プレシリーズAラウンドを利用する。

SimShineのチームは、コンピュータビジョンとエッジコンピューティングソフトウェアの開発から始まり、SimCamをローンチする前に企業クライアントと5年間仕事をしてきた。

共同創業者でチーフマーケティングオフィサーのJoe Pham(ジョー・ファム)氏によると、同社はエッジコンピューティングを利用したスマートホーム製品をさらにリリースし、最終的には多数のデバイスを接続するIoTプラットフォームの構築を目標にしている。現在、SimCamはAmazonのAlexaとGoogle アシスタントが利用でき、またApple Homekitのサポートも準備中だ。

ファム氏によると、エッジコンピューティングは顔認証データを含むデータをデバイス上に保持することで、ユーザーのプライバシーを保護し、また処理がデバイス上で実行されるため(カメラはWi-Fiに接続され、ユーザーはスマートフォンで監視動画を見ることができる)、レイテンシや誤警報も低減できるという。また、多くのクラウドベースのホームセキュリティカメラで必要なサブスクリプションプランに加入する必要がなく、さらにSimCamはクラウドサーバーをメンテナンスする必要がないため、デバイスの価格を下げることができる。

[原文へ]

(翻訳:塚本直樹 Twitter

Baidu Cloudがエッジコンピューティングのためのプラットホームをオープンソースで立ち上げ

中国のテクノロジー大手BaiduがCESで、オープンソースのエッジコンピューティングプラットホームOpenEdgeを発表した。それは同社の既存の商用プロダクトBaidu Intelligent Edge(BIE)のローカルパッケージ部位で、当然ながらそのサービス部位との相性は良く、共にエッジのノードやアプリケーションの管理を行なう。

これは言うまでもなくデベロッパー向けの発表だから、Baiduがそのリリースの場として、消費者製品の大会であるCESを選んだ理由はよく分からないが、でも中国のテクノロジー大企業が今やオープンソースの手練になってることは、疑う余地がない。それらBaidu, Alibaba, Tencentなどの企業はLinux Foundationの会員であることも多く、多くの堅固なプロジェクトを育てている。また主要なオープンソース企業たちも、今では中国を成長市場と見なしている。だからその中国で今、自分のプロジェクトをオープンソースにする企業が増えているのも、自然な成り行きなのだ。

Baidu CloudのVPでGMのWatson Yinは次のように述べる: “エッジコンピューティングはBaiduのABC(AI, Big Data, Cloud Computing)の重要な部位である。コンピュートをデータソースの近くに移すことによって、レイテンシーを大幅に減らし、帯域の無駄遣いもなくなり、エンドユーザーにリアルタイムで没入的な体験を届けることができる。またそれをオープンソースのプラットホームにすれば、デベロッパーが自分独自のエッジコンピューティングアプリケーションを作る過程が、大幅に単純化される”。

また同社のスポークスパーソンによると、そのオープンソースプラットホームにはデータ収集、メッセージ配布、AIの推論などの機能が含まれ、クラウドとシンクするためのツールもある。

Baiduは今日(米国時間1/9)さらに、同社がIntelとパートナーしてBIE-AI-Boxをローンチ、またNXP SemiconductorsとパートナーしてBIE-AI-Boardをローンチすることを発表した。Boxは車載ビデオの分析用、一方Boardはカメラやドローン、ロボットなどのアプリケーションで使える小型のボードだ。

CES 2019 coverage - TechCrunch

画像クレジット: Tomohiro Ohsumi/Bloomberg

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSのGlobal Acceleratorはアプリケーショントラフィックのグローバルネットワーク上の最適ルートを見つける

AWSの顧客は、さまざまな理由で複数のゾーンでアプリケーションを動かさなければならない場合が多い。理由としては、パフォーマンスの要求もあるだろうし、各国の規制の問題や、フェイルオーバーの管理もあるだろう。その理由が何であれ、AWS今夜(米国時間11/26)、顧客が複数のリージョンにまたがってトラフィックを容易にルートできるためのツールGlobal Acceleratorを発表した。

AWSのグローバルインフラストラクチャとカスタマーサポート担当VP Peter DeSantisが月曜の夜AWS Re:Inventで説明したところによると、AWSの顧客のトラフィックはすでにAWSの大きなネットワーク上を流れており、顧客はAWSのDirect Connectを使ってアプリケーションのパフォーマンスを一定に保ち、AWSの複数のリージョン間で移動する場合もネットワークの変動がないようにしている。しかし彼によると、これまで欠けていたのは、AWSのグローバルなネットワークを使って彼らのアプリケーションを最適化する方法だ。

DeSantisはre:Inventの聴衆に向かってこう述べた: “今夜、AWS Global Acceleratorをみなさまに発表できることを嬉しく思っております。AWS Global Acceleratorによりみなさまは、AWSのグローバルなネットワークを利用してアプリケーションのパフォーマンスと可用性を容易に向上できます”。

説明図提供: AWS

DeSantisは曰く: “;みなさまの顧客のトラフィックはエンドユーザーから最寄りのAWSエッジロケーションへルートされ、そこから、渋滞のない、冗長性のある、可用性の高いAWSグローバルネットワークを渡っていきます。そのときAWS Global Acceleratorはパフォーマンスを上げるだけでなく、エラー隔離機能によりネットワークの健康状態やみなさまのアプリケーションの構成の異変に直ちに反応します”。

そのときネットワークのアドミニストレーターは、健康状態や地理的要件などのポリシーに基づいてトラフィックをルートでき、トラフィックはそれらのポリシーに基づいて行き先のゾーンへと自動的に移動していく。

AWSの計画では、課金は顧客が作るアクセラレータの数に基づいて行われる。“アクセラレータはAWSのグローバルネットワーク上でトラフィックを最適のエンドポイントへと差し向けるために作るリソースだ。通常は一つのアプリケーションにつき一つのアクセラレータをセットアップするが、複雑なアプリケーションが複数のアクセラレータを必要とする場合もある”、とAWSのShaun Rayが、この新しい機能を発表するブログ記事に書いている。

AWS Global Acceleratorは今日から、アメリカとヨーロッパとアジアのいくつかのリージョンで利用できる。

画像クレジット: Ron Miller

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Snowball EdgeでEC2を現場で動かせるようになった――AWS、エッジ・コンピューティングをさらに強化

AWSのエッジコンピューティング・デバイス、Snowball Edgeはすでに広く使われている。しかし今日(米国時間7/17)、AWSはきわめて役立つ新機能を追加した。これまで、このデバイスは大量データの保管、転送、GreengrassサービスとLambdaを利用したある種のタスクの実行などに使われていた。しかしAWSはさらに一歩を進め、フラグシップ・コンピューティング・サービス、EC2をSnowball Edge上で利用できるようにした。

これにより、たとえば、工場内にデバイスを設置してそれまで使ってきたAmazon Machine Imagesを実行することができる。これによりまず帯域幅が大きく節減できる。ユーザーはEdgeデバイスですべてのコンピューティングを実行するか、プリプロセッサとして利用し、処理済みのデータをAWSに転送することができる。操作には従来のAWSのマネジメント・コンソール(ないしコマンドライン)を使える。Snowball Edgeは1.8 GHzのIntel Xeonプロセッサを内蔵しており、最大32GBのメモリで24のvCPUまで作動させることができる(メモリサイズ、vCPU個数の組み合わせは自由に設定できる)。

従来どおりの単一のマネジメント・コンソールから管理できるサーバーの中にSnowball Edgeが含まれるようになった、つまり他のAWSのクラウド上のマシンとまったく同様に扱えるようになったというのがAmazonが強調するメリットだ。念のために付け加えれば、OpenStackのエッジ・コンピューティングの基礎をなすアイディアだ(ただしSnowballはOpenStackより設定がはるかに簡単)。またMicrosoftのAzure Stackや各種のエッジ・コンピューティング・サービスが目指すのも同じ方向だ。

デバイスをレンタルする必要があるためSnowball Edgeのコストは決して安くはない。しかしオンデマンドによるコンピューティングのコストの大半はデータ転送費用で、これは500ドルからスタートする。Snowball Edgeを1台、1年間使うと少なくとも1万5330ドルかかる。しかし企業がエッジ・コンピューティングで処理を完了する前に、 AWSとデータをやり取りする必要が起きるケースはめったにないだろう。 また公平に言って、1万5330ドルという価格は同種のライバルに比べてはるかに安い。

〔日本版〕AWS日本語ページのSnowball Edgeの説明はこちら(EC2の利用に関してはまだ説明がない)。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Microsoft Build 2018:キーワードはAIとエッジ――Azure IoT Edgeを大幅アップデート

この月曜(米国時間5/7)からシアトルでBuild 2018デベロッパー・カンファレンスがスタートした。Microsoftはここで人工知能とエッジ・コンピューティングに多大な力を入れている。特に目立ったのは、倉庫管理用の大型産業機器や油井をリモートコントロールするツールなどを含むエッジ・デバイスで作動する多くの既存のAzureサービスへの機械学習の適用だ。

こうしたサービスはひっくるめてAzure IoT Edgeと呼ばれているが、Build 2018で大幅なアップデートが発表された。IoT EdgeはAI、Azure、IoTデバイス向けカスタムアプリ各種からなる。

Microsoftが今日発表したAzure IoT EdgeはMicrosoftのIoT Hubサービスをベースとしているが、Event Grid やKubernetesコンテナのサポートと同時に同社のCognitive Services APIのサポートが発表された。 加えてMicrosoftはAzure IoT Edgeのランタイムをオープンソース化した。つまりデベロッパーは必要に応じてランタイムをカスタマイズすることができるようになる。

今回のハイライトは、エッジ・コンピューティングに対するCognitive Servicesのサポート開始だろう。現在このサービスは限定版となっており、Custom Visionの視覚サービスのみが利用できる。しかし将来は他のCognitive Servicesに範囲を広げる計画だ。このサービスの魅力は明らかだ。大型の産業用機器からドローンまで各種のデバイスがインターネット接続なしに機械学習を応用したサービスを利用できる。視覚サービスの場合であれば、オフライン状態でも機械学習モデルを使った対象の認識が可能になる。

AIに関しては、エッジ・コンピューティングをリアルタイムAI化する新しいBrainwave深層ニューラルネットワーク・アクセラレータ・プラットフォームが発表された。

MicrosoftはQualcommと提携し、IoTデバイス上で機械学習に基づく推論を実行できるAIデベロッパー・キットを発表した。 最初のバージョンはカメラの利用を中心としたものとなる。
Qualcommが最近独自の ビジョン・インテリジェンス・プラットフォームをスタートさせたことを考えれば驚くには当たらない。

IoT Edgeは機械学習関連以外の分野でも多数のアップデートを受ける。Kubernetesのサポートが開始されるのは大きい。またスマートな決断でもある。デベロッパーはKubernetesクラスターをビルドすることによってエッジ・デバイスとクラウドサーバーの双方にまたがるソフトウェアを容易に開発できるようになる。

Microsoftのイベント・ルーティング・サービスであるEvent Gridがエッジでサポートされるのも順当だろう。サービスを協調動作させるためにいちいちリデータセンターのサーバーを経由するのでなしに、エッジで直接ルーティングができればレイテンシーははるかに少なくなるはずだ。

この他、 IoT Edgeではマーケットプレイスの開設も計画されている。このマーケットプレイスではMicrosoftパートナー、デベロッパーがエッジ・モジュールを共有し、収入を得ることができるようになる。また新しいハードウェア認証プログラムでは、デバイスがMicrosoftのプラットフォームと互換性があることをメーカーが保証できる。IoT Edge、 Windows 10 IoT、Azure Machine Learningでは近くDirextX 12 GPUによるハードウェア・アクセラレーション・モデルの評価をサポートするようになる。DirextX 12 GPUはほぼすべての最新のWindowsパソコンで利用可能だ。

〔日本版〕Build 2018のセッションのライブ配信はこちら。Kevin ScottはMicrosoftのCTO。上のアニメでは1982年、高校時代のKevinが登場してマイクロコンピューターこそ未来だと主張する。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AWS Lambdaのイベントトリガを使いやすくしてWebサイトの開発方法を改革するNetlify

Webプロジェクトの継続的なデプロイメントを支援するサービスNetlifyのビジョンは、Webサイトの作り方を変えることだ。とくに、フロントエンドのデザインとバックエンドで実行されるサービスとの結合を、もっとシンプルにしたい。今日同社は、そのビジョンの実現に向かう次の一歩として、NetlifyのサービスにAWS Lambdaのファンクションを導入した。

同社のねらいは、Web開発に伴う多くの複雑性を、できるだけ減らすことだ。たとえば、ユーザーがHTMLとJavaScriptでフロントエンドをデザインすると、Netlifyはそれをさまざまなサービスに結びつける。決済ならStripe、メールによるニューズレターの管理ならMailChimp、というように。このやり方でNetlifyは、Webサーバーという概念を抽象化(実体のないものに)してしまう。デプロイが遅くてセキュリティもスケーリングも困難なあのあれが、消えてなくなる。そして、一枚岩的なWebサイトから、スタティックなフロントエンドとバックエンドのマイクロサービスという組み合わせへ移行し、それによりセキュリティとスケーリングの問題を解決、そしてサイトを従来よりも相当早くユーザーに渡せるようになる(デリバリが早い)、と同社は信じている。

ユーザーは、サイトの構築に何を使ってもよい。ユーザーが作った設計/デザインを渡されたNetlifyは、バックエンドのコーディングのすべてをエッジに置き、コードはエッジで実行される。その意味で同社のサービスは、半分はContent Delivery Network(CDN)、残る半分はデベロッパーの自動化エンジンだ。

この、より動的なWebサイトをより早く作るというNetlifyの能力がAndreessen HorowitzのパートナーPeter Levineの目に留まり、昨年8月に同社の1200万ドルのシリーズを彼がリードした。Levineは曰く、“彼らの、マイクロサービスとAPIsを活用して柔軟性に富む動的な(ダイナミックな)Webサイトを作る、という考え方はすばらしいアイデアだ。しかも、エッジへデプロイすることによって、さらにハイパフォーマンスなユーザー体験を作れるし、GitHubを統合することによってアプリケーションを容易に作成し管理できる”。

今日の発表は、同社のサービスのそんなアプローチをさらに一歩前進させる。Lambdは、AWSのいわゆるサーバーレス・ツールだ。デベロッパーはファンクションを作り、それが特定のイベントにトリガされて実行される。デベロッパー側には、サーバーを24/7動かし管理しメンテナンスする苦労がない。これは、NetlifyのWeb開発アプローチとぴったり相性が良い。つまりそれは、AWS Lambdaと同じく、WebのパブリシングプロセスからWebサーバーを取り除くから。

そしてNetlifyは、Lambdaのファンクションを、もっと容易に実行できるようにした。同社によると、Webデベロッパーは確かにイベントトリガーという考え方を気に入っているけど、AWSのワークフローは複雑すぎる。イベントトリガーをデベロッパーのアイデンティティで容易に作れるようになれば、Lambdaをもっと気軽に利用できるだろう。

同社の協同ファウンダーChristian Bachは、こう説明する: “Lambdaが良いことは自明だが、それを軸とするワークフローがないために、使いづらい。われわれにはフロントエンドをパブリシングするワークフローがあるので、サーバーレスもそれと同じようにしたい、と考えた”。

“Lambdaのトリガのひとつひとつが小さなマイクロサービスになり、ブラウザーからそれらにアクセスできる”、と彼は述べる。たとえばStripeを使って決済をする場合なら、Stripeの秘密の認証情報のコードで決済のゲートウェイに入る。“従来なら、この小さな呼び出しのために、どこかでサーバーを動かす必要がある。この小さな機能だけのために、Railsのアプリケーションを作るだろう”、Bachはそう述べる。

しかしNetlifyのやり方では、認証情報を数行のコードでタイプし、それからLambdaのトリガとNetlifyの糊的なコードを少々使うだけだ。これにより、そのコードをどこに置くか、それをどうやって管理するか、という問題が解決する、とBachは言う。

かねてからエッジコンピューティングをテクノロジーの大きな駆動因として見ているLevineがNetlifyのシリーズAをリードし、同社の取締役会に加わったたのは、たぶん偶然ではない。

Levineは曰く、“かなり前からエッジコンピューティングには注目しているし、Netlifyは、エッジにおけるサービスという大きなトレンドの一部だ。同社は、現代的なWebサイトを構築しデプロイする方法を開発した”。

同社は、2015年に創業され、これまでに1410万ドルを調達している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Cloudflareが自分のグローバルネットワークへのアクセスを提供して真のエッジコンピューティングを可能に

ますます多くのコンピューティングがエッジへ移行して行くに伴い、プログラマーはレイテンシーを減らしパフォーマンスを上げるために、ユーザーになるべく近いコンピューティングパワーにアクセスしたい、と願っている。今日(米国時間3/13)Cloudflareが発表したCloudflare Workersは、そんなデベロッパーたちがCloudflareのネットワークのエッジで直接実行されるコードを、書けるようにする。

同社の協同ファウンダーでCEOのMatthew Princeによると、これまでそんなアクセスができるのはCloudflareの社員だけだった。“今日からはそれを、自分のアプリケーションをエッジで動かしたい人なら誰でも使える。これによってCloudflareの可能性も広がり、アプリケーションのこれまではできなかったような構成やプログラミングが可能になる”、と彼は説明する。

今の、IoTやゲーム、ビデオなどのアプリケーションは大量の帯域を使用するから、処理をなるべくエッジに持ってこれればパフォーマンスも改善され、またコードの実行に対する細かい粒度のコントロールも可能になる。

Princeによると、プログラマーは、ユーザーがそのアプリケーションにアクセスする場であるフロントエンドをいじったり、あるいはバックエンドではデータベースをいじくってパフォーマンスをアップしようとする場合が多い。しかしこれまでの彼らは、Cloudflareのネットワーク上のどこで自分のコードが実行されるかを、コントロールできなかった。

“本質的にローカルなプロダクトを開発する場合は、大多数のユーザーが至近距離にいるわけだから、コードがエッジで実行されるようプログラミングすればよい”、と彼は語る。至近距離という言い方は、誇張でなない。Cloudflareはデータセンターが世界中127箇所にあり、しかもその数はコンスタントに増え続けている。

この新しいサービスによりプログラマーは、コードが実行される場所をJavaScriptのコードで指定できる。しかも、そのコードをアップデートすると、エンドユーザーのところでアプリケーションのアップデートをする必要なく、ほとんどすぐに実装される。変更を、今使っているクラウドプロバイダーへアップロードする必要もない。

Cloudflareは、企業のWebサイトのパフォーマンスとセキュリティを向上することがメインの仕事だが、今回は自分のネットワークのパワーを顧客に利用させようとしている。コードの実行場所をプログラミングできることによって、ユーザーは自分のアプリケーションを動かすために必要なさまざまなレベルのリソースにアクセスでき、そしてロードバランシングやリソースアロケーションなどの面倒な仕事はCloudflare自身がやってくれる。AWsなどの、クラウドインフラストラクチャプロバイダーが、まさにそうやっているように。

2009年に創業された同社は、これまでに1億8200万ドルを調達し、これからの数か月ないし数年で同社のネットワークへのアクセスを拡大したい、という大きなビジョンを持っている。Princeによると、同社は昨年売上1億ドルのラインを超え、社員は600名を抱えている。今回のCloudflare Workersのようなサービスが加わると、売上はさらに拡大し、同社が作った全世界的なネットワークを、さらに有利に利用していけるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Intel、Xeon D-2100を発表――新CPUでエッジ・コンピューティングに対応

自動運転や産業用IoTセンサーなどの高度なテクノロジーが普及するにつれ、 エッジ・コンピューティングの強化がますます必要とされるようになった。つまりデータをクラウドに送って処理させるのが不適当なコンピューティング領域が増えてきた。データは収集されたその場でただちに処理される必要がある。わずかなレイテンシーであっても重大な問題を引き起こす可能性があるからだ。

今日(米国時間2/7)、Intelは新しいCPU、Intel Xeon D-2100を発表した。このチップは顧客のエッジ・コンピューティング能力を強化することを目的としている。またライバルの追い上げに対抗してエッジ・コンピューティングやIoTといった先端分野で先頭を走ろうとするIntelの戦略の一環でもある。

ネットワークの端、エッジにおけるコンピューティングには省電力と省スペースという特有の能力が必要とされる。新しいチップはこの要請に答えようとするものだ。たとえば、Xeon
DはSoC(System-on-a-Chip)というスタンド・アローン・システムだ。演算処理だけでなく、ネットワーク接続やストレージといったシステムを構築するために必要な能力がすべてチップ上に組み込まれている。また省電力性能も高い。これはデータセンターのサーバーとくらべて電力供給が制限されるエッジ・デバイスに用いるために必須の条件だ。

Intelのデータセンター・グループのバイス・プレジデント兼データセンター・プロダクト・マネジメント・グループのジェネラル・マネージャー、Jennifer Huffstetlerは新チップを紹介するブログ投稿で、この種のアーキテクチャーのニーズが高まっていることを指摘した。「データセンターの能力をエッジに向かって拡張するにあたって、サービスのプロバイダーはデータをネットワークのエンドポイント、つまりエッジ・デバイスそのもので処理するソリューションを提供しなければならない。これによりアプリケーションの処理におけるレイテンシーを減少させることができ、数多くのまったく新しいコンピューティング体験と応用分野を提供できる」と書いている。

またHuffstetlerはSoCについて、「単一パッケージに必要な要素がすべて組み込まれていることにより、セキュリティーが強化されたハードウェア・ベースのネットワークを構築することが可能となる」としている。Xeon Dは小さいパッケージだが、Skylake-server世代の Xeonコアを18個備え、 100Gbpsの暗号化、復号化、暗号化加速テクノロジーを内蔵している。IntelではこれをQuickAssist Technologyと呼んでいる。

Intelでは新しい5GネットワークでVR、AR体験が可能となるスマートフォンや自動運転車を設計する上でこのテクノロジーは決定的に重要なものになるとしている。VPNやソフトウェア・ベースのWANを作動させるにも役立つ。またCDNのようにネットワークのエッジに近い部分での性能が重要なクラウド処理の負荷分散にも効果があるという。

Intelでは新しいチップを利用するパートナーとしてDell、EMC、Ericsson、NEC、NetApp、Palo Alto Networksなど多様なサードパーティーと協力していく。

またSpectreとMeltdown脆弱性について、IntelではXeon Dチップには新たに開発したパッチを組み込んでいるという(Intelが発表した当初のパッチには不必要なリブートを起こすなどの問題があった)。

画像:Intel

[原文へ]

(翻訳:滑川海彦@Facebook Google+