Google CloudでMemcachedが使えるようになった

GoogleはこのほどMemorystore for Memcachedのベータ版を公開した。GoogleのMemorystoreサービスは高速性が必要とされる大規模データベースなどをクラウドのインメモリで作動させるのに適しているが、ここでMemcachedがフルマネージドで利用できるようになった。これは複数サーバのメモリを統合して利用するためのオープンソースのプロトコルで、2018年にGoogleがスタートさせたRedis向けインメモリデータストアサービスに含まれることになる。

米国時間4月3日の発表でMemorystoreのプロダクトマネージャー、Gopal Ashok(ゴパル・アショク)氏は「Redisは今後もセッションストア、ゲームのリーダーボード、ストリーミング分析、マルウェアの脅威検出、APIレート制限などのユースケースで引き続き人気ある選択肢だろう。現在、Memcachedはデータベースのキャッシュのレイヤーとして頻繁に利用されている。デベロッパーはMemcachedをセッションストアにもよく用いている。我々の新サービスを利用すれば、インスタンスごとにメモリのクラスターのサイズを最大を5TBまで拡張できる」と述べている。

このサービスは名称のとおり、オープンソースのMemcachedと完全に互換性がある。従ってデベロッパーはコードに手を加えることなくMemcachedプロトコルを利用した既存のアプリケーションをGoogle CloudのMemechacedプラットフォームで運用することができる。

フルマネージドサービスなので作動のモニタ、パッチの適用などの定型業務はすべてGoogleが処理する。最大キャッシュサイズを決める部分にはやや職人技が残るが、Google Cloudでは「詳細な統計を提供するのでデベロッパーはインスタンスの大きさを上下させ、実行するユースケースに対して最適なキャッシュサイズを容易に設定できる」としている。Googleが提供するモニタ情報は Cloud Monitoringによって測定される。これはGoogle Cloudの中心的ダッシュボードであると同時にAWSの動作も計測できるという。

現在、Memorystore for Memcachedは Compute Engine、Google Kubernetes Engine(GKE)、App Engine Flex、App Engine Standard、Cloud Functionsで実行されるアプリケーションに使用できる。

Memcachedの利用に関しては、AWSがElastiCache for Memcachedで同種のサービスを提供している。またMemCachierなどこのプラットフォームの利用を専門とするスタートアップがある。Redis Labsも、フルマネージドのMemcachedサービス、Memcached Cloudを提供している。このサービスはAWS、Azure、Google Cloudで実行できる。

画像クレジット:Krisztian Bocsi/Bloomberg/Getty Images(Googleのベルリンオフィス)

原文へ

(翻訳:滑川海彦@Facebook

IBM、アマゾン、グーグル、マイクロソフトなど数社が米政府と協力、新型コロナ研究のためのスパコンの演算パワーを提供

米国時間3月22日のホワイトハウスでのコロナウイルスタスクフォース記者会見でトランプ大統領は、米国のスーパーコンピューティングリソースの力を解き放つ、新しい公共・民間コンソーシアムの立ち上げを発表した。このコンソーシアムのメンバーは、ホワイトハウス、エネルギー省(DoE)、そしてIBMだ。Google(グーグル)Amazon(アマゾン)、Microsoft(マイクロソフト)をはじめとする他の企業や多くの学術機関も「さまざまなことで貢献している」と大統領は述べた。

トランプ大統領のコメントはよくある不明瞭なものだったが、IBMがより多くの詳細を発表し、現在多くの国立研究所や他の機関と協力しながら、疫学、バイオインフォマティクス、そして分子モデリングのための多彩なプロジェクトに、合計330ペタフロップスのコンピューティングを提供すると述べた。Amazon、Google、Microsoftも、IBM、ホワイトハウス科学技術政策局、エネルギー省が主導するコンソーシアムの一員だ。

IBMとそのパートナーは、寄せられる提案を評価し、すぐに効果を出せる可能性が最も高い提案に、高性能コンピューティングリソースへのアクセスを提供できるように調整する。

「スーパーコンピューターは、今回のウイルスとの戦いに、どのように役立つのでしょうか?これらの高性能コンピューティングシステムによって、研究者は疫学、バイオインフォマティクス、および分子モデリングのための膨大な計算を実行することができるのです。これらの作業をもし手作業で行った場合には何年もかかりますし、従来のより遅いコンピューティングプラットフォームを使った場合でも何ヶ月もかかるでしょう」と語るのは、IBMのリサーチディレクターであるDario Gil(ダリオ・ジル)氏だ。

AWSはすでに2000万ドル(約22億円)を新型コロナウィルス(COVID-19)の研究のために提供しており 、一方Microsoftもすでに多くの異なる活動を発表している。それらの大部分は今回の危機の影響に対処するビジネスたちを支援するために用いられる。Googleは自身でコロナウイルスのウェブサイト を立ち上げた(かつてトランプ大統領が約束したものとは非常に異なってはいるが)、またアルファベット傘下のヘルス関連企業のVerily(ベリリー)は、必要に応じてベイエリアの住民たちが検査場所を見つけることができるような支援を提供している。

本日の発表の後にホワイトハウスは、Microsoft、Google、その他のパートナーからの声明も共有した。「高性能コンピューティングは、大量のデータセットの処理と複雑なシミュレーションの実行にかかる時間を、数日から数時間に短縮できることを私たちは知っています」と声明の中で語るのは、Google CloudのGlobal Public Sector担当副社長のMike Daniels(マイク・ダニエルズ)氏だ。「テクノロジー、学界、公共部門のリーダーの方々と一緒にこのイニシアチブに参加することで、新型コロナウイルス研究者の皆さんがより多くのリソースを利用できるようにして、将来の治療とワクチンの開発に、Googleクラウドコンピューティング機能を適用できることを楽しみにしています」。

同様に、MicrosoftのAI for HealthプログラムのグローバルリーダーであるJohn Kahan(ジョン・カーハン)氏は、Azureクラウドへのアクセスを拡大し、研究者たちとMicrosoftのデータサイエンティストたちとの協力の機会を増やすことで「新型コロナウイルスと闘う研究者の方々が必要なツールに確実にアクセスできるようにする」ことを望んでいると述べている。

「本日私は、米国のスーパーコンピューティングリソースの力を解き放ち、中国ウイルスと戦うために、ホワイトハウス、エネルギー省、IBMによって主導される新しい公共/民間コンソーシアムの立ち上げを行ったことを発表します」。本日の記者会見でのブリーフィングの中で、トランプ大統領は相変わらず新型コロナウイルスを「中国ウイルス」と呼び続けた。

「民間産業、学界、政府のリーダーたちが貢献してくれるでしょうし、その貢献は多岐にわたることでしょう。しかし中心になるのは…研究者が新しい治療法とワクチンを発見するのを支援するためのコンピューティングリソースの提供です。彼らは、NIHやこの問題に取り組んでいるすべての人々と一緒に仕事を進めます。そのためには、IBM、Google、Amazon、Microsoft、MIT、レンセラー工科大学、エネルギー省(DoE)、国立科学財団(NSF)、そしてNASAからの多大な支援が行われます。皆がこのプロジェクトに貢献しています」。

画像クレジット:Danita Delimont / Getty Images

原文へ
(翻訳:sako)

Googleがクラウドネイティブのセキュリティに対するアプローチを詳解

Googleのさまざまなホワイトペーパーは、同社が特定の問題をどのように解決するのかを、長年にわたって大規模に詳述してきた。それが、定期的に新しいスタートアップのエコシステムを生み出したり、他の企業が独自のツールを拡張する際の方針を左右することもある。米国時間の12月17日、同社はクラウドネイティブ・アーキテクチャをどのようにして安全に維持するかについて、詳しく説明した新しいセキュリティホワイトペーパーを公開した。

画像クレジット:Beata Zawrzel/NurPhoto/Getty Images

BeyondProdという名前が示すように、これは数年前に同社が最初に導入したBeyondCorpと呼ばれるゼロトラストシステムを拡張したもの。BeyondCorpが、セキュリティを、境界にあるVPNとファイアウォールから切り離し、個々のユーザーとデバイスに転嫁しようとするものだったのに対し、BeyondProdは、Googleのゼロトラストアプローチによって、マシン、ワークロード、サービスを接続する方法に焦点を合わせたものとなっている。

当然ながらBeyondProdも、BeyondCorpとほとんど同じ原則に基づいており、末端のネットワーク保護、サービス間の相互非信頼、既知のコードを実行するトラステッドマシン、自動化および標準化された更新のロールアウト、隔離されたワークロードを含むものとなっている。もちろん、これらはすべて、クラウドネイティブ・アプリケーションの保護に焦点を当てたもの。そうしたアプリは、一般にAPIを介して通信し、最新のインフラストラクチャ上で実行される。

「つまりこうしたコントロールは、内部で実行されるコンテナとマイクロサービスがデプロイされ、相互に通信し、隣り合って安全に実行できることを意味します。これにより、個々のマイクロサービス開発者に、セキュリティと、基盤となるインフラストラクチャの実装の詳細に関する負荷をかけることなく、セキュリティを実現できるのです」とGoogleは説明している。

Googleはもちろん、同社のGKEや、ハイブリッド型クラウドプラットフォームAnthosといった独自のサービスを通じて、こうした機能のすべてを開発者が利用できるようにすると明言してしている。さらに同社は、企業が多くのオープンソースツールを使用して、同じプラットフォームに準拠したシステムを構築できるようにすることも強調している。そこには、Envoy、Istio、gVisor、その他のプラットフォームが含まれる。

「BeyondCorpが、境界ベースのセキュリティモデルを超えるものとして、われわれのアプローチを進化させてくれたのと同じように、BeyondProdはプロダクションセキュリティに対するアプローチにおける同様の飛躍を実現するでしょう」と、Googleは言う。「BeyondProdモデルに含まれるセキュリティの原則を、各自のクラウドネイティブのインフラストラクチャに適用することで、当社の経験を活用して、ワークロードの分配、通信のセキュリティ保護、他のワークロードへの影響、といった部分を強化できるのです」。

このホワイトペーパー全体は、ここで読むことができる。

原文へ

(翻訳:Fumihiko Shibata)

米国防省は1兆円超のJEDIクラウドの最終候補にMicrosoftとAmazonを選定、Oracleは選外

米国防省は10年で100億ドル(約1.12兆円)を支出するJEDIクラウドプラットフォームの契約者決定にあたって最終候補、2社を選定したことを発表した。抗議声明訴訟裏口からの大統領への嘆願を含む数々の努力にもかかわらず、Oracle(オラクル)は選に漏れた。選ばれた2社はMicrosoft(マイクロソフト)とAmazon(アマゾン)だった。

TechCrunchの取材に対し、国防省の広報担当官であるElissa Smith氏は2社がMicrosoftとAmazon(AWS)であることを確認し、以下のように答えた。

各社案を検討した結果、国防省はJEDI(統合エンタープライズ国防インフラストラクチャー)クラウドの調達にあたり、合衆国の法規ならびに当省の規定に合致した最終提案の提出をMicrosoftとAmazonの両社に求めた。この両社の提案が今後の調達決定過程において考慮されることとなる。

国防省のクラウド計画が業界の強い関心を集めたのにはいくつかの理由がある。まず第一に総額の巨大さだが、それ以上に重要なのはこれが勝者総取りのプロジェクトだということだろう。

MicrosoftにせよAmazonにせよ、調達に選定されたとしてもいきなり100億ドルのキャッシュが手に入るわけではない。また10年間という期間も保証されたものではない。国防省はどの時点であれ計画を中断ないしキャンセルできる。とはいえ、単一企業が契約者となるという点は当初から参加者に緊張を強いるものとなっていた。

昨年、Googleがレースから離脱する一方、IBMとOracleは「選定過程が不公平だ」と大声で不平を並べた。またこれほど大規模なプロジェクトをジョイントベンチャーではなく単一ベンダーに任せるという決定に対する疑問の声も上がっていた。一方、100億ドルというのはたしかにバカにできない金額だがクラウドビジネスでは天文学的というほどの数字ではないが、関心の焦点は金額だけではなかった。

この契約の勝者は今後、各種の政府調達契約で優位に立てるのではないかというのが重要なポイントだった。つまりJEDIプロジェクトはディナーの前菜で、この後にメインのコースが続くはずという予想だ。合衆国政府にとってももっとも高い信頼性、機密保持能力を求められる国防クラウド計画を首尾よく運営することができるなら、連邦政府、州政府の他の大型クラウド計画の選定過程においても絶大な説得力を発揮するはずだ。

結局、関係他社の抗議にもかかわらず、国防省はことを予想どおりに進めた。ファイナリストはクラウド事業でもっともある実績がある2社で、国防省の仕様書の内容を実行できる可能性がいちばん高かった。MicrosoftはAmazonからだいぶ引き離されているとはいえ、この2社がクラウドの1位、2位の事業者である点は疑いない。この分野をモニターしている調査会社のデータによれば、Amazonは圧倒的な33%、Microsoftは13〜14%程度で、この2社で市場シェアのほぼ半分を握っている。

Microsoftの強みは非常に強力な生産性アプリケーションを擁するAzure Stack。これはプライベートなミニAzureで、軍にとってはきわめて使い勝手がいいはずだ。しかしMicrosoftだけでなくAmazonももちろん政府業務の経験は十分に積んでいる。両社はそれぞれにメリット、デメリットがあるので、どちらかを選ぶのは非常に困難な作業となる。

去る2月にはさらに別のドラマが展開した。国防省は元Amazonの社員が国防省が作成した新サービスの仕様策定に関与したのちAmazonに戻ったかもしれないという利益相反の疑いについて調査を実施したという報告書を公開した。報告書は「利益相反の事実はなかったが、倫理的行動義務の違反となるような部分があったかもしれない。この点の情報については省内の倫理行動基準を調査する部門に引き渡した」と述べた。

国防省は今月末に勝者を発表するが、その後もドラマはさらに続きそうだ。

画像:SOPA Images / Getty Images

原文へ

(翻訳:滑川海彦@Facebook

Cloud Nextカンファレンス開幕、Googleはオープンソース提携でAWSに挑戦

米国時間4月9日、米国サンフランシスコのモスコーニ・センターでオープンしたCloud Next 19カンファレンスで、Google(グーグル)はオープンソースのデータマネジメントとアナリティクスのトップ企業多数と提携したことを発表した

これらの企業はプロダクトをGoogle Cloudプラットフォームに統合させ、マネージドサービスとして顧客に提供する。パートナー企業には、Confluent、DataStax、Elastic、InfluxData、MongoDB、Neo4j、Redis Labsが含まれる。

Googleによれば、 この試みはGoogle Cloudを通じてユーザーにオープンソースのテクノロジーをシームレスなクラウド体験として提供するものだという。しかしカンファレンスの内容を見ていくと、Googleは明言こそしていないが、意図するところははるかに大きい。今回、オープンソース・コンピューティングをめぐるGoogleの方向はAmazonとまったく異なることが鮮明になった。

AmazonのAWSクラウドは最良のオープンソースプロジェクトを取り上げ、独自のプロダクトにフォークさせてAWSブランドのパッケージとして提供していることが広く知られている。この際AWSはオリジナルのオープンソースプロジェクトに対してほとんど何も貢献しないのが普通だ。AWSのこの方式には変化の兆しが見えるものの、こうした姿勢に反発した有力なオープンソースプロジェクトのいくつはオープンソースライセンスの条項を改正してAWSのタダ乗りを防ごうとし始めている。

そしてここが興味ある点となる。このオープンソースコンピューティングのトップ企業というのがまさに、Confluent,、Elastic、MongoDB,Neo4j、Redis Labsなど今回Googleクラウドと提携した会社なのだ。ただし、今日の提携企業のうち、InfluxDataはライセンス条項の改正を行っておらず DataStaxはたしかにオープンソーステクノロジーにも力をいれているものの、独自のエンタープライズアプリケーションも提供している。

プレス発表でGoogle Cloudのインフラ提携担当の責任者、Manvinder Singh氏は次のように述べている。

オープンソーステクノロジーをクラウドサービスでどのように利用するのが最適か、多くの議論がおこなわれてきたことはよく知られている。Kubernetes、TensorFlow、Goなどのプロジェクトによって証明されてきたように、オープンソースモデルこそはGoogleのDNAであり信念だ。多大のリソースをオープンソーステクノロジーを進歩させるために投じてきた企業同志が密接に協力することが最も重要だとわれわれは確信している。

簡単にいえば、AWSはオープンソースプロジェクトを利用して独自のブランドのプロダクトを作っている。これに対してGoogleはオープンソースプロジェクトを開発してきた企業と提携し協力していく道を選んだ。Googleも提携企業も財務面の詳細に関してはコメントを避けたが、売上の共有、配分に関してなんらかの取り決めが行われたものと推定される。【略】

提供されるプロダクトの機能に関するGoogleの基本方針は、Cloud Consoleへの密接な統合の実現だ。これはMicrosoftのAzureクラウドにおけるDatabricksと比較できるかもしれない。提携各社のプロダクトはマネージドサービスとして提供される。つまりGoogle Cloudが料金の積算、請求、支払などの事務を一括して引き受ける。カスタマーサポートもGoogleが窓口となるため、ユーザーは多数のオープンソースサービスをあたかも単一のサービスのように利用することができる。

Redis Labsの共同ファウンダー、CEOのOfer Bengal氏はこの点についてこう述べた。

今回の提携でRedis LabsとGoogle Cloudはオープンソースによるイノベーションの成果をエンタープライズユーザーに提供できるようになった。ユーザーはクラウド上でどんなテクノロジーを利用してコンピューティングを行うか自由に選択できる。また必要に応じてRedis Enterpriseを利用して独自のアプリケーション開発を行い、GCP(Google Cloudプラットフォーム)上でマネージドサービスとして利用することもできる。例えば、Redis EnterpriseをGCPコンソールから実行することも可能だ。この場合、料金処理からプロビジョニング、サポートまですべての煩雑な業務をGCPが処理してくれる。

【日本版】GoogleはYouTubeでカンファレンスのキーノートを中継録画している。

原文へ

(翻訳:滑川海彦@Facebook

IoTの力を引き出すフォグコンピューティングとは

industrycloud

【編集部注】著者のBen Dicksonはソフトウェアエンジニア兼フリーランスライターである。ビジネス、技術、政治について定期的に寄稿している。

IoT(Internet of Things)がIoE(Internet of Everything)へと進化し、実質的にあらゆる領域へ侵入するにつれ、高速なデータ処理と分析、そして短い応答時間の必要性がこれまで以上に高まっている。こうした要件を満たすことは、現在の集中型のクラウド(雲)ベースのモデルで支えられたIoTシステムでは困難なことも多い。こうしたことを容易にするのがフォグ(霧)コンピューティングである。その分散型のアーキテクチャパターンはコンピューティングリソースとアプリケーションサービスをサービスのエッジ(界面)に近付ける。そのエッジこそデータソースからクラウドへの連続体の間で最も理にかなった効率的な場所である。

Ciscoによって提唱されたフォグコンピューティングという用語は、クラウドコンピューティングの利点とパワーを、データが作られ適用される場所へ近付ける必要性を指したものである。フォグコンピューティングは、IoT業界の主要な関心事であるセキュリティを向上させながら、処理および分析のためにクラウドに転送されるデータの量を削減する。

ではクラウドからフォグへの移行が、IoT業界の現在そして未来の挑戦を如何に助けるかを以下に解説しよう。

クラウドの問題

IoTの爆発的な成長は、実際の物体やオペレーションテクノロジー(OT)が、分析や機械学習のアプリケーションと結びつけくことに負っている。そうしたアプリケーションはデバイスの生成したデータから少しずつ洞察を収集し、人間が介在することなく「スマート」な意思決定をデバイスが行えるようにする。現在そのようなリソースは、主に計算パワーおよび記憶容量を所有するクラウドサービスプロバイダによって提供されている。

しかしそのパワーにもかかわらず、クラウドモデルは、オペレーションの時間制約が厳しかったり、インターネット接続が悪い環境に適用することはできない。これは、ミリ秒の遅れが致命的な結果を招く、遠隔医療や患者のケアなどのシナリオでは特に課題となる。同じことは、車両同士のコミュニケーションにも適用される、衝突事故を回避するための機構は、クラウドサーバーへのラウンドトリップに起因する遅延を許容できない。クラウドパラダイムは、何マイルも離れた場所から脳が手足に司令をだすようなものである。迅速な反射を必要とする場所では役に立たない。

クラウドパラダイムは、何マイルも離れた場所から脳が手足に司令をだすようなものである。

またそれ以上に、クラウドに接続されているすべてのデバイスからインターネットを介して生データを送信することには、プライバシー、セキュリティ、そして法的懸念が考えられる。特に異なる国家間のそれぞれの規制に関係する、取り扱いに注意を要するデータを扱う場合にはそれが問題となる 。

フォグの位置付けは完璧

IoTノードは作用する場所の近くに置かれているが、現状では分析や機械学習をこなすためのリソースを保有していない。一方クラウドサーバーは、パワーは持つものの、適切な時間内にデータを処理したり応答したりするためにはあまりにも遠く離れすぎている。

デバイスの配置されたエッジ近くで、クラウド機能を模倣するための十分な計算、ストレージ、そして通信リソースを持ち、局所的なデータ処理と素早い応答を返すことのできるフォグレイヤーは、完璧な接合場所である。

IDCによる調査によれば、2020年までに世界のデータの10パーセントは、エッジデバイスによって生成されることが推定されている。これは、低レイテンシと同時に総合的なインテリジェンスを提供する、効率的なフォグコンピューティングソリューションの必要性を促す。

フォグコンピューティングには支持母体がある。2015年11月に設立されたOpenFogコンソーシアムがそれで、その使命はフォグコンピューティングアーキテクチャにおける業界や学術のリーダーシップをまとめることである。コンソーシアムは、開発者やITチームがフォグコンピューティングの真の価値を理解するために役立つリファレンスアーキテクチャ、ガイド、サンプルそしてSDKを提供する。

すでに、Cisco、DellそしてIntelといった主要ハードウェアメーカーたちが、フォグコンピューティングをサポートする、IoTゲートウェイやルータを提供しているIoT分析や機械学習のベンダーたちと提携している。その例の1つが、最近行われたCiscoによるIoT分析会社ParStreamIoTプラットフォームプロバイダJasperの買収である。これによりネットワーク業界の巨人はそのネットワーク機器により良い計算能力を埋め込むことができ、フォグコンピューティングが最も重要なエンタープライズITマーケットにおける大きなシェアを得ることができるようになる。

分析ソフトウェア会社も製品を拡充し、エッジコンピューティングのための新しいツールを開発しいる。ApacheのSparkは、Hadoopエコシステム(エッジが生成するデータのリアルタイム処理に適している)上に構築されたデータ処理フレームワークの一例である。

クラウドによって得られた洞察は、フォグレイヤーでのポリシーや機能の、更新や微調整を助けることができる。

IoT業界の他の主要なプレーヤーたちもまた、フォグコンピューティングの成長に賭けている。最先端のIoTクラウドプラットフォームの1つであるAzure IoTを擁するMicrosoftは、フォグコンピューティングでの優位性の確保を目指して、そのWidows 10 IoTを、IoTゲートウェイ機器や、フォグコンピューティングの中核を担うその他のハイエンドエッジデバイスのためのOSの選択肢としてプッシュしている。

フォグはクラウドを不要にするのか?

フォグコンピューティングは効率を改善し、処理のためにクラウドに送られるデータ量を削減する。しかしそれは、クラウドを補完するために存在するもので、置き換えるものではない。

クラウドはIoTサイクルにおける適切な役割を担い続ける。実際に、フォグコンピューティングがエッジ側で短期分析の負担を引き受けることにより、クラウドリソースは、特に履歴データや膨大なデータセットが関わるような、より重いタスクをこなすために使われるようになる。クラウドによって得られた洞察は、フォグレイヤーでのポリシーや機能の、更新や微調整を助けることができる。

そして、集中化され非常に効率的なクラウドのコンピューティングインフラストラクチャが、パフォーマンス、スケーラビリティそしてコストの点において、分散システムをしのぐ多くの事例も、まだみることができる。これには、広く分散したソースから得られるデータを解析する必要がある環境などが含まれる。

フォグとクラウドコンピューティングの組み合わせこそが、特に企業におけるIoTの適用を加速するものなのだ。

フォグコンピューティングのユースケースは?

フォグコンピューティングの適用対象は多い、それは特に各産業環境におけるIoTエコシステムの重要な部分を支える。

フォグコンピューティングのパワーのおかげで、ニューヨークに拠点を置く再生可能エネルギー会社Envisionは、運用する風力タービンの巨大ネットワークの効率の15%向上を達成することができた。

同社は、管理する2万基のタービンにインストールされた300万個のセンサによって生成される20テラバイトのデータを一度に処理している。エッジ側に計算を移管することによって、Envisionはデータ解析時間を10分からたったの数秒に短縮することができ、これにより彼らは対応可能な洞察と重要なビジネス上の利便性を手に入れることができた。

IoTの会社Plat Oneは、同社が管理する100万個以上のセンサーからのデータ処理を改善するために、フォグコンピューティングを使っている別の事例である。同社は、スマート照明、駐車場、港、および輸送の管理、ならびに5万台のコーヒーマシンのネットワークを含む膨大な数のセンサーのリアルタイム計測サービスを提供するためにParStreamプラットフォームを利用している。

フォグコンピューティングは、スマートシティにもいくつかのユースケースを持っている。カリフォルニア州パロアルトでは 連携する車両群と信号機を統合する300万ドルのプロジェクトが進行している、うまくいけば他の車両のいない交差点で理由もなく待たされることはなくなる未来がやってくるだろう。

走行時には、運転パターンからリアルタイムに分析と判断を提供することによって、半自動運転車のドライバーたちの注意力の低下や、進行方向が曲がることを防ぐことを助ける。

また、警察の計器盤やビデオカメラから生成される音声やビデオ記録の膨大な転送データ量を削減することも可能である。エッジコンピューティング機能を搭載したカメラは、リアルタイムでフィードされる動画を分析し、必要なときに関連するデータのみをクラウドに送信する。

フォグコンピューティングの未来とは何か?

現在フォグコンピューティングは、その利用と重要性がIoTの拡大に伴って成長を続け、新しい領域を広げていく傾向にある。安価で低消費電力の処理装置とストレージがより多く利用できるようになれば、計算がよりエッジに近付いて、データを生成しているデバイスの中に浸透し、デバイス連携によるインテリジェンスと対話による大いなる可能性の誕生をも期待することが可能になる。データを記録するだけのセンサーは、やがて過去のものとなるだろう。

[ 原文へ ]
(翻訳:Sako)