IBMが教育スタートアップGalvanizeと共同でWatson APIの機械学習アプリケーションへの応用を教える

IBMは同社の今年のInterConnectカンファレンスで、機械学習の学習コースを発表した。それは、スタートアップの卵たちにワークスペースと教育を提供しているGalvanizeとの提携事業で、主にWatsonのAPIの使い方を教えていく。それらのAPIを利用すれば、言葉や音声や視像(画像や映像)の認識に依存するアプリケーションの構築が、容易にできるようになる。

そのコースはIBM Cognitive Courseという、なんか冴えない名前だが、4週間で機械学習の基礎とWatsonで何ができるかを教える。生徒はそのクラスに、IBMのクラウドプラットホームBluemixからアクセスする。

IBMでWatsonとIBM Cloudを担当しているCTOのBryson Koehlerはこう言う: “WatsonのAPIで何ができるのか、知らない人もいる。Watsonのエキスパート、と呼べるほどの技術者は、まだとても少ない”。

コースを補助するリアルなワークショップ、題してBuilder Fairsが、Austin, Denver, New York, San Francisco, Seattle, Bostonの各都市で行われる。また、ハッカソンや個別面談(“オフィスアワー”)などのイベントBuilder Spacesも予定されている。

“ワークショップがあることは、この学習ではきわめて重要だ”、とは語る。“実用アプリケーションを作れるためには、実物体験が欠かせないからね”。

Galvanizeは過去にいろんなコースを展開した経験があり、そのために技術者たちのコミュニティができている。最初のBuilder Spaceは、今行われているInterConnectカンファレンスがその会場になる。

クラウドコンピューティングを提供している各社はこのところ、デベロッパーへの訴求に熱心だ。デベロッパーというより、これから人生で初めてプログラミングをする、という超初心者も対象にし始めている。IBMは、Galvanizeとのパートナーシップで、最初からいきなり技術者たちの大きなコミュニティに訴求できる。この前GoogleがKaggleを買収したのも、同じねらいだ。コミュニティの人数はもっと多い。

クラウド上のデベロッパー向け学習リソースは、AWSにも、AzureやGoogle Cloudにもある。たとえばGoogleはUdacityと組んで、ディープラーニングの3か月コースを提供している…こちらはもちろんWatsonではなくTensorFlowが中心だ。

IBMには前から、Galvanizeとの関係がある。GalvanizeのデータサイエンスのディレクターNir Kalderoは、2017年のIBM Analytics Championに指名された。昨年の秋に両社共同で、企業役員のためのデータサイエンス教育を催している。また昨年初めには、両社でエンタープライズ顧客のためのBluemix Academyを開催した。Galvanize単独では、IBMのクラウドプラットホームのプロモーションのために、サンフランシスコでBluemix “Garage”を行った。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

自動運転車を混乱させる“罠”を考えたパフォーマンスアーチストJames Bridle

自動運転車に何ができるか、については、本誌もこれまでさんざん書いてきたけど、ときには、できないことの方がおもしろいこともある。技術というものは、その能力とともに、限界を知ることもきわめて重要だ。というわけで今回は、このパフォーマンスアートから教訓をいただこう。

この“Autonomous trap 001”(自動運転の罠001号)は、とても分かりやすい。自動運転システムが最初に学ぶいちばん重要なことは、路上のマーキングの理解だ。これは車線の端だ、これはカープール専用車線だ、などなど。

アテネに住むイギリス人のJames Bridleが、コンテキスト(文脈、状況知)を欠く知識の限界を例示している。人工“知能”が氾濫する今の時代には、われわれはそんな不具な知識に、至るところでぶつかる。

 
スーパーで一山いくらで売ってるような人工知能は、路上のいちばん重要なルールは、車から遠い方の側にある点線〔上図で外側〕は絶対に横切ってはならない、だと知っている。しかしもちろん、その点線が近い側なら、横切ってもよい。

なお、この円はわざと塩で描かれている。塩の儀式的な意味は、“神聖な場所なのでそこから先へ行くな”、という意味だ。あるいは、精霊や悪霊を金縛りにするために、灰や塩をお供えした時代もある。人間をその場に金縛りにするために、塩と呪文を併用することもある。

この実験でも、点線という単純なシンボルが、ターゲットを金縛りにした。この‘知能’の作者に、救い出してもらうしかないね。それとも、祈祷師に頼んで点線の呪いを解いてもらうか。人間運転手が中にいるなら、モアベターだけど。

遠い未来には、自動化システムが世界を支配して、それらの内部情報や設計情報はとっくに失われているかもしれない(Horizon: Zero Dawnをプレイしてみよう)。そうすると、システムが、理解できないおかしな振る舞いをしても、われわれの愚かな子孫たちは原因も対策も分からないのだ。今回の実験の、自動運転車の“罠”も、そのひとつだろう。

自動運転車を急に停止させたり、片寄せさせたり、予期せぬ不具合が生じたりする、いろんな“罠”がありうるだろう。それらから、人間を守れるだろうか? 犯罪目的で人工知能騙しをやるなら、それはどんな犯行だろう? いずれにしても、奇怪な未来が待っているのだ。

とりあえず、BridleのVimeoやブログを今後もウォッチしよう。そのパフォーマンスはつねに、“進化途上”だから。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

水資源スタートアップのアクセラレータImagine H2Oの今年の年次賞は地下の漏水を見つけるUtilisが受賞

【抄訳】
水資源関連のスタートアップを育成するアクセラレータImagine H2O(IH2O)が、今年の最優秀賞をイスラエルのUtilisに授与した。同社の技術は、衛星画像を分析して上水道など飲用水システムの地下の漏水を検出する。アメリカ人は、蛇口や散水器具などの漏水により、、毎年1兆ガロンの水を無駄にしている。しかしUtilisの技術が見つけるのは、都市市場に水を供給している大きなシステム(水道管網など)の漏水で、自治体の水道部門などによる早期修復のお手伝いをして大きな事故を未然に防ぐ。

毎年IH2Oは、世界の水資源に関するさまざまな問題に取り組んでいるスタートアップを、賞の形で結集している。今年のテーマは、単純に“データ”だった。IH2Oの理事長Scott Bryanはこう述べる: “水を扱う場合、データはきわめて重要だ。たとえば海水淡水化プラントは、漏水に関する正しいデータがなければ正しい意思決定もできない。また、水の移送に要するエネルギー費用のデータも必要だ。データがなければ計画もできないし、水に関する意義ある事業もできない”。

IH2Oの年次賞の審査員は、シリコンバレーの投資家や、水道事業の技術者、大企業、持続可能性に関するエキスパートや政策立案者たちなどだ。今年は12社が予選に残り、IH2Oのアクセラレータに‘入学’できることになった。優勝したUtilisは25000ドルの賞金をもらい、IH2Oのパートナーたちが提供する無料の経営援助やメンター事業などの対象になる。

水事業のイノベーターたちの受賞が発表されたその日に、ドナルド・トランプ大統領は議会に予算案を諮り、そこでは環境保護庁と国連に対する大幅な予算カットが盛り込まれていた。しかしこの二つの機関はいずれも、世界の飲用に適したクリーンな水資源の研究や保全のために複数の企画を進めていた。たとえば環境保護庁は、五大湖復活計画など、いくつかの地域計画を推進していた。そして国連は、安全で衛生的な飲用水と公衆衛生のための水は人類の権利だ、と謳っている。

しかし予算削減の結果がどうであれ、水問題に関しては、政府がやらなければ民間がやる、という機運が明らかにある。IH2Oは、まさにそのひとつだ。水資源保全のための新しい技術も、民間の協力体制から生まれてくるだろう。今回の応募企業や受賞企業が証明しているように。

サンフランシスコの授賞式におけるUtilisの協同ファウンダーたち。

以下は、今回の応募企業の一覧だ。各社の説明はIH2Oの提供による。

【訳注: 以下、リストは英文ママ(長いので!)】

  • Acoustic Sensing Technology (UK): Acoustic signaling hardware and analytical tools to measure and monitor the serviceability of sewers, pipes and ducts in real-time. With faster and cheaper performance than CCTV surveys, SewerBatt’s high-accuracy assessments generate actionable data for intervention and maintenance scheduling.
  • Utilis (Israel): Low-cost, high accuracy remote sensing technology for leak detection in urban supply systems. Using spectral satellite imagery to monitor drinking water in the ground, proprietary algorithms identify leaks in user-friendly GIS reports and quantify the financial implications of non-revenue water loss.
  • Triple Bottom Line Enterprises (Ethiopia): Smart phone-enabled tools for land surveying, pipeline design, and network management to develop affordable piped water infrastructure in rural communities. Flowius, the company’s latest product, converts geospatial inputs into pipeline design software for local engineers.
  • EMAGIN (Canada): Cloud-based, Artificial Intelligence platform to help water utilities proactively manage infrastructure operations. HARVI, the company’s flagship product, provides system-wide monitoring, generates alerts for anomalies, and creates GIS-based visualization of system KPIs.
  • Pluto AI (USA): Advanced predictive analytics platform for water management powered by Deep Learning models. Using proprietary algorithms, Pluto AI integrates available data into actionable intelligence to help users prevent water wastage, predict asset failures and reduce operational costs.
  • AquaSeca (USA): High-performance, non-invasive leak detection and remote monitoring system for plumbing infrastructure in buildings. Easy-to-install acoustic sensors are strapped onto water pipes to manage water consumption data, generate alerts and trigger automatic shut-off valves.
  • Flo Technologies (USA): Water monitoring and control system for single family homes that proactively identifies potential water risks and abnormalities, learns consumption habits and triggers alerts via wifi to a user’s smartphone.
  • FREDSense (Canada): Portable, cost-effective, biosensor and testing platform that can detect chemicals up to 1 part per billion in under 1 hour. The portable detector and single-use cartridge system transmits data and analytics to decision makers and can be customized for a range of different contaminants.
  • Sutro (USA): Broad spectrum colorimetric sensor technology and analytics platform to measure real-time water quality and chemistry. Its proprietary sensor is self-calibrating and does not require a human-testing interface. Broad application to a range of contaminants from nitrates to arsenic.
  • Arable Labs (USA): Proprietary in-field monitors and predictive analytics tools measure real-time microclimate weather data and plant growth drivers to generate actionable insights on yield, harvest timing, and crop quality. Initial focus on US specialty crops including strawberries, grapes and tomatoes.
  • Lotic Labs (USA): Hydrological risk assessment software and analytics platform eliminates costly and time-intensive data analysis and reporting for water-dependent industries. Lotic Labs enable users to manage multidisciplinary datasets for simulations and modeling, assess the performance of a business’ industrial assets, and integrate insights into existing workflows.

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Nvidiaとボッシュ、車載用AIスーパーコンピューターで提携

NvidiaがAIを使った自動運転技術を世に出すための新しいパートナーに選んだのは ― 自動車部品サプライヤー最大手のBoschだった。BoschはNvidiaの技術を使い車載用AIスーパーコンピューターを作る。これでNividiaは、世界中の主要自動車メーカーに部品を供給する第一線サプライヤーとつながりを持つことになった。

NvidiaのAI自動運転技術のパートナーには、すでにAudi、Mercedes-Benzなどの自動車メーカーがいるが、Nividiaの業界への影響力を考えると今回の提携はもっともインパクトがあるかもしれない。ドイツ拠点のBoschは、家庭電化製品から、情報エンターテイメントまで幅広い商品を扱っている。

これは両パートナーの持てる力を最大限に引き出す連携といえる。Nvidiaは核となるAIスーパーコンピューター技術に集中し、Boschはスケールとリーチを広げるためのつながりと販売経路を提供する。

Nvidiaのディープラーニング・モデルは、個々の状況に向けて用意されたルールに頼るのではなく、人間の行動に基づく事例をシステムに提供しておけば、具体的なシナリオに応じて何をすべきかをAIが決定する。この実装に至るまでの中間段階にあるのがNvidiaのAIコ・パイロットで、人間ドライバーと共に使用され、ドライバーの注意がどこに向けられているかを理解して未知の危険について警告を与えるほか、ドライバーの唇を読むことで、車内が騒がしいときでも命令を理解できる。

Boschのスーパーコンピューターが採用するNividiaの最新アーキテクチャーであるXavierは、レベル4自動運転に対応した初のワンチッププロセッサーだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Kaggleを買収したGoogleが早くもコンペの主催者に…機械学習のユニークなアプリケーションで賞金100万ドル、7社のVCが協賛

Googleはデータサイエンスのコミュニティ(コンペの主催プラットホーム)Kaggle買収に続いて、今度はGoogle自身が機械学習のコンペを開催することになった。Googleはとくに、機械学習に革新的な姿勢で臨んでいる若いスタートアップに期待している。

このコンペはSequoia, KPCB, GV, Data Collective, Emergence Capital, Andreessen Horowitz, Greylock、計7社のVCがパートナーとして賛助する。そしてData CollectiveEmergence Capitalは、優勝者の賞金100万ドルを半分の50万ドルずつ折半する。

応募資格としてGoogleのサービスの利用はないが、Google CloudとTensorFlowを使う応募者にはそれなりの副賞がある。すなわち“Build with Google”賞(Googleで作ったで賞)は、100万ドルぶんのGCP(Google Cloud Platform)クレジットとGoogle Cloudのエンジニアからの協力、そしてG Suiteの12か月の利用権10名ぶんだ。この賞の次位企業は、優勝者の半分のGCPクレジットと、そのほかの副賞(優勝者と同じ)を授与される。また、予選を通過した全社は、20万ドルぶんのGCPクレジットと、優勝者と同じG Suite利用権が得られる。

審査の基準は、機械学習の実装の‘ユニークさ’とされる。VCの一般的な基準、たとえばスケーラビリティとか、プロダクトの市場適性、スキル力、チームの結束力なども勘案される。

Googleは、テクノロジー系のスタートアップだけでなく、医療、エネルギー、リテールなどさまざまな専門分野からの応募も期待している。Googleにもコンペを主催した経験は過去にあるが、データサイエンスや機械学習のコミュニティへの訴求は、今週初めに行われたKaggleの買収に負うところが大きい。一方KaggleのCEO Anthony Goldbloomは、この買収によってコミュニティがGoogle Cloudをより高度に利用できる点が魅力、と言っている。

応募企業は、これまでの資金調達額が500万ドル未満であることと、アメリカ合衆国の法人であることが条件だ。応募の受け付けは、今日(米国時間3/10)から4月16日までだ。予選通過者が決まるのは6月、そして最終決戦は夏の終わりごろになる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleが多様なツールを用意してクラウド上のデータ操作/データ処理を助ける

今日(米国時間3/9)のCloud NextカンファレンスのステージでGoogleは、データの準備や統合化を助ける一連のツールを発表した。いずれも、Google Cloudの企業利用をより強力かつ敏速にするためのアップデートだ。

まず紹介されたのがGoogle Cloud Dataprepの非公開ベータ。その名のとおり、データ(data)を視覚化のために準備(preparation)する。このツールには、異状検出機能があり、機械学習を利用して通常と異なる形のデータをユーザーに告げてデータのクォリティーを改善する。

誰にも使いやすいツールにするために、すっきりとしたインタフェイスに留意している。多くのコントロールが、ドラッグ&ドロップでできる。DataprepはGCP(Google Cloud Platform)への統合化に向けて最適化されており、Google Cloud Dataflow中のパイプラインを作ることによって、容易にBigQueryへデータをフィードできるようにしている。

今日は、BigQueryも強調された。新たにBigQuery Data Transfer Serviceというサービスを立ち上げて、複数のデータソースからのデータのマージを単純化する。既存の商用データセット、Xignite, HouseCanary, Remind, AccuWeather, Dow Jonesなどを最初からサポートしている。

ユーザーがTableauのような視覚化サービスを利用するときは、データをシームレスに準備して分析結果を表示できる。BigQueryは大規模プロジェクトのためにCloud Bigtableを今後サポートするから、データをいちいちコピーして移送する手間もなくなる。

Googleのクラウドプラットホーム担当VC Brian Stevensはこう語る: “マーケティングのチームがマーケティングに関するデータ分析をGCP上できわめて容易にできるようにした”。

Cloud Dataflowには、PythonによるSDKが広く提供される。これまでのJavaを超えて、コミュニティがさらに拡大するだろう。

ワークフローツールCloud Datalabも、今度から一般提供される。デベロッパーは、ノートブック環境Jupyterと標準のSQLを使って、データ分析ができる。TensorFlowとScikit-learnもサポートされる。バッチとストリーム処理はCloud DataflowやApache Spark + Cloud Dataprocでできる。またCloud DataflowのためのStackdriver Monitoringはベータへ移行し、GCPやAWSがホストするアプリケーションのモニタリングや診断を行う。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

NvidiaのJetson TX2でカメラやセンサーなどネットの末端デバイスが高度なAIを持つ

Nvidiaの組み込みシステム用コンピューティングプラットホームJetsonに、次世代製品が登場した。組込みシステムといっても、開発対象は主に、交通監視カメラや製造用ロボット、スマートセンサーなどネットに接続されるデバイスで、今回の新製品Jetson TX2は前世代のTX1の倍の性能を持ち、また省電力モードでは本来の半分以下の電力消費で同じ処理能力を発揮する。

TX2はPascalベースのGPUと、Nvidia製64ビットクワッドコアARMチップ2基、RAM 8GB、高速フラッシュストレージ32GB、という構成である。ネットワーキングは802.11ac Wi-Fi、Bluetooth、1GB Ethernetを内蔵する。これらによりネットワークのリーチが長くなり、エッジデバイス(ネットワークの末端のデバイス)が分散ニューラルネットワークを動かして、オブジェクトや音声、まわりの環境などを正しく判定し、自動航行などを助けることができる。

Jetson TX2と並んで発表されたJetPack 3.0はJetson系列用AI SDKの新バージョンで、ディープニューラルネットワーク向けにはTensorRT 1.0, cuDNN 5.1をサポートし、コンピュータービジョンではVisionWorks 1.6、およびそのほかの最新のグラフィクスドライバーとAPIsをサポートする。

Ciscoは、同社のエンタープライズネットワークデバイスSparkに、TX2とJetsonを利用して顔や音声認識など、ローカルなAI機能を実装する、と言っている。それらの機能により、確かにセキュリティや認証が末端レベルで強化されるだろう。またTX2はAIを研究しようとする学生や研究者たちにとって、費用が非常に安上がりですむ。今日ローンチした新しいJetson開発キットは、アメリカとヨーロッパの予約価格が599ドルで、3月14日に発売される。

一方TX2モジュールは第二四半期に399ドルで発売される。既存のJetson組み込みコンピューティングプラットホームTX1とTK1は、値下げして提供を続ける。

このようにエッジデバイス(ネットワークの末端)が高度なAI機能を持つことにより、コネクテッドシティ(インターネットに接続された都市)はインテリジェントシティ(多様な電脳機能を持つ都市)へと成長する。電脳機能はもはや、中央のサーバーが独占するものではない。末端のさまざまな部位が何らかの知能を持つことによって、ネットワーク全体でものごとがスムーズに動くようになる。そしてネットワークの各ノードが知性主体ならば、インフラストラクチャの継続性とか、レイテンシーの懸念などを心配する必要もなくなる。Jetson TX2による世代更新など、エッジの機能・性能の向上により、未来がまた一歩近くなる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ディープラーニングの導入でパワーアップしたGoogle翻訳にサポート言語がさらに増加

昨年の秋にGoogleは、Google Neural Machine Translation(GNMT)と呼ばれる新しい翻訳システムを導入した。それは、語句だけではなく文全体に、多層的ニューラルネットワークを利用するいわゆるディープラーニングを適用することによって、翻訳の質を大幅に上げようとするシステムだ。11月の時点でそれは、8つの言語ペア(後述)に適用されたが、今日からは新たにロシア語とヒンズー語をベトナム語がサポートされる。

Neural Machine Translationが昨年の時点でサポートした言語ペアは、英語とフランス語、ドイツ語、スペイン語、ポルトガル語、中国語、日本語、韓国語、トルコ語だ〔8ペアだが、片方はつねに英語〕。これらが世界の人口の約1/3をカバーし、Google Translateのクェリの35%以上を占める、と当時のGoogleは言っていた。

今日発表された新たな言語は、アメリカ国内だけでも、ベトナム語はネイティブスピーカーが129万2448人、ロシア語は83万6171人、ヒンズー語は58万6173人いる、とGoogleは国勢調査のデータを挙げている。今後数週間で、タイ語など新たな言語がさらに加わる予定だ。

Google Translateは、月間ユーザー数が5億あまり、1日の翻訳量は1400億語に達する、とThe New York Timesの12月の記事が報じている。その記事によると、翻訳システムのAIへの完全移行は今年の年内に完了するそうだ。

hindi_googletranslate_v2b

Neural Translationは機械学習における最新の技術を利用するから、これまでの翻訳システムに比べて大きな進歩であり、翻訳がより正確になるだけでなく、言葉の扱い方が人間のそれに近くなる。つまり従来のように、センテンスの各部分をひとつひとつ訳していくのではなく、まずセンテンス全体の構造や形を見る。それによって翻訳システムは文のコンテキストが分かるようになり、より適切な翻訳が可能になる。そして最後に、出来上がったセンテンスを正しい文法に則って調整し並べ替える。

しかもニューラルネットワークシステムの特性として、時間の経過とともに自分を改良し、長く使えば使うほどより自然な翻訳ができるようになる。

この、ニューラルネットワークを利用するGoogle翻訳は、今日(米国時間3/6)から供用開始される。それはtranslate.google.comにおける翻訳サービスだけでなく、Web上の検索、検索アプリ、そしてiOSとAndroid向けGoogle Translateアプリも含まれる。Google Chromeブラウザーにおけるページの翻訳にも、近日中に適用される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

日産がロンドンで自動運転車のテストを開始

Nissan Motors' autonomous drive vehicle is displayed at the company's showroom in Yokohama on May 13, 2015. Nissan on May 13 said its fiscal-year net profit soared 17.6 percent to 4.2 billion USD, crediting a weak yen and new model rollouts for buoyant results that drove past its own earlier forecasts.  AFP PHOTO / TOSHIFUMI KITAMURA        (Photo credit should read TOSHIFUMI KITAMURA/AFP/Getty Images)

Nissanが初めてヨーロッパの道路で自動運転車の試験を行っている。2月28日にロンドンで始めた。Reutersによると試験には電気自動車のNissan Leafにセンサー、車載コンピューター等を装備した車両が用いられている。最高時速50マイル(80 km)で狭い地方道路から複数車線の幹線道路までを行き来する。

ロンドンがヨーロッパで最初の試験場所に選ばれたのは、同市の自動運転に対するかなりオープンな姿勢によるものだとReutersは伝えている。ロンドン交通局と警察は試験に関してNissanと密に協力している。つまりNissanは、あらかじめ試験ルートを当局に知らせておき、走行記録もすべて提出する必要がある。

Nissanはすでに東京とシリコンバレーで自動運転の試験を行っている。かなり前から無人運転技術を手がけている同社は、様々な分野から人材を集めて他社より抜きん出ようとしており、NASAもライバルの一つだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Voysisは各業界の専門知識を事前に訓練された音声AIを使いやすいAPIで提供し、音声AIのTwilioを目指す

peter-cahill-voysis-1

【抄訳】
音声による人工知能は、売上増や顧客体験の向上に寄与すると分かっていても、そのセットアップは容易ではない。そんな状況を変えようとするVoysisは、自然言語の入力を解析するAIプラットホームを提供し、eコマースやエンターテインメントなどさまざまな専門分野で効果的に音声入力を利用できるようにする。Voysis自身がSiriやAlexaになるのではなく、デベロッパーがユーザー企業のお店の優秀なアシスタントや、ビデオ店の頭の良い販売員を作る手助けをするのだ。

VoysisのファウンダーでCEOのPeter Cahillは次のように語る: “Voysisは完全な音声AIのプラットホーム〔それを構築するためのプラットホーム〕だ。それを利用すれば、企業やそのさまざまな事業部門が、顧客が音声やテキストでクェリできる独自の人工知能を、迅速に立ち上げることができる”。

つまり同社が目指すのは、浅くて汎用的な音声アシスタントではなくて、ユーザーが属する業界のドメインスペシフィックな(その分野固有の)知識を持った音声AIプラットホームだ。ユーザー企業やデベロッパーはそれを、同社が提供するAPIから利用し、セットアップ時間の短縮を図れる。音声AIを、ユーザー企業がそれをわざわざ訓練しなくても、単純に短時間でセットアップできることを、同社はあくまでも目指している。最初はとくに、eコマースの顧客対応インタフェイスの提供を目指しているが、今後はいろいろな業界や業態の業務知識や音声応答パターンを集積していくつもりだ。

【中略】

IBMのWatsonなどもドメインスペシフィックなAIを提供しようとしているが、PhDのCahillには大学の研究室でニューラルネットワークや音声認識と深くつき合った15年の履歴がある。Voysisは今回、 Polaris PartnersがリードするシリーズAのラウンドで800万ドルを調達したが、その主な用途は技術チームの増員(15名から倍の30名へ)と、ボストン支社の開設だ。ユーザー企業にとって、AIの訓練を自分でやらなくてよい、という敷居の低さも、Cahillの長年のAIに関するキャリアと相まって、同社の魅力になるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCloud PlatformがGPUをサポート

tesla-m40-header

3か月前にGoogleは、2017年の早い時期に、機械学習などの特殊なワークロードためにハイエンドのグラフィクスプロセシングユニット(graphics processing unit, GPU)のサポートを開始する、と発表した。2017年の早い時期とは今のことだから、Googleは言葉に違(たが)わず今日から、Google Cloud Platform上でGPUを使えるようにした。予想通りそれはNvidiaのTesla K80で、ユーザー(デベロッパー)はひとつのCompute Engineマシンで最大8つを動かすことができる。

GPUベースの仮想マシンを使えるのは当面、三つのデータセンター、us-east1, asia-east1, そしてeurope-west1だけだ。ひとつのK80コアに2496のストリームプロセッサーと12GBのGDDR5メモリがある(K80ボードには2つのコアと24GBのRAMがある)。

image02

複雑なシミュレーションを動かしたり、TensorFlow, Torch, MXNet, Caffeeなどのディープラーニングフレームワークを使っているときには、計算力はどれだけあっても過剰ではない。GoogleがこれらのGPUインスタンスでねらっているのも、ハイエンドマシンのクラスタを常時動かして機械学習のフレームワークを駆動しているようなデベロッパーだ。このGoogle Cloud GPUは、GoogleのCloud Machine Learningサービスおよび同社のさまざまなデータベースとストレージのプラットホームに統合される。

GPUの利用料金単価はアメリカでは1時間70セント、ヨーロッパとアジアのデータセンターでは77セントだ。時間単価としてはお安くないが、Tesla K80の2コア/24GB RAMのアクセラレータは、たちまち数千ドルの節約を稼ぎだしてくれるだろう。

この発表から数週間後にGoogleはサンフランシスコで、Cloud NEXTカンファレンスを開催する。そこではおそらく、同社の機械学習をもっと多くのデベロッパーに使ってもらうための企画が、発表されるだろう。

image00-1

〔参考記事: AWSのGPUインスタンス

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

企業のクラウド環境をモニタしてリソース等の最適化を行うYotaScaleが$3.6Mを調達

Vector high tech internet data center. Network equipment that is used to organize the server room

エンタープライズ指向のアクセラレータAlchemistを卒業したYotaScaleが、360万ドルのベンチャー資金の調達を発表した。そのラウンドに参加した投資家は、Engineering Capital, Pelion Ventures, およびエンジェルのJocelyn Goldfein, Timothy Chou, そしてRobert Dykesだ。同社は機械学習を利用して、企業のクラウドコンピューティングの実行性能(パフォーマンス)や可用性、費用などの最適化を図る。同社と競合するCloudHealth TechnologiesCloudabilityも、この今や熱い市場で、合わせて8000万ドルの資金を獲得している。

クラウドコンピューティングは、今やどの産業でも事業の不可欠な要素になりつつあるが、しかしイノベーションが急速なので、インフラの進化に適切に付き合っていくのが難しい。その責任を人間に丸投げするのではなく、YotaScaleはクラウドインフラの実行性能管理そのものを自動化する。

同社は、きわめて多面的で複雑なクラウドデータを絶えず精査して、顧客企業のインフラストラクチャがその重要な事業的プライオリティに向けて確実に最適化されている状態を保つ。プライオリティは、費用の最小化などシンプルなものもあれば、目標の異なる複数のプロジェクトが関与する複雑な動的構造のこともある。

“機械の稼働率が低い、などの単純なことなら人間にも分かるし、一部の機械を止めればすむことだ”、とYotaScaleのCEO Asim Razzaqは語る。

Razzaqのシステムは、クラウドの利用データに課金とログのデータを結びつける。その複合データが、ベースラインと対照して異状を検出するための基盤になる。大量のデータではない、と思われるかもしれないが、リソースの消費やCPUの利用状態などの稼働状況を外挿するには十分なのだ。

むしろ、異状検出で難しいのは‘正常’の定義だ。何が正常かは、状況によって千差万別だからだ。分かりやすい例としては、CPUの利用がスパイクしても、それがブラックフライデーのeコマースなら全然異常ではない。そこでYotaScaleは履歴データにだけこだわるのではなく、今後の見通しも重視する。それによって、状況によるデータの浮動も理解できるようになる。変化が見られたら、それらにいちいちフラグをつけるのではなく、パフォーマンスの見通しと実態を突き合わせる。

クラウドインフラストラクチャのデータは、さまざまなタイプのデータがさまざまな時間間隔で生成される。毎時というものもあれば、毎日、というものもある。それらの違いを正確に見極めながら最適化を図る作業が、非常に難しい。アンサンブル学習という機械学習のテクニックを利用して分析の精度を上げ、捕捉したデータの多面的な特徴を管理している。基本は回帰分析だが、用途によってはそのほかの半教師ありモデルも使っている。

YotaScaleのユーザーであるApigeeやZenefitsなどは、機械学習に頼ってクラウドコンピューティングのニーズの理想的な管理ができている。その負担が、クラウドからもDevOpsからも消えている。また言うまでもなく、機械学習はリアルタイムの分析がとても得意だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Baiduが音声アシスタントのRaven Techを買収してAI色を一層強める

img_9817-crop

Baiduがこのほど、音声アシスタントを開発している中国のスタートアップRaven Techを買収して、AIへの進出をさらに一歩前進させた。Baiduは、Ravenの技術と製品と60名のスタッフすべてを買収したことを確認した。

Baiduは1か月前に、以前Microsoftにいた、AIのエキスパートとして著名なQi Luを雇用し、COOとGroup Presidentの座に据えた。Raven Techの買収額は公表されていないが、同社はMicrosoft Venture AcceleratorとY Combinatorの出身であり、DCM VenturesやZhenfundなどのVCから1800万ドルを調達している。

Raven TechのFlowは中国のSiriと言われつつ、ビジネスとしては離陸できなかった。Tech In Asiaの指摘によると、そのアプリは中国のApp Storeで700位よりも下を一貫して低迷、一方Siriは標準中国語をサポートし、またXiaomiやBaiduのような有力企業からもライバル製品が登場していた。

Baiduによると、この買収を機に同社はデジタルアシスタントDuerや、それと関連する拡張現実製品に特化した新たな事業部門を作る。Raven TechのCEO Cheng LuはBaiduのスマートホームデバイス部門を率い、また、“新製品開発に関してDuerのチームと協働する”。Cheng Luは、Qi Luの配下になる。

BaiduのAIおよび機械学習路線は、CourseraのファウンダーAndrew Ngがそのトップであり、彼はカリフォルニアにあるBaiduの研究部門の長でもある。先月Baiduはそこへ拡張現実の研究グループを加え、さらにこの研究部門にはディープラーニングとビッグデータの研究グループも前からある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

YahooがTensorFlowをApache Sparkで高度なスケーラビリティへアップ

Servers in Data Center

Apache Sparkの模範市民Yahooはかつて、CaffeによるディープラーニングモデルのスケーラビリティをSparkの並列処理で高めるフレームワーク、CaffeOnSparkを開発した。そしてそのYahooが今回は、TensorFlowOnSparkと呼ばれるプロジェクトをオープンソースで公開した。今度のそれは、SparkとTensorFlowを組み合わせることによって、大規模なクラスターで動くディープラーニングモデルを作るデベロッパーにとってTensorFlowフレームワークを、より魅力的にするものだ〔==TensorFlowのスケーラビリティを高める〕。

ビッグデータ時代の人気者になったApache Sparkは、効率の高い並列処理を可能にするオープンソースのフレームワークだ。Hadoopのようなシステムを追う形で出てきたSparkは、たとえばNetflixのような企業における大量のユーザーデータの処理を支え、リコメンデーションのスケールアップを可能にしている。

GoogleのTensorFlowやCaffeのような機械学習のフレームワークの登場によって、機械学習の専門知識のない者でもディープラーニングのモデルを作れるようになった。抽象度の高いライブラリがオープンソースで存在するからデベロッパーは、車輪を再発明する苦労から解放されて、いきなりモデルそのものを作ることができる。

ビッグデータの処理を高効率なクラスタリング並列処理で支えるSparkは、機械学習、中でもディープラーニングが必要とする膨大な量の、そして高速であることを要する、データ処理にも向いている。Yahooは自社で利用するためにCaffeOnSparkを作ったが、Caffe用のツールは機械学習のコミュニティのごく一部にとってしか恩恵がない。それに対して、人気がすごく高いフレームワークがTensorFlowだ(下図)。そこでYahooは、ディープラーニングのための大量高速データ処理をSparkにやらせるその処理枠組みを、TensorFlowに移植し、コミュニティの尊敬をかちとることを目指した。

YahooはTensorFlowとSparkのあいだに橋をかけるために、既存のツールSparkNetやTensorFrameを参考にしたが、最終的には一から自分で作る方が良い、と結論した。その結果デベロッパーは、自分の既存のTensorFlowプログラムを比較的簡単に、TensorFlowOnSparkを使うよう改造できる。

ディープラーニングのフレームワークは、デベロッパーたちが特定の“部族”に凝り固まる傾向がある。たとえばJavaで書かれたSkymindのDeeplearning4jは、最初からSparkを統合しているオープンソースのフレームワークだが、このライブラリの人気は6位と低い。そして他方には、複数種類のGPUにまたがるスケーラビリティを誇るMXNetがある。その特長がAmazonの関心をとらえ、AWSの努力によりMxNetはApacheのインキュベータに加入した

TensorFlowOnSparkはオープンソースだが、Yahoo自身による改良努力は今後も続く。入手は、YahooのGitHubから可能だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

フォルクスワーゲン、Mobileyeと組んで自動運転の「目」をクラウドソーシング

Schwarmdaten ebnen Weg für automatisches Fahren: Volkswagen und Mobileye unterzeichnen Vereinbarung

VolkswagenとMobileyeは、Mobileyeのマッピングサービス、Road Experience Management(REM)を2018年からVWブランド車に塔載する提携契約を結んだ。Mobileyeは同社のユーザーから報告されるデータをクラウドソーシングすることで道路状況をリアルタイムに把握して自動運転車の走行を支援する。

REMを塔載した車は、前面カメラで捕えた車線標示その他の道路状況データをクラウドに送る。集まったデータは高解像度のナビゲーションマップにフィードバックされ、常に最新の道路状況が反映される。MobileyeとVolkswagenはこの提携を機に、業界全体にREMプラットフォームを広めたい考えだ。多くのメーカーの車から集めたクラウドソーシングデータを使って高解像度マップを作ることで、自動運転や高度な運転補助システムの改善に役立てる。

今回の提携によって、2018年以降Volkswagenの新車種にはREMシステムが塔載され、収集された匿名データは道路状況だけでなく空いた駐車ペースや渋滞情報の提供にも利用される。

私自身、ラスベガスのCESでDelphiの無人運転システムをテスト走行した際に、MobileyeのREMシステムを体験する機会があり、非常に印象的だった。もちろんシステムのどの部分が貢献しているのかを判断することは難しいが、つながっている車の集合知を利用する「スマート・スウォームズ」のコンセプトは、未来の自動運転技術にとって重要な要素になるだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

AmazonのRekognition APIがあなたの年齢を当てる、いや…、当たらない?!?!

screen-shot-2017-02-10-at-10-30-27-am

自分は(たぶん)自分の歳を知っている。友だちに、自分の歳を当てさせることもできる。それになんと、Microsoftも、あなたの歳を当てられる。でもいちばん重要なのは、毎日買い物をするAmazonに、自分の歳を知ってもらうことじゃないかな。

これまでのところ、Amazonが自分の歳を何歳だと思っているか、知るためには、リコメンデーションの品目を見るしかなかった。昨日(きのう)なんかぼくは、一日の大半が、大量の短編SFを調べることでつぶれた。Amazonが、ぼくがそれを必要としている、と固く信じているからだ。そう、Amazonは、ぼくがテクノロジーの好きなミレニアル世代であることを、見事に当てているのだ。

でもこれからは、こんな、過去の事象に頼るテクニックは要らなくなる。AmazonのRekognition APIを作っている連中が今日(米国時間2/10)公開した便利な機能は、そこへ自分の写真をアップロードすると、年齢を当ててくれる。今日はたまたま、友だちの誕生日なので、Amazonのそのツールと、MicrosoftのHow-Old.netと、人間によるクラウドソーシングに、当て比べをやらせてみた。

まずAmazonだ — このWebアプリケーションは、友だちの年齢を26歳から43歳のあいだ、と推定した(上図)。彼の本当の年齢は26歳よりもずっと若いから、嬉しい結果ではない。性別と幸福状態には“appears”(〜〜と見える、思われる)という留保が付いているが、正しい確率は99.9%になってる。ぼくも、自分が43歳と思われないためには、つねに作り笑いでスマイルしているべきだろう。

screen-shot-2017-02-10-at-10-30-50-am

Amazonは大失態だったが、それでもMicrosoftよりはましだ。MicrosoftのHow-Old.netツールは、友だちの年齢を30歳と言った。参ったね。

三者の中では、人間がベストだった。ランダムに選んだ人たちに聞いてみた結果では、答の平均値が“22歳の半ば”だった。本当は、今日22歳になったばかりだから、6か月の誤差がある。

参照データを得るために、今度は自分の、顔に光がよく当たった写真でテストしてみた。やはり、誤差は大きい〔John Mannes, 1995/11/14生; 昨年まで本誌インターン〕。Microsoftは、ぼくの年齢を27歳と言ったが、ぼくの本当の年齢は友だち〔22歳〕よりも若いんだけどね!。

ご自分の写真を、ここここで試してみよう。その結果、その後のあなたの生活に起きるであろうさまざまな危機も、ご遠慮無く共有してくださってけっこうだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AWSのディープラーニングフレームワークMXNetがApacheソフトウェアの一員になる、対TensorFlow戦略の一環

Connecting lines, computer illustration.

Amazon Web Servicesの推奨ディープラーニングフレームワークMXNetが今日(米国時間1/30)、Apache Incubatorに加わった。このインキュベータに受け入れらることは、オープンソースのプロジェクトがApache Software Foundationの一員になるための第一歩だ。

Apache Software Foundationは、何千人ものデベロッパーによる、世界中のさまざまなオープンソースプロジェクトのメンテナンス努力を支えている。今後はMXNetも、Apche流儀の実績豊富なオープンソース方式を採用し、またApacheのコミュニティにアクセスできる利点も享受していく。

MXNetは、デベロッパーによるディープラーニングモデルの構築を助ける、今や数多いフレームワークの一つで、それらを使えることによってデベロッパーは、ユースケースごとに‘車輪を再発明’することを避けられる。さまざまな機械学習方式の中でもディープラーニングはとくに、大きなデータ集合からパターンを掘り出す処理に向いている。

それらの中でMXNetの差別化要因は、多様な言語に対応していることだ。デベロッパーはC++とPythonという主軸言語のほかに、R, Scala, MATLAB, JavaScriptなども使える。

MXNetのもうひとつの特長が、スケーラビリティだ。昨年Amazonがこのフレームワークの内部的利用と対外的推奨をを決めたとき、画像認識アルゴリズムを動かすGPUの数が多くなると、ほかのフレームワークに比べてスループットが良い(速い)、と言っていた。ただ速いだけでなく、MXNetは‘拡張効率’が良くて、GPUの台数増加率の85%の高いスループット向上が得られる、という。〔例: GPUの台数を2倍(200%)にすると、スループットは1.85倍に向上する。〕

しかしディープラーニングのフレームワークの中でMXNetは、ユーザー数の多さではGoogleのTensorFlowなどの後塵を拝している。AmazonがMXNetを推奨フレームワークにすることを決めたのは、デベロッパーたちの関心を高める意味もある。AWSはMXNetを機械学習コミュニティの人気者に育てるべく、コードとドキュメンテーションで尽力している。今回Apache Software Foundationの一員になったことも、この目標の実現に貢献するだろう。

Blue - TensorFlow, Yellow - Theano, Red - MXNet, Green - DL4J

青: TensorFlow, 黄色: Theano, 赤: MXNet, 緑: DL4J

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AppleがAmazon、Facebook、Google、IBM、Microsoftに次いでAI先導団体に加入

screen-shot-2016-06-14-at-5-06-12-pm

Bloombergの記事によると、Partnership on AI to Benefit People and Society(人間と社会の利益のためのAIに関するパートナーシップ)(なんという名前だ!)が今日(米国時間1/27)、Appleが他のテクノロジー企業と共に、このAI先導団体の創立メンバーとして参加する、と発表した。同団体のメンバー企業は、同団体としての研究プロジェクトや、AIのベストプラクティスの探究などに取り組む。

Partnership on AIが公式にスタートしたのは昨年の9月だった。その時点での創立メンバーは、Amazon, Facebook, Google, IBM, Microsoftの5社で、Apple, Twitter, Intel, およびBaiduは参加しなかった。

でもAppleは最初からの熱心な賛同者で、だから今日のニュースはむしろ、同社の関わりを公式化するものにすぎない。Siriの協同ファウンダーでCTOのTom Gruberが、Appleを代表する。メンバーの全容は、同パートナーシップのWebサイトでみられる。

そのリストを見てお分かりのように、メンバーには6社の企業代表のほかに、これまでAIに大きく貢献してきた個人も含まれる。それらは、Dario Amodei(OpenAI), Subbarao Kambhampati(Association for the Advancement of Artificial Intelligence & ASU), Deirdre Mulligan(UC Berkeley), Carol Rose(American Civil Liberties Union), Eric Sears(MacArthur Foundation), そしてJason Furman(Peterson Institute of International Economics)の計6名だ。

Partnership on AIの事業計画はまだ発表されていないが、AIに関する同団体名の研究論文は刊行されるだろう。また企業メンバーは、倫理や非差別、プライバシーなどについても書くだろう。第一回の全体会議は2月3日に行われる。

AIすなわち人工知能はすばらしいが、それが誰にとっても利益であるためには、何らかの倫理的な監視監督が必要だ。それにPartnership on AIは、テクノロジー企業が責任ある行動をしていることを示す、強力なロビー活動ができるだろう。それは信頼をかちとるための、良い方法だ。

またAppleとしては、今後優秀なAI技術者に来てもらうためにも、この機会を逃(のが)せない。今Appleは、AIのテーブルに空席が一つあることを公示している。同社の技術者たちも、研究論文を、対外的に公開している。AIの人材は獲得競争がますます激しいので、こういったいろんなやり方がますます意味を持つ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleがRaspberry Pi用のAIツール/ライブラリの提供を充実、TensorFlowも

pi3_angled_web

Googleは今年、人気の高いマイコンボードRaspberry Piを使っているメイカーたちのプロジェクトをパワーアップするために、開発ツールの充実を進める。それらは、顔認識、情動認識、音声のテキスト変換、自然言語処理、感情分析、予測分析などのソフトウェアツールだ。

今Googleは、Piメイカーへのアンケート調査で、彼らが欲しいと思っているツールを探っている。そのアンケートは、Raspberry Pi FoundationのWebサイトで見られる。

“Googleの関心は、メイカーたちのためのスマートツールを作ることであり、そのためには、みなさんの要望をお聞きする必要がある”、とアンケートは述べている。

アンケートの回答者は、まず関心分野を選ぶ: ホームオートメーション、ドローン、IoT、ロボット、3Dプリント、ウェアラブル、そして機械学習。Googleの対象が相当広いことが、これらからも分かる。

Piの協同ファウンダー、Eben Uptonはこう語る: “大きな機会がありそうなのは、ディープラーニングとAIだ。Googleはこの分野でとても強い、とくにDeepMindを買収してからはね。現実世界のさまざまな仕事をするRaspberry Piを、それらのサービスに結びつけると、もちろんいろんなメリットがあるだろう。ユーザーが何を志向しているのか、アンケート調査の結果を早く見たいね”。

イギリスの非営利団体であるPi Foundationは、この安価なマイコンキットで大成功し、昨年9月には1000万台を突破した。4年半前に最初にリリースしたときには、全部で数千台も売れれば十分、と彼は予測していた。

今ではPiメイカーたちのための開発ツールも豊富にあり、たとえば顔認識のプロジェクトなら、OpenCVのコンピュータービジョンライブラリを使える。

しかしGoogleが提供するのは、いろんなAIツールのセットであり、ユーザーもいろんなタイプのプロジェクトに容易に取り組める。たとえば機械学習のためのオープンソースのライブラリTensorFlowも、元々はGoogleで作られたツールだ。

Googleは前からPiに関心を持ち、2013年には100万ドル相当ぶんのこのマイコンをイギリスの15000名の学童にプレゼントした。多くの若者がプログラミングできるようになることは、Pi Foundationの中核的ミッションであると同時に、Googleにとっても重要なことだからだ。

またGoogleは以前、PiをベーシックなWebサーバーにするためのオープンソースツールを開発した。そしてGoogleのIoTプラットホームAndroid Thingsは、最新最強のPi、Pi 3をサポートしている。

AndroidのPi用公式バージョンはまだないけど、AndroidをPiの上で動かす方法はいろいろある(やや制約はあるが)。Googleが本物の実装に取り組んでいるらしい兆候もある。

それについてUptonはこう言う: “公式のAndroidに関するニュースはないけど、うちの社内のソフトウェアプラットホームとしてはPIXELとRaspbianに前から一貫して力を入れている”。

Googleのスポークスパーソンは、Piの開発ツールについてまだとくに詳しい情報はないけど、“今後とも、さらに多く、オープンソースの機械学習ツールをPiのコミュニティと共有していけることは、すばらしい。今年はもっといろいろあると思うから、ずっと見ていてほしい”、と語った。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

自動車保険も将来はAIになる…Liberty MutualがAPIポータルを開設

solaria-labs-api

Liberty Mutual Insurance傘下のテクノロジーインキュベーターSolaria Labsが、デベロッパーが同社のAPIにアクセスするためのポータルを作り、そこでは一般公開されているデータと独自の保険情報を併用して、ユーザーにより安全なルートを教えたり、万一の事故時の損害を見積もる。

そのAPIのAIは、事故後の修理費を見積もる。Liberty Mutual InnovationのアシスタントVP Ted Kwartlerがメールにこう書いている: “自動被害見積もりアプリのAIは、匿名化された請求写真で訓練されている”。ユーザーが事故に遭ったら、たとえば折れ曲がったフェンダーの写真を撮ってアプリにアップロードする。するとAIはそれを何千もの写真と比較して、それとよく似たパターンを見つけ、スマホを持って現場にいるユーザーに修理費の見積もりを伝える。

APIはまた、車の盗難、駐車情報、事故などに関する一般公開情報を集めて、ユーザーに安全なルートや駐車スペースを教える。さらに、独自の保険情報により、ユーザーにとってより役に立つ情報を提供する。“保険の専門知識と消費者情報を合わせて、利用できるサービスやデータの整理の仕方などをガイドする”、とKwartlerは述べる。

写真は匿名化されてAIの訓練に利用され、ルートを判断するために使うデータは一般的に公開されている。“Liberty Mutualは同社が集めた、個人を同定できるデータを、法律で定められた機関以外のサードパーティにシェアしない”、とKwartlerは付言している。

このAPIを使ってみたいデベロッパーはSolaria LabsのWebサイトで登録すれば、今後のアップデートも受け取れる。なお、APIの一般供用は数か月後からだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))