NVIDIAの次世代RTXポッドは1280基のGPU搭載、ネット上のハイエンドビジュアルを狙う

このところNVIDIA(エヌビディア)は、クラウドの大物になりたがっている。もともとは高性能なグラフィクスカードでゲームファンの人気企業だったが、最近ではデータセンターやAI、機械学習の推論、そして推論エンジンやデータ視覚化用のGPUに力を入れている。米国時間3月18日に開催されたGTCカンファレンスで同社は、ハリウッドのスタジオなどビジュアルなコンテンツを迅速に作りたいと願っている企業向けに、RTXサーバーの最新の構成を発表した。

そのRTXサーバーポッドは、32のRTXブレードサーバー上で最大1280基のTuring GPUをサポートする。それはサーバー1つあたり40のGPUを意味し、ひとつのサーバーがEIA規格で8Uのサイズになる。GPUは、構成にもよるがQuadro RTX 4000または6000だ。

今日の発表声明はこう述べている。「NVIDIAのRTX Serversは、Optix RTXレンダリングとゲーム、VR、AR、プロフェッショナルな視覚化アプリケーション向けに最適化されたソフトウェアスタックを持ち、レイトレーシングで強化された映画クラスのグラフィクスを、同じ性能のCPUベースのレンダリングクラスターよりもずっと低いコスト(電気料金)で提供する」。

このパワーを複数のユーザーで共有でき、バックエンドのストレージと相互接続ネットワークは、NVIDIAが今月初めに69億ドルで買収したMellanoxの技術が支える。その買収と今日のニュースはNVIDIAの未来にとってデータセンターがいかに重要であるかを物語っている。

DellやHP、Lenovo、Asus、SupermicroなどのシステムメーカーがRTXサーバーを顧客に提供しており、そのすべてをNVIDIAが検証し、それらの上で動くワークロードの管理には同社提供のソフトウェアツールを使用する。

NVIDIAは、これらのサーバーはARやVRをエッジで動かしたり、5Gネットワーク上でビジュアルをクライアントにサーブするのに適している、と力説している。それはあまりにもバズワードまみれとも感じるし、ARやVRに一般消費者が関心を持ったり、5Gネットワークがメインストリームになるのは、まだかなり先だろう。しかしそれでも、例えばゲームプレーをクラウドからストリーミングで提供するといったニーズには今日すでに、これらのサーバーが活躍できそうだ。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

トヨタは自動運転車でNvidiaの技術を大々的に採用

トヨタは自動車メーカーとしてNvidia(エヌビディア)との関係を深め、それにより同社の日本とアメリカの研究部門が自動運転車の開発事業を強化している。

NvidiaのCEOであるJensen Huang(ジェンスン・ファン)氏は米国時間3月18日に2019 GPU Technology Conferenceのキーノートで、トヨタの日本の研究部門Toyota Research Institute-Advanced Development(TRI-AD)が、Nvidiaの完全にエンドツーエンドな開発および製造技術を利用して、その自動運転車技術の開発と訓練と検証を行っていると発表した。そのパートナーシップはトヨタとの既存のコラボレーションをベースとするもので、Nvidiaと日本のTRI-ADと米国のToyota Research Institute(TRI)」の三者のチームにより行われている。

この新たな協定によりトヨタは、Nvidiaのプラットホームを利用してディープなニューラルネットワークの訓練やテストや検証などを経て、自動車への最終的な実装を行っていく。トヨタはまたNvidiaが最近リリースし、すでに顧客に提供されているAVシミュレーターのDrive Constellationも使っている。トヨタはConstellationを使う最初の企業で、それは、自動運転車の開発企業が仮想世界で技術をテストできる、クラウド上のプラットホームだ。

要するにトヨタは、自動運転車の開発工程の全体にわたってNvidiaの技術を使おうとしている。

Nvidiaの自動運転部門のシニアディレクターDanny Shapiro氏が3月18日にこう語った。「密接なコラボレーションこそがわれわれのビジネスモデルだ。協働してNvidiaのドライバーズプラットホームを築いていくのが、われわれのやり方だ」。

Nvidiaとトヨタはすでに数年間、コラボレーションしてきた。トヨタは2017年に、NvidiaのXavierプロセッサーを使用するスーパーコンピューターDrive PXを、今後の車に搭載する自動運転システムに採用する、と発表した。

Toyotaとその研究部門TRIおよび日本のTRI-ADは、自動運転技術に二重のアプローチを採用している。

トヨタは最終的にはそのChauffeur(ショーファー)と呼ばれるシステムで、高齢者や障害者に奉仕する完全な自動運転車をデプロイするつもりだ。しかし二重のもうひとつの部分であるGuardian(ガーディアン)は、人間が運転する車を必要に応じて支援するシステムだ。常に人が運転しているが、その間Guardianがたえずウォッチし、センスして、問題の発生に備えている。

トヨタがNvidiaのプラットホームをChauffeur(完全自動運転車)とGuardian(運転者支援システム)のどちらに利用するのか、それがまだ明確でない。

TRI-ADのCEOであるJames Kuffner氏は、声明の中でこう言っている。「死亡事故をゼロにし、すべての人に円滑な交通手段とモビリティを提供することが、弊社の自動運転車の究極のビジョンだ。Nvidiaとの技術協力は、このビジョンを実現するために重要だ。ソフトウェアの検証と試験に大規模なシミュレーションツールを使うことが、自動運転システムにとって重要と考える」。

NvidiaがスーパーコンピュータープラットホームDrive PXで自動運転車向けの最初のアーキテクチャを導入したのは2015年だが、それ以降パートナーシップを結んだ自動車メーカーはトヨタだけではない。その最初のプラットホームは車のカメラやセンサーからのデータをすべて処理し、AIのアルゴリズムを搭載したオペレーティングシステムと、クラウド上の高精細な3Dマップにより、現在位置や今後ありうるハザードなど、車の環境理解を助けることを目的としている。

画像クレジット: Kirsten Korosec

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

鳥やコウモリのように「そこらへん」に止まれるドローン

ドローンはいろんなことで便利に使えるが、その便利さは彼らが空中にとどまれる時間に制限されることが多い。もっと軽くなるべきかもしれない。でも、上図のようなかぎ爪をつけたドローンなら、どこにでもとまったり自分をひっかけたりして電池の無駄遣いを防ぎ、飛行時間を延ばせるだろう。

そのかぎ爪は、この記事の最後でご紹介するように、ものすごく多国籍の研究者チームが鳥やコウモリからヒントを得て作った。チームは、鳥などの空を飛ぶ動物が、自分がとまりたい面の性質に合わせて独自の脚やかぎつめを発達させていることに気づいた。どこかに座ることもあれば、どこかにぶら下がることもある。羽根をたたんで、どこかに寄りかかることもある。

研究者たちは、こう書いている。

これらのどんな場合でも、動物の足の適切な形をした部分が環境中の面と対話をして、飛ぶ努力を減らしたり、完全にとまったりする。私たちの目標は、このような、「とまる」(Perching)という行為を無人航空機にさせることだ。

え、ドローンを鳥のように木にとまらせるの?まさか!

我々は、回転翼で飛ぶ無人航空機のために、外部動力で動作するモジュール構造の着陸装置を設計した。それは、動力式の握り部(Gripper、グリッパー)モジュールと、それの指に装着される接触部(Contact、コンタクト)モジュールから成る。

モジュール構造にしたために、とまったり休んだりするために使える構造物の形状や種類の範囲が、単純に鳥の脚やかぎつめを模倣する場合に比べて大きく広がった。

関節のある足のような単体で複雑な構造物を避けて、チームはドローンに、3Dプリントで作った特殊な形状の静的モジュール複数と、ひとつの大きなグリッパーを与えた。

ドローンはLiDARなどの奥行き検知センサーを使って自分のまわりを調べる。近くにある面の性質も検知して、自分がとまれる面の例を収めたライブラリとマッチングする。

上図右上のような四角いエッジでもAのようにとまれる。柱ならBのようにバランスをとる。

柱があってそこにとまりたければ、その柱を上からつかむ(上図下左)。水平方向の棒なら、握ってぶら下がったり、必要なら起き上がったりする。棚のようなものなら、小さな穴を開けて自分をその隅に固定する(上図A)。そのとき、モーターは完全に停止できる。これらのコンタクトモジュールは、ミッションの性質や状況に応じて形を変えられる。

率直に言ってこれは全体的に、プロトタイプにしてはできすぎだ。難しいのは停泊に使える面の認識と、正しく着地するための姿勢制御だろう。でも現状ですでに、十分実用性がある。業務用や軍用なら、これでも十分ではないか。数年後にはこれが、すべてのドローンの標準装備になるかもしれない。

このシステムを説明しているペーパーは、Science Robotics誌に載っている。省略してもよい人は一人もいないと思うから執筆者全員を挙げると、エール大学と香港科学技術大学とスウェーデン王立工科大学のKaiyu Hang氏、Ximin Lyu氏、Haoran Song氏、Johannes A. Stork氏、Aaron M. Dollar氏、Danica Kragic氏、そしてFu Zhang氏だ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

写真に写ってるものを音声で聞けるマイクロソフトのSeeing AIアプリ

Microsoft(マイクロソフト)のSeeing AIは、目の不自由な人が視覚データをオーディオに変換できるアプリだが、今回、便利な機能がひとつ増えた。ユーザーが、写真の中のオブジェクトや人間をタッチして調べることができるのだ。

それはもちろん、機械学習のオブジェクトや情景の認識機能を利用している。写真を撮ったり、ビューワーの中で開いたりしたら、その上のどこでもいいからタップするだけだ。

「この新しい機能でユーザーは、タッチ画面に表示されている画像を指でタップして、そこに写っているものやそれらの空間的関係の説明を聞くことができる」と、Seeing AIの主席開発者Saqib Shaikh氏がブログ記事でそう述べている。「このアプリは、人の肉体的な外見や彼らの気分も説明できる」。

顔認識機能もあるので、友だちの写真を撮ったら誰がどこで何をしているのか聞くことができる。その写真の中に犬がいることもわかる(こいつは重要だ!)。これは、下図に示すように、全画面的にはすでに実現していた。

でも今度からは、ユーザーがあちこちをタップして、どんなオブジェクトがどこにあるか知ることができる。それは新奇な機能というより、写真を見る際には本来とても重要なことだ。説明書にはないが、もっと細かいこと、たとえば前景に花があるとか、背景に映画のポスターがある、なども分かる。

しかもこのアプリはiPadをサポートするようになったので、アップルのタブレットがいろんなメディアや対話の主要なインタフェイスとして役に立つだろう。今回のアップデートでは、このアプリから好きなものを注文できるようになった。

Seeing AIは無料で、iOSデバイス用にここからダウンロードできる。

画像クレジット: Microsoft

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

Y CombinatorのSam Altman社長が会長へ、後継者の計画はなし

シリコンバレーの多産なアクセラレーターY Combinatorの、著名な社長Sam Altman氏(写真中央)が社長を退いたことを、同社が米国時間3月8日に公開したブログ記事が共有している。

Altman氏は会長職へ移行し、YCの他のパートナーたちが昇格して彼の日常業務を引き受けるとAxiosが報じている。情報筋によると、Altman氏の後継者を立てるは予定はない。YCの中核的な事業は目下、CEOのMichael Seibel氏が率いている。彼は2013年に非常勤のパートナーとしてYCに加わり、20016年にトップの座に着いた。

このニュースが流れた今同社は、一連の変革の真っ最中だ。しかももうすぐ、3月18日と19日にはサンフランシスコで、200あまりの企業から成る最新のバッチのデモが行われる。上述のブログ記事でYCは、本誌TechCrunchが今週初めに報じた本社のサンフランシスコ移転の件をはじめ、変化の一部について詳説している。

それによると、「YCをその都市〔サンフランシスコ〕へ移すことを検討しており、目下スペースを探している。最近の5年間で新しいスタートアップたちの重心が明らかに変わり、マウンテンビューのスペースに愛着はあるものの、そこに固執するロジスティクス上のトレードオフにそれだけの価値があるかを再考している。とりわけ、バレーは社員の通勤が難しい。また、ベイエリアの同窓生たちに近い場所にいたいのだが、その圧倒的多くがサンフランシスコで生活し仕事をしている」。

本社を北へ移すだけでなく、最近のYCは参加者が大幅に増えているので、次のデモデーではステージを2つ使う。そして、ポートフォリオ企業への初期投資の額も増やす

Altman氏は2011年にパートナーとしてYCに加わり、2014年に社長に指名された。今後の彼は、調査研究企業OpenAIの共同会長職など、他の努力に傾注する。AltmanはYCの共同ファウンダーPaul Graham氏を継ぐ、同社2代目の社長だった。Graham氏は今、YCのアドバイザーだ。

関連記事: The Silicon Valley exodus continues主要VCの脱シリコンバレー傾向(未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

コアラを感知するドローンが絶滅危惧動物の個体数推移の調査に貢献

コアラの個体数を常時調べることはオーストラリアの人たちにとって当然のように重要だが、いつも森の中の木の上にいる連中をどうやって数えるのか? ドローンとAIを使うのだ、もちろん。

クイーンズランド工科大学(Queensland University of Technology、QUT)の新しいプロジェクトは、前からよく知られているいくつかのテクニックを新しいやり方で組み合わせて、あの有名なふわふわ有袋類の野生状態の個体数を調べる。まず、ドローンに赤外線画像で熱を感知するビデオカメラを乗せる。そして撮影した映像を、コアラのような熱痕跡を見つけるよう訓練されたディープラーニングのモデルに見せる。

QUTは前にも、これと似たやり方で、絶滅危惧種の海牛ジュゴンの個体数を、海岸の航空写真と機械学習で調べたことがある。しかし今回は、それよりずっと難しい。

この研究のペーパーの共著者Grant Hamilton博士が、ニューズリリースで言っている。「ビーチにいるアザラシと木の上にいるコアラでは、違いがとても大きい」。ジュゴンという言葉を避けたのは、知ってる人が少ないからだ。

博士は曰く、「木の上や森の中という複雑性も、今回の研究課題のひとつだった。難しいから、おもしろい。ドローンを飛ばして動物の数を数える、という単純な仕事ではなく、ものすごく複雑な環境で、それをやらなければならなかったのだ」。

チームはドローンを早朝に飛ばして、外気の寒いところと、木の中の、コアラの体温で温かいところとの明瞭なコントラストの撮像を求めた。ドローンは、木の上辺を刈る芝刈り機のような航路で飛行した。そうして、広い範囲のデータを集めた。

赤外線画像(左)と関心領域を高輝度にするニューラルネットワークの出力

その映像を訓練済みのディープラーニングシステムに通すと、コアラの体温で温かくなっているところのサイズや密度を認識し、車やカンガルーなどそのほかの物は無視した。

初期のテストでは、システムの精度をコアラの推測位置や実測による地上データと比較した。そのために調べる参照動物には、GPS装置や電波発信タグをつけた。その結果、この機械学習によるコアラ検知システムは約86%の精度であることがわかり、「コアラを見つける名人たち」の70%という精度を上回った。精度だけでなく仕事も早い。

博士曰く、「人間が1日かけて調べる範囲を、2時間で調べる」。しかし人間のコアラ発見名人や地上チームをリプレースするわけではない。「人が行けない場所もあるし、逆に、ドローンを飛ばせない場所もある。人力とドローンが互いに補完できる最良の方法を、見つける必要がある。コアラは広範囲にわたって絶滅に瀕しているし、そのほかの多くの種もそうだ。彼らを救う魔法のような特効薬はない」。

クイーンズランドの1つの地区でテストしたら、今度はオーストラリア東海岸部の他の地域で試す予定だ。今後は、コアラ以外の危惧種動物の個体数調査に使える、温度のヒートマップ以外の別の識別子も加える計画である。

彼らのペーパーは、今日発行されたNature Scientific Reportsに載っている。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

Google CloudのスピーチAPIが安くなりサポート言語も21に増えた

Googleが今日、Google Cloud上のSpeech-to-TextText-to-SpeechAPIをアップデートし、主にエンタープライズユーザーにとって関心があると思われるいくつかの新たな機能を導入するとともに、サポートする言語を拡大し、そして料金を下げた。〔正式名は、Cloud Speech-to-Text API、および、Cloud Text-to-Speech API。〕

力点はSpeech-to-Textの方に置かれているが、Text-to-Speechの方も31の新しいWaveNetと24の新しい標準音声が加わるなど、メジャーなアップデートであることに変わりはない。またサポートする言語は、以下の7つが増えた: デンマーク語、ポルトガル語、ロシア語、ポーランド語、スロバキア語、ウクライナ語、そしてノルウェーのブークモール。これらはまだベータだが、これでサポート言語は計21になる。

オーディオの再生をデバイスの特性に合わせて最適化する機能もある。ささいな改良かもしれないが、音声で対話的に応答するコールセンターや、ヘッドセットを使うアプリケーションではありがたいだろう。

Cloud Speech-to-Textの方は、デベロッパーが複数のチャネル上のユーザーをサポートしなければならない状況(電話会議など)向けに、使いやすさが向上した。そのために同社は昨年、マルチチャネルの音声認識をベータで導入、そして今回それが、一般供用となった。

また、ビデオや高性能電話用のプレミアムのAIモデルも昨年ベータでローンチし、主に短いクエリや音声コマンド用のスタンダードモデルよりも書き起こしエラーが少なくなる、と約束された。この高性能AIモデルもやはり今回、一般供用となった。

新しい機能だけでなく、今回のアップデートではSpeech-to-Textの料金が値下げされた。Googleのdata-logging programに参加しているユーザーなら、ビデオを書き起こしするためのスタンダードとプレミアムのモデルの利用料が33%安くなる。ただしこの事業に参加すると、ユーザーデータがGoogleのモデルの訓練のために使われる。そのデータにアクセスするのは特定の社員のみで、プロダクトの訓練や改良以外の目的には使わない、とGoogleは約束しているが、どんなに安く使えてもそんなのは気持ち悪い、と思うユーザーもいるだろう。

でも、通常のプレミアムビデオモデルは、データロギングに参加しなくても今度から25%安くなる。前と同じく、最初の60分はやはり無料だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

あなたの演奏や練習にオケや楽器で伴奏をつけてくれるアプリMetronaut

Metronautアプリがあると、スマートフォンやタブレットでクラシック音楽の弾き方や聴き方が変わる。このアプリを作っているAntescofoはこのほど450万ドルを調達し、アプリは16万回ダウンロードされた。

ラウンドをリードしたのはDaphniとOneRagTimeで、これにNobuyuki Idei、Yann LeCun、Sophie Gasperment、そしてThibault Viortらが参加した。

Metronautは、あなたが楽器を弾くと、プロフェッショナルなオーケストラや楽器の伴奏をつけてくれる。オケでなく、特定の楽器だけを(例: バイオリン)鳴らして、楽器の演奏の練習の参考にもできる。しかしそれは単なるオーディオプレーヤーではなくて、デバイスのマイクロフォンからあなたの演奏を聴き、そのテンポに合わせてオケや他の楽器を鳴らす。

オケや楽器の音は、スタジオでプロのミュージシャンの演奏を録音した音だ。だからたとえば、手元にフルートがなくてもフルートの音を鳴らせられる。

テンポを落としても音質は落ちないから、練習用にゆっくり伴奏を鳴らすこともできる。自分の演奏を録音、注釈、総譜作成などできる。そして自分の進歩をチェックできる。

アプリはフリーミアムなので、毎月10分以内しか使わなければ無料だ。逆に月に10ドル払うと、無制限で利用できる。

このアプリには数十種類の楽器の音があり、ピアノやバイオリンやフルートの練習に使う人が多いけど、ボーカル(歌)の練習にも利用できる。

このサービスは、コンテンツが命だ。自分の楽器用のコンテンツが多ければ、有料会員が長続きするだろう。だから今回得た資金も、録音の機会を増やしてコンテンツを充実し、ミュージシャンにとって必須のツールに育てたい、と考えている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

データのクラウドへの引っ越しを助けるAloomaをGoogleが買収

Googleが今日(米国時間2/19)、企業のすべてのデータソースをGoogleのBigQueryやAmazonのRedshift、Snowflake、あるいはMicrosoftのAzureなどのクラウドサービスに向けて整えるサービスAloomaを買収する、と発表した。Aloomaの仕事は、企業のデータパイプラインをユーザーに代わって管理することだ。また、このデータ統合化サービスに加えてAloomaは、クラウドへの移行を助け、データを掃除して、それらをAIや機械学習で使えるようにする。

Googleのエンジニアリング担当VP Amit GaneshとGoogle Cloud Platformのプロダクト管理ディレクターDominic Preussは、次のように述べている: “Google Cloudでわれわれは、エンタープライズの顧客が容易かつ安全に彼らのデータを弊社のプラットホームへ移行できるよう、お手伝いをしている。もうすぐ買収を完了するAloomaが加わることによって顧客に、Google Cloudへの円滑で自動化されたマイグレーション体験を提供でき、弊社のデータベースサービス全域へのアクセスをご提供できる。それらには、完全な管理を伴うオープンソースのデータベースもあれば、Cloud SpannerやCloud Bigtableのようなソリューションもある”。

この買収の前までにAloomaは、約1500万ドルを調達している。内1120万ドルのシリーズAは、2016年の初めにLightspeed Venture PartnersとSequoia Capitalがリードした。今回の買収は価額等が公表されていないが、Aloomaのこれまでの調達額から考えると、ほどほどの額だろう。

GoogleもAloomaも、既存のプロダクトや顧客の扱いを明示していないし、Googleのコンペティターへの移行もサポートを続けるのか、それも明らかでない。

本誌TechCrunchの問い合わせに対してGoogleは、こんな返事をくれた:

規制当局から買収の承認が得られるまでは、AloomaとGoogle Cloud通常どおりの事業を行なう。しかし完了後にはチームはGoogleのテルアビブとサニーベールのオフィスに加わり、今後われわれは、Aloomaの技術とチームを利用してGoogle Cloudの顧客に最高のデータマイグレーションサービスを提供していく。

コンペティターのサポートに関しては、既存のAloomaのプロダクトは他のクラウドプロバイダーのサポートを継続する。今後受け入れる新しい顧客は、Google Cloud Platformへのデータ移行のみとするが、既存の顧客は他のクラウドプロバイダーへのアクセスを継続できる。

というわけでAloomaは今後、Google Cloudのコンペティターへのデータ移行を求める新規の顧客は受け入れない。Aloomaの既存のユーザーもGoogle Cloudが引き継いで面倒見る、と考えれば、この方針は意外ではない。しかしAloomaでAWSやAzureを使っていたユーザーは、Googleが今後その部分のお世話も引き継ぐとは考えられないので、ほかのソリューションを探すべきだろう。

しかしAloomaの協同ファウンダーたちはこう強調する: “旅路は終わっていない。Aloomaはつねに、あらゆるソースからのエンタープライズデータを標準化して、それをアクションに結びついたインテリジェンスに変えていくための、もっともシンプルでもっとも効率的なマイグレーションパスを提供してきた。Google Cloudに参加したことによって、彼らのクラウド技術が支える、完全なセルフサービスのデータベースマイグレーション体験の提供へ、われわれはさらに一歩近づいた。そこには、アナリティクスやセキュリティ、AI、機械学習などの機能やサービスも含まれている”。

関連記事: Alooma scores $11.2 million Series A to solve data science pain points…データサイエンスの難問を解決するAloooma(未訳)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

企業のAI利用の前進と成長を助けるPeltarionが$20Mを調達

SpotifyやSkype、King、TrueCaller、Googleなどの元役員たちが創業したスウェーデンのPeltarionが今日(米国時間2/14)、シリーズAで2000万ドルを調達したことを発表した。このラウンドをリードしたEuclidean Capitalは、ヘッジファンドの億万長者James Simonsのファミリーオフィスだ。これまでの投資家FAMとEQT Venturesも参加し、このラウンドで同社の調達総額は3500万ドルになる。

もちろん、今の世の中、AIプラットホームに不足はない。そんな中でPeltarionは、“オペレーショナルAI”と同社が呼ぶものに特化している。そのサービスは、データの前処理からモデルの構築、それらのプロダクションへの導入など、企業がAIを利用する場合のあらゆる局面を支援するエンドツーエンドのプラットホームだ。このすべてがクラウドで動き、デベロッパーはグラフィカルなユーザーインタフェイスから自分のモデルの構築と試験を行なう。これに関しとくに同社が強調するのは、Peltarionのユーザーは低レベルのハードウェアやソフトウェアをいっさい扱う必要がなく、ひたすらモデルの構築にフォーカスできることだ。

PeltarionのCEOで協同ファウンダーのLuka Crnkovic-Friisは次のように説明する: “オペレーショナルプラットホームの上でAIシステムを構築しデプロイすると、そのスピードはTensorFlowなどの業界標準のツールを使った場合に比べて桁違いに速い。所要人員もはるかに少ないし、AIの高度な専門知識も要らない。それによって、これまでよりもずっと多くの企業がAIを運用でき、問題解決と変化の創成に集中できるようになる”。

しかし企業の選択肢がとても多い今の時代に、わざわざ無名に近いPeltarionを選ぶ理由はあるだろうか? Crnkovic-Friisはこう語る: “うちのクライアントのほぼ全員が、特定のクラウドプロバイダーへのロックインを心配している。ストレージやコンピューターを使うだけならどのプロバイダーも似たようなものだし、他のプロバイダーへの移行もできる。しかし彼らがとても心配しているのは、AWSやGCP、Azureなどのプロバイダーが提供しているさまざまな高レベルのサービスだ。それらが、完全なロックインを作り出す”。

もちろんPeltarionは、そのプラットホームがユーザーをロックインしない、と主張する。また、他のプラットホームは、個々の企業のオペレーションのヘルプではなく、自らの商用製品としてのAIサービスを作るためにAIの専門技術を大量に使っている、という。確かに同社の言うとおり、大手テクノロジー企業以外では、多くの企業がAIのスケーラビリティで苦戦している。“彼らはスターティングブロックの上で止まってしまう。二つの大きなバリヤがあるので、走り出せない: 未熟なパッチワーク的技術と、スキルの不足だ”、とCrnkovic-Friisは述べる。

同社は新たな資金を、開発チームの増員と、コミュニティやパートナーと協働できるチーム作りに向けていく。また、アメリカなどそのほかの市場における成長にも、充てていきたい、という。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Appleがトーキング・バービー人形の音声テクノロジー企業PullStringを買収

Appleはこのほど、SiriやHomePodなど同社の一連の音声製品のお仲間に、お話をするおもちゃ(トーキングトイ)を加えるためのタレントを獲得した。というのも、AxiosのDan PrimackとIna FriedによるとAppleは、PullString、またの名ToyTalkを買収したのだ。同社は、音声体験の設計ツール、それらの体験を実現するための人工知能、そしてMattelとのパートナーシップにより、トーキング・バービー(talking Barbie)や、きかんしゃトーマスの玩具なども作っている。2011年にPixarの役員たちが創業したPullStringは、これまでに4400万ドルを調達している。

AppleのSiriは、Amazon AlexaやGoogle Assistantに比べると伸び悩んでいるが、それは音声認識やユーティリティのせいだけではなく、デベロッパーのエコシステムも原因だ。GoogleとAmazonには、さまざまな音声アプリメーカーが作ったスキルを配布流通するプラットホームがある。その中には、お話やクイズ、ゲームなど子ども向けのものも少なくない。AppleがSiriやHomePodでコネクテッドリビングルームの主役に躍り出たいのなら、そこで時間を過ごす子どもたちと仲良くしなければならない。PullStringを買収したことによってAppleは、音声で動かす子どものための玩具に向けてスタートを切り、また音声デベロッパーのためのツールも揃えて行けるだろう。

PullStringは2015年に“子どもをスパイするデバイス”と非難されたが、Hello Barbie製品が内蔵しているセキュリティ機能を詳しく説明することによって反論した。そして、これまでに一度も、ハックされて子どもの声やそのほかの機密情報を盗まれたことはない、と述べた。しかし今では、プライバシーの規準が変わってしまって、いつでも耳をそばだてているEchoやGoogle Homeのような製品を、多くの人が平気で買っている。

2016年にPullStringに社名変更した同社は、会話をビジュアルにマッピングするデベロッパーツールに力を入れるようになり、また最終製品をGoogleやAmazonのプラットホームにも提供した。SiriKitの複雑性と機能の少なさに対してPullStringのConverseプラットホームなら、多くのデベロッパーにとって、Appleデバイスのための音声製品を作る道が拓けるだろう。

買収後もPullStringやToyTalkのオリジナル製品がそのまま入手できるのか、目下両社に問い合わせ中だ。

PullString/ToyTalkにこれまで投資した投資家は、Khosla Ventures、CRV、Greylock、First Round、True Venturesなどだ。PitchBookによると、最後の資金調達となった2016年のシリーズDでは、同社の評価額が1億6000万ドルだった。近年、音声テクノロジーの分野は爆発的に伸びているが、まだまだ音声体験のデベロッパーは、具体的な製品がないとお金を稼ぐのが難しい。しかも多くの企業は、PullStringが提供しているようなツールで、一体何を作ればよいのか迷っている。そこで同社はAppleと一緒の方が未来は明るいと判断し、いちばん多く普及しているのに、多くの人びとにいちばん嫌われている音声アシスタントの、テコ入れをしていくことになったのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MLのモデルをチューニングするオープンソースのツールNeo-AIをAWSがローンチ

AWSはどちらかというとオープンソースとは縁の薄い企業と思われているが、それが変わりそうな兆しもある。この、Amazonのクラウドコンピューティング部門は今日(米国時間1/24)、Neo-AIのローンチを発表したがそれは、Apache Software Licensetheによるオープンソースのプロジェクトだ。この新しいツールは、同社が機械学習サービスSageMaker Neoのために開発して使っている技術の一部を、オープンソースのエコシステムに持参した(お返しした)ものだ。

その主な目的は、機械学習のモデルを複数のプラットホームで使うために行なう最適化を、もっと容易にすることだ。そしてAWSの文脈では、その複数のプラットホームとは多くの場合、これらのモデルをエッジで動かすマシンのことだ。

今日の発表声明でAWSのSukwon KimとVin Sharmaがこう書いている: “通常、機械学習のモデルを複数のハードウェアプラットホームのために最適化することは、プラットホームのハードウェアやソフトウェアの構成に合わせて手作業でモデルを調整しなければならないから難しい。とくに難しいのが、エッジデバイスの場合だ。コンピューターのパワーやストレージが限られていることが多いからだ”。

Neo-AIは、TensorFlowやMXNet、PyTorch、ONNX、XGBoostなどのモデルを最適化できる。AWSによると、Neo-AIがこれらのモデルのスピードを、精度の損失なく最初の倍ぐらいに上げてしまうことも多い。ハードウェアに関しては、IntelとARMとNvidiaのチップをサポートし、Xilinx、Cadence、そしてQualcommにも近く対応する。Nvidiaを除きこれらの企業のすべてが、このプロジェクトに寄与貢献している。

IntelのArtificial Intelligence Products GroupのトップNaveen Raoはこう語る: “AIが価値をもたらすためには、ディープラーニングのモデルがデータセンターでもクラウドでも、そしてエッジのデバイスでも、等しく容易にデプロイできなければならない。IntelがNeo-AIに寄与貢献することによって、nGraphで始めたイニシアチブを拡張できたことは、きわめて喜ばしい。Neoを使えば、デバイスのメーカーとシステムのベンダーが、オールIntelのコンピュートプラットホーム上の、ほとんどどんなフレームワークで開発されたモデルでもパフォーマンスをアップできる”。

このツールはモデルの最適化に加え、それらを新しいフォーマットに変換して、モデルが実際に実行されるデバイス上の互換性と、ローカルなランタイムの問題を防ぐ。

AWSによると、Neo-AIコンパイラーの開発の一部はワシントン大学のTVMTreeliteのプロジェクトで始まった。“本日、AWSのコードをNeo-AIプロジェクトとしてオープンソースにお返しすることにより、だれもがプロダクション級のNeoコンパイラーでイノベーションを追究できる”、とAWSは言っている。AWSはオープンソースのプロジェクトを自分のクラウドサービスに利用するだけ、という世評もあったが、今度からはお返しもするようになったのだから、めでたい。

Amazonのオープンソースへの取り組みとしては、同社のFirecrackerハイパーバイザーを挙げておくべきだ。これは今ではOpenStack FoundationのKata Containersプロジェクトをサポートしている。そのFirecrackerもオープンソースだから、いずれOpenStack Foundationに寄贈されたとしても、意外ではない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ドローン画像と機械学習を利用する果樹園精密農業は果樹の個体管理ができる

テルアビブ生まれのSeeTreeは、ドローンと人工知能を使って果樹園に精密農業を持ち込む。同社は今日(米国時間1/17)、Hanaco VenturesがリードするシリーズAのラウンドで1150万ドルを調達した、と発表した。これまでの投資家Canaan Partners Israel, Uri Levineと彼の投資グループ(iAngelとMindset)らも参加した。これで同社の総資金は、1500万ドルになる。

同社はカリフォルニアとブラジルにもオフィスがあるが、ドローンを使う精密農業はこれまで、果樹のような永年作物には合わなかった。SeeTreeのCEO Israel TalpazTheは次のように語る: “精密農業というコンセプトが生まれてからこれまでの20年間、その技術の適用も結果の計測(定量化)も、大きな成功を得られなかった。とくに、永年作物では、精密農業にある、とされた約束が、実現しなかったんだ”。

彼によると、精密農業の未来は、農園をもっと全体的に見ることから育つ。またこれまでのやり方ではデータの整備が雑だったので、永年作物の果樹園を経営している農家に具体的なアクションのリコメンデーションを提示できなかった。

そこでSeeTreeは、ドローンから得られた画像から果樹個体のデータを拾い上げ、それに機械学習を適用して分析する。それによりたとえば、この個体は元気がないから別の木にリプレースしよう、などの知見が得られる。画像から果実の大きさや、その成長過程などを見て、収穫の正しいタイミングも分かる。またそれらのデータを総合して、灌水や施肥の計画も立てられる。

Talpazは語る: “これまで大規模農家は、肉眼による小規模な試験で、直感的に意思決定をやってきた。だから、間違いも多かった。SeeTreeを使えば、重要な意思決定をデータに基づいて正確に行える。そして、やったこととその結果を、正確に知ることができる”。

ファウンダーのTalpazは、イスラエルの起業家の多くがそうであるように、国の諜報サービスで働いていた。また、以前my6senseを起業したBarak Hachamovと、画像処理と通信システムの企業でR&D担当役員だったGuy Morgensternも、SeeTreeの創業に参加した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

評価額最高のAIスタートアップSenseTimeが常総市に自動運転車のR&Dと公園的な試走施設を開設

評価額が世界一高い人工知能スタートアップSenseTimeが、日本に舞い降りた。この北京に拠を置く企業は金曜日(米国時間1/11)に、日本の歴史都市常総市に自動運転技術のための施設をオープンした、と発表した。同社はこの、東京から50キロメートルの都市で、自動運転車の研究開発とロードテストを行なう。

日本における同社のこの拠点施設は、2017年の、日本の自動車大手Hondaとの協定に基づくものであり、両社が共同で自動運転技術の開発を行っていく。Alibabaが支援するSenseTimeはこの前45億ドルあまりと評価され、中国各地の小売商店や病院、警察などに導入されているオブジェクト認識技術がいちばんよく知られている。Bloombergによると今週同社は新たに、20億ドルを調達中である。

生後4歳のSenseTimeは、日本に機会を見出そうとしている中国の唯一のAI企業ではない。中国最大の検索サービスBaiduも、隣国に自動運転車を持ち込もうとしており、それを可能にしたのがSoftBankのスマートバスプロジェクトSB Driveと中国の自動車メーカーKing Longとのパートナーシップだ。

日本は近年、AIと自動運転車技術への大型投資を推進しており、それにより高齢化と労働人口の減少に対応しようとしている。日本政府の構想では、オリンピックが行われる2020年に自動運転車を東京の公道上で実用化する。日本の首都は昨年の8月に、自動運転タクシーの試行に成功している。

SenseTimeの試走公園(test park)は、日本の高名なイノベーションハブ筑波研究学園都市に近く、公園として地元住民に開放される。住民たちは、いずれ自分たちが乗ることになる自動運転車を、至近距離で見物できる。

常総市長神達岳志が声明文でこう述べている: “同社が自動運転技術のR&Dセンターを当市に置かれることは、まことに喜ばしい。自動運転車は、交通システムに革命的な変化をもたらすだけでなく、地方の交通問題の解決にも資すると思われる。SenseTimeの助力により、自動運転車が常総の路上を走行するところを見ることが、待ち遠しい。それが実現するためなら、われわれはいかなる支援も惜しまないつもりだ”。

画像クレジット: SenseTime

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

APIの提供企業がAPIの使われ方を知るツールMoesifがシードで$3.5Mを調達

今日のデベロッパーは、各社が提供しているAPIを呼び出して自分のアプリからいろんなサービスを利用できる。しかしAPIを提供する側は、自分のAPIがどんな使われ方をしているか、知りたいだろう。そこでサンフランシスコのMoesifは、APIの提供企業がAPIの使われ方を知るためのサービスを提供する。本日(米国時間1/4)同社は、350万ドルのシードラウンドを発表した。

この投資をリードしたのはMerus Capitalで、これにHeavybit, Fresco Capital, そしてZach Coeliusらが参加した。なおCoeliusは、2016年にGMが10億ドルで買収したCruise Automationにも投資していた。

Moesifの協同ファウンダーでCEOのDerric Gillingによると、MoesifはMixpanelやGoogle Analyticsに近いが、WebやモバイルのアナリティクスではなくAPIの使われ方を見る。“APIを作って提供する企業や、それらを利用する企業がますます増えているから、API利用の顧客であるデベロッパーがどんな使い方をしているのか、彼らは何かの問題に遭遇していないか、デベロッパーチャーン(developer churn, 他社API利用への移行…浮気)をどうやって減らせばよいか、等々を知る必要性が生じている”。

APIを使った地域別ヒートマップ。スクリーンショット提供: Moesif

同社が対象とするのは、二つのタイプのユーザーだ。まず、APIに問題があったらAPIのモニタリング機能を利用できるデベロッパー。彼らは主に、Moesifの無料ティアにアクセスしている。

一方企業ユーザーの場合は、企業の各部門、プロダクト管理や営業、マーケティングなどが、Moesifのツールを使ってAPIの利用者や利用頻度などを知り、また使い方のパターンから、機械学習により、どこがプロダクトの使用をやめそうか、などを知ることができる。そのツールはMailchimpやCRMツールなどそのほかのビジネスシステムと統合できるので、自分たちのAPIの使われ方に関する、より完全な知見が得られる。

Moesifのツールがリリースされたのは昨年だが、Gillingによると、すでに2000社/名のユーザーがいて、無料または有料のティアを使っている。とくにうまくいっているのが、SaaS企業とフィンテック企業だ。どちらもAPIを多用しており、Moesifの顧客にはPowerSchoolやSchwab、DHLなどもいる。

同社は今、二人のファウンダーと社員一人だが、今度のシード資金で半年以内に約10名を雇う予定だ。エンジニアリング担当VPやデベロッパーの増員、そして営業とマーケティングも必要だ。

Moesifは2016年の晩くに創業され、ファウンダーたちは昨年Alchemist Acceleratorを卒業した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

空港などのX線セキュリティマシンの能力をニューラルネットでアップするSynapseがシードで$6Mを調達…成田空港で試験運用中

最近の数年間でコンピュータービジョンの技術は大きく進歩しているはずだが、それでもなお、空港などの安全が重視される場所では、大量のX線撮影装置がさらに大量の人間の手を借りて、武器などの発見に使われている。

Synapse Technologyが作っているコンピュータービジョン技術の製品は、既存のX線マシンに付設するハードウェアアドオンで、本体機の保証を無効にすることなく、ニューラルネットワークを利用するアシスタントが、スキャン対象に対する‘視力’を増強する。

同社はこのほど、Founders Fundと8VC、およびVillage Globalがリードするシードラウンドで、600万ドルを調達した。

これまでの同社の主な対象は、政府の建物や学校など重要施設のセキュリティチェックだったが、本当はもっと大きな市場として空港をねらっている。空港も当然、同社の技術の市場だ。Synapseは現在、日本の成田空港でパイロット事業を行っており、同社によると、そのスキャナーにより禁止品目の検出率が従来に比べ14%増えたそうだ。

これまで500万あまりのバッグをスキャンしたが、今後は検出品目をもっと多様化していきたい、という。たとえば今同社は、その技術で3Dプリントされた武器を検出するテストを行っている。

Synapseの社長Ian Cinnamonは、本誌インタビューでこう語った: “これまでのX線マシンは物の判定を人間の目に頼ってきたから性能に限界がある。わが社のソフトウェアとAIは、人間よりも高い精度で武器を自動的に検出する”。

Synapseの技術は、機内手荷物の中の洗面用品をチェックするわけではない。現在の同社の技術は、銃や、ナイフのような鋭利な品物の検出にフォーカスしている。同社によると、空港の保安担当者たちの仕事が楽になるだけでなく、同社のAI技術により、今までは見つけられなかった大きな電子製品の中に隠されたオブジェクトを、彼らは見つけられるようになる。だから将来的に旅客は、自分のバッグの中にラップトップがあるだけではセキュリティチェックにひっかからなくなる。

空港の禁止品目は今どんどん増えているから、Synapseのねらいは人間労働者を置換することではなく、彼らが実際に調べなければならない品物の数を減らしてあげることだ。“わが社のアルゴリズムが活躍するようになればなるほど、人間労働者の能力もアップする”、とCinnamonは言っている。

今回の資金は、もっとさまざまな重要施設で同社のプロダクトが使えるようにするための技術開発と、新規雇用の増大に充てられれる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

この利口なAIは課せられたタスクをやり遂げるずるい方法を人の目から隠した

スタンフォード大学とGoogleのこの共同体研究は、見る人によって怖かったり、素晴らしかったりするだろう。航空写真から街路地図を作ったり、その逆もやる機械学習のエージェントが、“人間にはほとんど感知できない高周波の信号”を画像中に隠しておくことによって、ある種の騙し技(だましわざ)ができるようになるのだ。すごく賢い子に!

この現象は、コンピューターに最初からつきまとっている問題をあらためて思い出させる。コンピューターは、やれと言われたことを、そのとおりにやってしまうのだ。

研究者たちの意図は、読者にもすでにお分かりだろう。衛星画像をGoogleの正確なことで有名な地図に換える処理を、彼らはもっと速くしたいのだ。そのためにチームが作ったニューラルネットワークCycleGANは、大量の実験を経て、タイプXの画像(例: 航空写真)をタイプYの画像(例: 街路地図)に、正確かつ効率的に変換する。

初期の結果は、良好だったが、どこかがおかしかった。気になったのは、街路地図から元の航空写真を再構築するとき、前者(街路地図)にはない細部が大量に再現されてしまうことだ。たとえば、屋根からの太陽光の反射は街路地図を作るとき排除されるが、再構築された航空写真には魔法のように再現されている。

左が最初の航空写真、中央がそれから生成された街路地図、右は街路地図だけから生成された航空写真。どちらの航空写真にもあるドットが、街路地図にはない。

ニューラルネットワークが行なう処理の内部を覗き見することはきわめて困難だが、それが生成するデータを調べることは容易にできる。そしてささやかな実験から分かったのは、CycleGANが実は、人を騙していることだった。

エージェントに期待されているのは、各タイプのマップの特徴を正しく解釈して、それらを他方のマップの正しい特徴へマッチさせることだ。しかしエージェントの実際の評価では、再構築された航空写真がオリジナルに近いことと、街路地図の明確さが重視される。その重視のもとに、ニューラルネットワークの訓練も行われる。

そこでエージェントが学習したのは、XからY、YからXを作ることではなく、元の画像の特徴を変換後の画像のノイズパターンへと秘かにエンコードすることだった。航空地図の細部が、街路地図の視覚的データの中へこっそりと書き込まれた。それらは、人間の目には気づかない何千もの小さな色の変化として書き込まれたが、コンピューターはそれらを容易に見分けることができる。

そういう細部情報を街路地図の中へ忍ばせることはコンピューターの得意技のひとつだから、それは、“航空地図を街路マップの中へエンコードする”ことを学習した!。もはや、“リアルな”街路地図を作ることなど、彼の念頭にはない。航空地図の再構築に必要なすべてのデータを、完全に別の街路地図の上にも無害に書き込めることを、研究者たちは確認した:〔下図の下が“完全に別の街路地図”〕

右の航空写真が、変更や加工なしで左の地図の中へエンコードされた。

上の’c’のカラフルなマップは、コンピューターが意図的に導入したわずかな違いを視覚化している。どちらも航空地図の形を維持していることが分かるが、それは誇張や強調など、特殊な視覚化処理をしたから人間の目にも見えるだけである。

データを画像中にエンコードする技術は、ステガノグラフィ(steganography)と呼ばれ、画像の透かしや写真のメタデータ(撮影データ)として前から利用されている。しかし、コンピューターが自分に課せられた学習から逃れるために自分でステガノグラフィ作るのは、これが初めてではないか。この研究が発表されたのは昨年(2017)だから、‘最新’とは言えないかもしれないが、相当新しいことは確かだ。

これを、“機械が自力で賢くなった”として、もてはやす人もいるかもしれないが、実態はむしろその逆だ。機械は、高度な画像の各種タイプを互いに変換する難しい仕事ができるほど賢くはないから、人間にばれないような騙し技を見つけたのだ。エージェントの結果を、もっと厳しく評価していたら、それは避けられたかもしれない。研究者たちは、その方向へ進んだ。

例によって、コンピューターは求められたことを正確に行なう。だから、コンピューターへの指示は、きわめて詳細でなければならない。今回の場合、コンピューターが見つけたソリューションは、このタイプのニューラルネットワークの弱点に光を当てたという意味で、興味深い。コンピューターは、明示的に禁止されていないかぎり、詳細情報を自分に伝える方法を見つけて、与えられた問題を迅速簡単に解こうとするのだ。

実はこれは、コンピューティングの古い格言、PEBKACが教えていることでもある。“Problem Exists Between Keyboard And Computer”…問題はキーボードとコンピューターの中間にある*。人間に反逆するコンピューターHALも、“問題はすべて人間のエラーが原因だ”と言っている。〔*: 正しくは、Problem Exists Between Keyboard and Chair, キーボードと椅子の間、すなわち人間。〕

彼らのペーパー“CycleGAN, a Master of Steganography,”(ステガノグラフィの達人CycleGAN)は、2017年のNeural Information Processing Systemsカンファレンスで発表された。Fiora EsotericaとRedditのおかげで、このちょっと古いけどおもしろいペーパーを知ることができた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

四足ロボットANYmalがチューリッヒの地下の下水路を冒険旅行する

CheetahbotやSpotのような複数脚のロボットの多様な用途については、すでに多くが語られてきたが、でも実際にそれらが実現するためには、分野ごとに多くの困難がある。そして、下水道の点検という重要な仕事の訓練のために、このスイス製の四足ロボットは地下深くへと下(お)りていった。今後の実際の仕事には、人命救助もありうるだろう。

ETH Zurich / Daniel Winkler

このロボットはANYmalと呼ばれ、スイス国立工科大学、略称ETH Zurichと、そこからのスピンオフANYboticsの長期的なコラボレーションだ。その最新の冒険は、大学のあるチューリッヒ市の地下にある下水道の旅で、最終的には、検査や修理の自動化を目指している。

多くのロボットプラットホームと同様、ANYmalも長年の開発史を抱えている。でもカメラや、ライダーのようなセンサー類が小型化高性能化したのはごく最近のことなので、暗闇の中での作業も可能になり、第一候補として下水管という汚い場所でテストされることになった。

多くの都市が延々と長い々々地下構造を抱えており、しかもそれらの点検は専門家にしかできない。危険でかったるい仕事だから、自動化の最右翼候補だ。人間がやると1年に1度しかできない点検を、ロボットなら楽々、一週間に一度できる、としたらどうだろう。おかしい箇所を見つけたときだけ、人間を呼べばよい。災害で人が行けなくなった場所や、小さすぎて人が入れない場所でも、活躍してくれるだろう。

関連記事: MIT’s Cheetah 3 robot is built to save lives(未訳)

しかしもちろん、ロボット軍団が(前に何かで見たように)下水路に住めるためには、その環境を経験し学習しなければならない。最初は最小限の自動化にとどめ、徐々にやれることを増やしていくのだ。

ANYboticsの協同ファウンダーPeter Fankhauserが、ETHZのストーリーでこう言っている: “研究室でうまくいっても、現実世界でうまくいくとは限らない”。

ロボットのセンサーやスキルを現実世界の状況でテストすると、エンジニアたちが取り組むべき新しい知見と大量のデータが得られる。たとえば、完全に暗い環境でもレーザーを利用する画像タスクなら行えるが、大量の水蒸気や煙が充満していたらどうか? ANYmalは、そんな環境でも正しい感知能力を発揮できなければならない。それが、最初からの設計目標だった。

ETH Zurich / Daniel Winkler

彼らはまず、脚にセンサーを付ける方式を試した。良い結果とまずい結果の両方が得られた。次に試したのが、ANYmalが手のひらを壁に触れてボタンを見つけたり、温湿度や壁の質感を得る方法だ。この方法は、操縦者の即興や機転が必要で、完全自動化にはほど遠かった。まず、ロボットにやらせることを、リストアップしよう!。

下のビデオで、チューリッヒの地下を旅する下水道検査官ANYmalをウォッチできる。

画像クレジット: ETH Zurich

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

高齢者のほとんどが施設よりも在宅を望む、CherryHomeが$5.2Mを調達してAIによる在宅ケアに挑戦

高齢者ケアにAIを利用するスタートアップが新たな資金を獲得して、歩き方や行動の変化、そして転倒やぶつかりを検出できるようにしたい、と考えている。言い換えると彼らは、長期的に高齢者の健康をモニタして、変化を予測できるようになりたいのだ。

そのスタートアップ、Cherry Labsが作ったAIによる家庭用安全システムCherryHomeが、GSR Venturesから520万ドルを調達して、在宅高齢者ケアにテクノロジーを活用しようとしている。CherryHomeはコンピュータービジョンの独自のアルゴリズムを使ってカメラのデータを解釈し、仮想の“スケルトン”(人体骨格)を作る(上図)。それをAIが見て、家の中での出来事や人間の行動を分析する。たとえば、この状態を放置したら足を引きずって歩くようになりそうだ、とか。

競合するサービスSafely Youは、転倒に反応してアラートを送る。NestとLighthouseは、画像処理に初歩的なAIを利用している。そしてAmazonのRingは、屋外での安全をサポートする。

CherryHomeでは、すべての情報がローカルに処理されるので、ビデオが家の外に出ることがない(サーバーに送られたりしない)。ビデオの中では高齢者が上図のようにマッチ棒で描いたような線画で表現されるから、プライバシーが保たれる。この最後の部分が、とても重要だろう。

今度得た資金でCherryHomeは、在宅ケアサービスTheraCareと、介護施設のためのテクノロジーシステムTriCuraと共に、パイロット事業を興すことになった。どちらも、ベイエリアの企業だ。

CherryHomeのCEOで協同ファウンダーのMax Goncharovは次のように語る: “人間の生き方の中に、多くのアプリケーションの芽がある。家の中や外の安全、在宅高齢者ケア、スマートホームの完全な自律化、などなど、ニーズはさまざまだ。しかしテクノロジーによる改良がいちばん必要なのが、高齢者のケアだと私は思う”。彼によると、高齢者は現在、アメリカの人口の15%を占め、2030年にはアメリカ人の5人に一人は、退職後の年齢になる。いくつかの調査によれば、これらの人びとの多くが家にとどまることを願ってる。アシストの完備した施設へ移るのではなくて。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleは顔認識技術を外部に売らないと決定…悪用を防ぐため

このところテクノロジー企業に対する、顔認識技術に関する強力な規範の要請が厳しい。先頭を切ったMicrosoftは厳格なポリシーを約束し、そのほかの企業にも同社の後に続くことを求めた。

そしてGoogleのSVP Kent Walkerは、アジアの医療に人工知能を活用することの利点を挙げたブログ記事の終わりの方で、同社が顔認識技術のAPIを売らないことを確約している。そして彼は、この技術の悪用を心配する声を列挙している。

Walkerは曰く: “顔認識技術は、行方不明者を見つけるなど、さまざまな良いアプリケーションの可能性がある。しかし多様な使い方のあるそのほかの多くの技術と同様に、顔認識技術の利用には細心の注意が必要であり、一定の原則と価値観に従う必要がある。そしてそれにより、悪用と有害な結果を避けなければならない。われわれは今後も多くの企業との協力関係を継続して、これらの課題を特定し対策を講じなければならない。そして一部の他社と違ってGoogle Cloudは、重要な技術的および政治的疑問がクリアされるまでは、顔認識の汎用APIを外部に提供しないことを選んだ”。

GoogleのCEO Sundar Pichaiは今週のThe Washington Post紙のインタビューで、AIの倫理をめぐる同様の懸念の高まりについて述べた: “テクノロジーは、とにかく作ってだめだったら直す、という従来のやり方をやめるべきだ。そんなやり方は、もうだめなのだ。長期的には、人工知能は核よりもずっと危険なものになりえる”。

顔認識技術をめぐって、とくにそのプライバシー問題と人種差別的問題を批判してきたACLUは、ピチャイの声明を賞賛するとともに、大企業に対しては今後も圧力をかけ続けなければならない、と言っている。

ACLUのテクノロジー担当部長Nicole Ozerが声明で述べている: “Googleが人権を侵害する顔監視プロダクトを今後も作らないし売らないようにするために、継続的に圧力をかけ続ける必要がある。またAmazonやMicrosoftに対しても、危険な顔監視技術を政府に提供しないよう、これから何度も呼びかけていく必要がある。企業には、自分たちの製品がコミュニティの攻撃に使われたり、人間の権利と自由を侵さないようにする責任がある。責任はすべての企業にある、という古い言い訳は、もはや通用しない”。

同団体はとくに、AmazonのRekognitionソフトウェアを厳しく批判している。今週同団体はまた、顔認識技術を使って“不審者”を見分けるインターホンで同社が特許を申請したことを、やり玉に挙げた

[原文へ]
(翻訳:iwatani(a.k.a. hiwa