大工ロボットと一緒に家を建てよう

大工仕事の新参者(おんぼろだが頑丈な納屋を作ったことがある)として、私は良きパートナーのありがたみをよく知っている。測ったり、切ったり、押さえたりするのを手伝って第3第4の手になってくれる。人間に頼む場合の欠点は、お礼にお金や食事が必要なことだ。そんな私がチューリッヒ工科大学が作ったこのロボット大工アシスタントを見つけたときの喜びを想像してほしい。

複数機関の連携によるSpatial Timber Assemblies DFAB Houseプロジェクトは、家屋の枠組みだけでなく、設計の効率も上げようという取組みだ。

誰もが想像するように、プロジェクトのロボット部分を作るのは簡単ではなかった。作業場の天井に設置された1対のロボットアームが、木材を決められた長さに切断し、しかるべき位置においてドリルで穴をあける。

ほとんどの作業は人間の介入なしに行われ、何よりも補強材や足場を必要としない。これらのモジュール(部屋の大きさのバリエーションに応じて組み合わせが可能)は、事実上自立できるように特別な設計で作られていて、荷重や剛性は梁材の組み合わせによって対応されている

事前にCAD作業が行われ、ロボットは設計図に沿って、お互いぶつからないように気をつけて、ゆっくりとしかし効率的に作業する。

「プロジェクトに変更が加わると、コンピューターモデルが調整されて常に新しい要求に対応する」とプロジェクトを率いるMatthias Kohlerが説明した。こうした統合デジタル建築技術は、設計、計画、実施の隙間を埋める役目を果たす。

ボルト止めは人間の作業員が担当している。これも自動化できそうに思えるが、現在のロボットには作業に必要なセンサーやツールが備わっていないのかもしれない。

最終的に柱や梁は、これもプレハブ製のコンクリート柱で補強され、正確にこの配置に合わせて砂ベースの3Dプリンティングで作られた「スマート・スラブ」 に組み込まれる。3階建ての家は秋には完成して見学のために公開される予定。詳しくはプロジェクトのウェブページで。

[原文へ]

(翻訳:Nob Takahashi / facebook

AIをクラウドにデプロイする過程を単純化するためにPaperspaceはサーバーレスを選ぶ

GPUベースのインフラストラクチャをサービスとして提供することは、スタートアップにとって容易なことではないが、機械学習やVFXを多用するモダンなソフトウェアの開発とデプロイを目指すクラウドインフラストラクチャサービスPaperspaceは、あえてそれに挑んでいる。そして同社は今日(米国時間3/21)、さらに次の一歩として、AIや機械学習のプロジェクトでサーバーのデプロイを不要にするサービスプラットホームGradientを発表した。

どんなサーバーレスのアーキテクチャでも、サーバーがいなくなるわけではないが、ユーザー(デベロッパー)が手作業でそれらをデプロイする必要はなくなる。Gradientはコードをデプロイする手段を提供し、アロケーションやマネージメントはすべてPaperspaceが面倒見る。それにより、機械学習のモデルの構築に伴う複雑性の、大きな塊(かたまり)を取り除く。

同社の協同ファウンダーでCEOのDillon Erbによると、数年前に同社を立ち上げたときはGPUは今日のクラウドサービスのように一般化していなかった。最初は仮想マシンのGPUインスタンスを立ち上げるやり方が主流で、今でもそうだが、問題はツールの不備だった。

Erbの説明では、大企業はツールセットを内製することが多い。しかし実際には、それだけのリソースを持たない企業がほとんどだ。“GPUなどで十分な計算パワーがあっても、それだけではだめで、ソフトウェアスタックが必要なんだ”、と彼は言う。

同社が昨年1年間を費やして作ったGradientは、デベロッパーにそのための構造を提供し、それにより彼らは、もっぱらモデルやコードの構築と、プロジェクトを軸とするコラボレーションに集中できるようになる。そしてマネージメントは、Paperspaceにまかせる。DevOpsのチームが、チームとコードとその下のインフラストラクチャの間の対話を管理する必要も、なくなる。

“コードとDockerのコンテナだけをいただければ、VMのスケジューリングなどはわれわれがいたします。ご自分でマシンを立ち上げる必要はありません”、とErbは語る。

Paperspaceは、Y Combinatorの2015年冬季クラスを卒業して以来、クラウドにGPUをデプロイするという難題に取り組んできた。2014年にローンチしてから今日までに1100万ドルあまりを調達してきたが、シードラウンドの400万ドルがやっと2016年だった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

対戦現場で具体的にゲーマーを強くするAIアシスタントのGosu.aiが$1.9Mを調達

とっても難しいけど、どうしても勝ちたいゲームに挑戦しているときは、あなたの肩越しに覗き込んでアドバイスしてくれる名人がいるとありがたい。その人があなたの癖や戦い方のパターンなどをよく知ってる人なら、なおよろしい。

そう考えたGosu.aiは、ゲーマーを助けるためのAIアシスタントを開発した。このほど同社は、Runa Capitalがリードするラウンドで190万ドルを調達した。この投資ラウンドには、Ventechと、既存の投資家Sistema_VCが参加した。以前同社には、シリコンバレーでAI専門に投資しているアーリーステージVC Gagarin Capitalが投資していたが、そこは、のちにFacebookとGoogleにそれぞれ買収されたPrismaとMSQRDにも投資していた。

Gosu.aiは、ゲーマーがゲームに強くうまくなるためのツールやガイダンスを提供している。そのツールは対戦を分析して、各人に合ったアドバイスをする。またゲーム中で装備する装具やアイテムについても助言し、また敵のタイプごとに攻め方を教える。今はDota 2だけだが、近くCS:GOとPUBGもサポートする。

同社のファウンダーAlisa Chumachenko(上図)は、元クリエイターで、ゲーム大手Game InsightのCEOでもあった。彼女によると、“世界には20億人のゲーマーがいて、うち6億はMOBAsやShooters、MMOsなどのハードコアなゲームをプレーしている。我が社のAIアシスタントで、彼らが自分の潜在的な力をフルに発揮できるようにしたい”、という。

Gosu.aiの主なコンペティターは、MobalyticsやDojomadness、Moremmrなどだ。しかしこれらの競合他社は主に戦果を統計的に分析してプレーヤーの弱点を見つけ、一般的なアドバイスを提供する。対してGosu.aiは、各プレーヤーのアクション(マウスの動きなど)を分析して、直接的な指示を出す。まさにそれは、仮想アシスタントが自分のそばにいる感じで、一般的な訓練ではない。

しかもGOSUはB2Bもやっていて、ゲーム企業に、予測分析などのAIツールを提供している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Lens、iOS版も公開

先週のAndroid版公開に続いて、GoogleのAIを利用した新テクノロジー、Google LensがiOSにもやってきた。この機能はGoogle PhotosのiOSアプリに内蔵されている。写っている物体、建物、ランドマークなどを認識してその場所の電話番号、住所、開店時間など様々な情報を表示する。本や美術館の絵画、植物、動物なども認識する。対象物の種類によってはアクションを起こすこともできる。

たとえば、チラシや看板の写真を基にカレンダーにイベントを追加することもできる。あるいは、名刺を撮影して電話番号や住所を連絡先に登録することもできる(写真を連絡先データに変えるといえば、Microsoftがつい最近Pixアプリに追加した機能で、LinkedInでその人を探すこともできる)。

Google Lensは昨年のGoogle I/Oデベロッパーカンファレンスで初めて発表された。最近の機械学習と画像認識技術の進歩によって可能になった機能だ。最終目標は、スマートフォンのカメラを使ってどんな種類の写真に写っているものも認識し、必要なら電話をかけたり連絡先情報を保存するなどのアクションを起こしたり、カメラの向こう側にある世界について学ぶことができる。

I/Oカンファレンスのデモで、GoogleはほかにもGoogle Lensの機能をいくつか披露した。たとえばWi-Fiルーターに貼られたシールを写真に撮って、書かれている情報をWi-Fi設定に貼り付けることができる。外国語の看板を英語に翻訳する機能のデモも行われた。

まだ約束した機能のすべてを十分果たしているとはいえないが、Google Lensの成長とともに可能になっていくのだろう。

Google PhotosのTwitterアカウントが発信したツイートによると、iOS版Google PhotosのGoogle Lensは、最新バージョン(3.15)をインストールしているユーザーに米国時間3/15から順次展開される。

来週のうちには展開が終了する見込みだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Ecobeeの音声制御照明スイッチは、家全体Alexaへの第一歩

Alexaはいまや多くの家庭に浸透している。求めやすい価格で簡単に設置や設定のできるEcho Dotのおかげだ。しかしAlexaがもっとスムーズに家に入り込む方法もよく考えればありそうだ。カナダのスマートホーム技術メーカー、ecobeeがそれを考え、ecobee Switch+を思いついた。

おそらくecobeeは、ネット対応サーモスタットでいちばん知られている会社だ。つまり最強のライバルはNestだ。ecobeeはほかの製品も作っていて、Amazonや同社のバーチャルアシスタントのAlexaと密に協力して開発している。しかしこのSwitch+はこれまで以上に結びつきが強い。Alexa Voice Serviceと遠距離音声検出マイクロホンアレイを備えたSwitch+は、照明スイッチのあるどの壁もEchoに変える。

ecobee Switch+はBelkinのWemoなどと類似の機能をもつ、つながった照明スイッチだ。Alexa、HomeKit、およびAssistantに完全互換で遠隔音声制御が可能だ。しかし、Alexaに関してはさらに一歩進めて、コネクテッドホーム用のスマートデバイスとしてだけでなく、コマンドセンターとして働く。

現在Switch+は、ecobeeおよび販売パートナーで予約受け付け中。もちろんAmazonでも取り扱う。対象地域は米国およびカナダで、価格は99米ドル。ほとんどの標準的スイッチで使えるが、複数のスイッチが同じ照明を制御する3路スイッチには使用できない。店頭販売および予約文の出荷は3月26日から始まる。

[原文へ]

(翻訳:Nob Takahashi / facebook

新惑星の発見に貢献したNASA/Googleの機械学習システムAstroNetをあなたも利用できる

おぼえておられると思うが、昨年12月に、NasaのデータとGoogle Brainの脳力を利用する機械学習により、二つの新しい惑星が見つかった。あなたがそれと同じことをやってみたいなら、そのシステムを作ったチームが今日(米国時間3/8)、その天文学的偉業の達成に使われた、AstroNetと呼ばれるプログラムのコードをリリースしたから、試してみたらどうだろう。

NASAのKepler宇宙望遠鏡は、銀河系を何年もかけてスキャンし、惑星サイズのオブジェクトが星の前面にあって、そこだけやや暗くなってるところ(上図)を観察した。

そのデータセットは、機械学習のシステムにとってすばらしい遊び場だ。量が膨大でノイズも多いため、微妙な変異を単純な統計学的方法や人間による精査では見つけることができない。そのような、データの泥沼からおもしろい結果を取り出すためには、畳み込み式ニューラルネットワークが格好のツールだった。

しかし例によってAIは、人間がやった先例に従わなければならない。そのニューラルネットワークは、すでにラベルがついていて惑星か非惑星かを検証されている何千ものKeplerのスキャンデータで訓練された。この訓練されたモデルが、Kepler-90iとKepler-80gの発見に貢献した。

研究者たちによると、プロジェクトのソースを公開したことによってそれがさらに正確になり、研究がもっと早いペースで進み、また新しいデータセットも取り入れることができる、と期待される。ドキュメンテーションを読んでコードをフォークしてみたい人は、GitHubへ行ってみよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

モバイルで写真やビデオの背景を変えて楽しめるGoogleのAIツールがYouTube Storiesに装備

Googleの研究者たちは、人びとが他人を騙(だま)して、今自分は月にいる、と思わせたり、今は昼ではなくて夜だと見せかけることが好きだ、と知っている。しかしそんな楽しいいたずらは、映画のスタジオへでも行って、グリーンのスクリーンの前で撮影しないと実現は難しい。そこで2018年の優秀なプログラマーたちは、自分たちにできることをした: ニューラルネットワークを利用してそれをやるのだ。

その、“ビデオセグメンテーション”(ビデオ切り出し)と呼ばれるツールは、モバイル上のYouTube Storiesで今日(米国時間3/1)から一部のユーザーに展開される。画面上にこのオプションがある方は、おめでとう、あなたはベータテスターだ。

この機能には、さまざまな工夫が盛り込まれているようだ。前景(被写体本体)と背景の境界を見つけなければならないが、それはiPhone Xの前面カメラ配列のような深さ(z軸方向)を感知するカメラと、大量の処理時間と、電池よりも長時間使える電源があれば、朝飯前だ。そう、デスクトップコンピューターを使えばよい。

でも、モバイルでしかもふつうのRGB画像(深さ情報がない)となると、そう簡単ではない。スチルの画像でも難しいのに、ビデオとなるとなおさらだ。コンピューターは、背景検出のための計算を、少なくとも毎秒30回やらなければならない。

そう、Googleの技術者たちも、それをチャレンジと捉えた。畳み込みニューラルネットワークをセットアップし、それを数千のラベル付き画像(その例が右図)で訓練した。

そのニューラルネットワークは、人の頭と肩のような、よくある特徴を検出できるように訓練され、一連の最適化によって、正確な検出のために必要なデータの量を減らしていった。また、前の計算の結果(頭の切り抜きなど)を次のための素材として使うという、一種のコンピューター騙しによって、計算負荷をさらに下げた。

その結果、高速でしかも比較的正確なセグメンテーションエンジンが得られ、ビデオに対しても使えるほどの速度を達成した。GoogleのPixel 2スマートフォンの上では40fps、そしてiPhone 7では100fpsを超えた(!)。

これは多くの人たちにとってビッグニュースだ。背景をなくしたり、入れ替えたりすることは、ツールボックスに常備したい楽しいツールだし、しかも、とても容易にそれができる。そして願わくば、短時間で電池を空にしませんように!。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Waymoの360度ビデオを見ると自動運転車の仕組みがよく分かる、VR体験もあり

Uberに対する厄介で高価な訴訟が一段落した今、Alphabetの自動運転部門Waymoは、そこから一歩踏み出して、自動運転車の仕組みを一般大衆に教育しようとしている。

同社はブログ記事で、Waymoの自動運転車はこれまでに公道を500万マイル(805万キロメートル)走ったと発表し、Waymo 360-degree Experience(Waymoの360度体験)と名付けたビデオをリリースした。

360度で撮られているこのビデオは、Waymoの車がライダーやレーダー、カメラ、コンピュータービジョンなどを駆使して、自分のまわりの世界を見るだけでなく、近くの物の動きを予測することを見せてくれる。実際に、Waymoの自動運転車に装備された技術は、300ヤード(274メートル)先の物を見分けることができる。

このビデオは、アリゾナ州フェニックスで走行中に撮られた。そこは、Waymoの自動運転車が公道の上など現実世界の状況でテストされた25の都市の一つだ。

都市内の本物の道路を500万マイル走っただけでなく、Waymoはそのソフトウェアを、2017年に、シミュレーションやプライベートなテストコースで累計27億マイル(43億キロメートル)走行してテストされている。同社によると、いずれWaymoの車は、平均的アメリカ人が1年間に走るぐらいの距離をドライブするだろう、という。

膨大な量のテストをしなければならないのは、たった一つの事故でもこの新しい産業を後戻りさせてしまうからだ。一般大衆からの信頼と信用、これが克服すべき最大のハードルだ。そのためWaymoは、その徹底的なテストを、大衆が信頼する気になるレベルの体験にまで達しさせたい、としている。

このビデオは、デスクトップ、モバイル、そしてVRヘッドセットで視聴できる。

編集者注記: 原文ではWaymoの仮想世界での走行履歴が270万マイルとなっていた。正しくは、27億マイルである。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBM WatsoのCTO Rob Highが機械学習の“偏り”などAIの最新の課題を語る

IBM WatsonのCTO Rob Highにとって、機械学習における現時点の最大の技術的課題は、少ないデータでどうやってモデルを訓練するか、ということだ。バルセロナで今行われている例年のMobile World Congressでインタビューしたとき彼は、“それはチャレンジであると同時に目標でもあるが、それが可能だと信じられる理由もある”、と語った。

彼のこの意見は、業界全体の声を反映したものでもある。GoogleのAIのチーフJohn Giannandreaはたとえば最近、それを同社の機械学習グループが取り組んでいる主要な課題の一つとして挙げた。通常、機械学習のモデルは、正確であるために大量のデータで訓練する必要があるが、しかし、そんな大きなデータ集合がそもそも存在しない問題も多い。

しかしながらHighは、これが解決可能な問題だ、と信じている。なぜか? “人間はそれをしているからだ。われわれ人間にはデータポイントがある”、と彼は言う。ここで心に留めなければならないのは、人間がやってることの中にその証拠がある、と彼が言うのは、具体的なあの機会やこの瞬間に、人間の学習の仕方に関する情報がある、という意味ではない。“むしろ、テーブルの上にはありとあらゆるコンテキストがあるのだ”。つまりHighが言いたいのは、少ないデータでモデルの訓練が可能になるのは、コンテキストのおかげであり、また、転移学習(transfer learning)における最近の進歩だ。それは、すでに訓練されているモデルを、データの少ない別のモデルの訓練に利用する技法だ。

しかしAIの課題、とくに会話的AIの課題は、さらにもっと困難だ。“もう一方では、人間が自然だと感じるようなやり方で人間と対話し、人間の思考に影響を与えるにはどうするか、という課題がある”、とHighは語る。“人間は、彼らがやり取りする言葉だけから影響されるのではなく、それらの言葉を収めている発声や屈折、抑揚、韻律、気分、顔の表情、腕や手のジェスチャー、などなどの影響も受ける”、Highは、AIがこれらの要素を擬人的に模倣すべきだ、とは考えていない。むしろ、デバイス上の何らかの形のビジュアルキューを使うだろう、と。

それと同時に、多くのAIシステムがもっと上手になるべきなのが、質問の意図を正しく理解することだ。その質問は、何かに関するその人の前の質問とどう関連しているのか。その人の今の心の状態や人柄が、質問の意図にどう影響しているか、など。

しかしここから、もうひとつの疑問が生ずる。今実用化されている機械学習のモデルの多くは、それらが訓練されたときのデータによって偏りが生じている。分かりやすい単純な例としては、そのモデルは白人の男性に関しては精度が高く、黒人の女性に対しては成績が悪い、ということがありえるだろう。この問題にHighはこう答える: “方程式の両辺を見る必要がある。ひとつは、データの集積による偏りで、これに対してはよく注意して、人間ならばそのモデルが表している文化的および集団的側面を広げる努力をしなければならない。しかしもうひとつは、個人的偏りよりは、集積的偏りの方が望まれる場合もある、ということだ”。〔偏りが求める母集団の特性を表しているような場合。〕

Highは、IBMがSloan Kettering Cancer Center(がんセンター)で行った例を取り上げた。その病院は、がん治療の優れた外科医たちの仕事に基づいてモデルを訓練した。彼曰く: “しかしSloan Ketteringには、治療のやり方に関する独特の哲学があり、その哲学が偏りとして組み込まれた。それはその機関の偏りであり、彼らのブランドでもある。[…]Sloan Ketteringの外でそのシステムを利用するときも、その哲学による偏りを免れない”。

“偏りが正しい偏りであるためには、モデルの利用者や、彼らが代表している集団が、多様な文化集団がある中でもとくに、その偏りにとって適正な人びとでなければならない”。これは、IBMのクライアントに対してHighがよく言う言葉でもある。偏りを偏りとして直視し、ときにはその意義も認めることは、今だにこの種の話題を無視しがちな業界における、肯定的な兆候のひとつだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

企業のカスタマーサービスをAI化したボットで助けるAgent IQが$6.3Mを調達

人間のカスタマーサービスが電話に出る前に、顧客がボットの相手をしなければならない企業がよくあるが、けっこう、いらつくものが多い。基本的な仕分けをボットがやって、専門的な話を人間がするのは良いが、いつまでもいつまでも人間が出てこないのはアタマにくる。そこで、カスタマーサービス用のボットを作っているAgent IQは今日(米国時間2/22)、シリーズAの630万ドルの資金調達を発表して、同社のボットの質をさらに高めようとしている。

このラウンドはSierra Venturesがリードし、CRCMとRubicon Venture Capitalが参加した。これにより、同社への投資の総額は850万ドルになる。

Agent IQのルーツは、Nikeのマーケティングプログラムだ。顧客はそのチャットアプリに“Hey Nike”とタイプしてボットとコミュニケーションする。CEOでファウンダーのCraig Davisによると、初期のそのプログラムをベースにしてAgent IQを作っていった。そのとき悟ったのは、ボットやエージェントがただのボット/エージェントなら、顧客を満足させられない、ということだ。顧客が満足するカスタマーサービスは、テクノロジーと人間のブレンドだ。

彼が各社のカスタマーサービスセンターを訪ねてみて分かったのは、苦痛なのは顧客の側だけではない、ということだ。人間社員は、同じ質問の繰り返しで退屈しており、楽しくない。課題に挑戦するおもしろさもない。しかも、めったにない珍しい質問に答えるときには、会社のあちこちにばらばらに散在する、互いに異質な複数のシステムを調べる必要がある。画面をいろんなシステムのウィンドウだらけにして、互いに異なるコンテンツレポジトリを行き来し、問題への正解を見つけなければならない。これが、たいへんな作業である。

写真提供: Agent IQ

Davisは説明する: “ボットよりも人間を助けることが重要だ。過去の会話や、学習した新しい知識に基づいて、答を提案してやるのだ。調べる苦労を、軽くしてやる。Agent IQは、会話のコンテキストに基づいて知識ベースの記事を人間カスタマーサービスに提示する。記事の選択には、人工知能と機会学習を利用する。

Davisは、自分がSalesforceやOracleのような大物と競合していることは分かっているが、しかし彼によると、彼の会社のソリューションは最新の技術でゼロから作ったものだから、そういうおなじみの顔ぶれたちよりも進んでいる、という。“たとえばAIだけど、彼らは何年も後れているし、もともと彼らのルーツはカスタマーサービスのプラットホームだ。彼らはそこからシームレスな移行ができないし、うちが提供しているようなクローズドループなAI学習ができない”、とDavisは主張する。

彼はまた、同じような価値提案を提供しているスタートアップ、Digital Geniusなどとも競合関係にある。

同社は現在、社員20名で、顧客は14社、DavisによるといずれもFortune 1000社で、年に50万ドル以上を払っている。今度の資金で、営業の拡大とカスタマーサクセスチームの構築をしたい、という。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

即答せよ! このシステムは問題に答える顔を見て人間であることを確認する

ボットとの戦いに終りはない。しかし、誰もが密かに想像しているスカイネットのようなシナリオでは終わらないことを望みたい。ちなみに、今重要なのはスパムを退治することで、組織的殺人を防ぐことではない。それでも、機会はますます賢くなり、単純な顔認識だけでは人間の識別に十分ではないこともある。今や機械は顔を作ることもできる —— しかし、質問に答えるときの顔を作るのは不得意のようだ。

ジョージア工科大学の研究者らは、CAPTCHAタイプのシステムに取り組んでいる。そして人間がありとあらゆる質問にすばやく自信を持って答えられるのに対して、最先端の人工顔アニメーションと音声生成システムを使っても、それらしい返答をコンピューターが生成するのは難しいという事実に着目した。

人間とロボットを区別するテストにはこの種の方法を用いたものがいくつもある。文字や動物や道路標識を認識することから、なんらかのGoogleサービスにログイン中かどうかまで様々だ。しかし理想的には、人間には簡単でロボットには難しいものがいい。

人間には必ず顔がある。しかし、そこそこリアルな顔をレンダリングして修正するのはコンピューターにとって膨大な仕事だ(JPEGに騙されないシステムが前提)。

また、人間は単純な質問に答えるのも得意で、無意味な質問ならなおさらだ。しかしコンピューターは、「犬と猫どっちが好き?」といった質問にもっともらしく答えるのために無駄な時間を消費する。人間であるわれわれは、この質問に正しい答えがないことを知っていて、直ちに答えることができる。コンピューターは問題を理解するためにあらゆる物事を評価して、答えを再確認したうえで解答する顔をレンダリングしなくてはならない。それには時間がかかる。

ジョージア工科大学のErkam Uzun、Wenke Leeらがたどり着いた答えはこれだ。まずログインしようとしているひとをカメラに収め —— これはCAPTCHAでカメラを使うことが許されているとい前提で、それはそれで別の問題がある —— 質問を投げかける。もちろんそこには第二の錯乱要素 —— 歪んだ文字などなど —— もあるかもしれないが、重要なのはコンテンツで、質問は人間がすぐに答えられるくらい簡単であると同時にコンピューターには難題でなくてはならない。

テストの結果、人間は平均して1秒以内に解答したのに対して、最高水準のコンピューターは最短でも6秒、たいていはもっとかかった。これは、システムを破るには何が必要かを知っている強力顔レンダリングエンジンを、スパマーが持っていた場合の話だ。認証システムはタイミングだけではなく、声や顔をユーザーの記録と照らし合わせて確認している。

「私たちはアタッカーのやってきそうなことを知って問題に取り組んだ。画像の質を高めることは一つの可能性だが、まったく新しいゲームを作りたかった」とジョージア工科大学の研究者、Simon Pak Ho Chungは言った。

これは日頃ウェブで見かける単純なCAPTCHAよりずっと複雑なシステムだが、この研究によってソーシャルネットワークなどのログインのセキュリティーを高めることが期待できる。スパマーやハッカーたちが、日々新しいコンピューターや新しい機能を手に入れる今、われわれ人間も得られる限りの助力を必要としている。

[原文へ]

(翻訳:Nob Takahashi / facebook

NvidiaとGE傘下のBaker Hughesが石油と天然ガス産業を総合的にAI化へ

NvidiaとGEの子会社Baker Hughesが、石油と天然ガスの業界にAIを持ち込もうとしている。しかもその対象はこの産業のあらゆる局面にわたり、石油資源の探査から採掘、精製、そして最終消費者へのデリバリにまでAIを導入する気だ。

Baker Hughesはもちろん、Nvidiaの、AIに強いGPU技術を利用するつもりだ。たとえばそれは、大型データセンターで使われているNvidia DGX-1スーパーコンピュータや、デスクトップにスーパーコンピュータ級の能力を持ち込むDGX Stationsなどだ。エッジコンピューティングでローカルなディープラーニングを可能にするNvidia Jetson AIも利用されるだろう…エッジでやればワークロードがわざわざクラウドに行く必要がない。

このカバー範囲の広い構想が実現するためには、Nvidiaの広範な技術のすべてが必要だ。石油とガスといえば、大規模なシミュレーションやデータ処理によって正確な探査を行い、いざそこを掘るとなったら地殻の活動を予測しなければならない。また地球上各地の僻地のようなオフショアのプラットホーム(採掘現場)も多いから、粗悪で貧弱な通信条件にも対応しなければならない。

この共同プロジェクトの目的は天然資源の取得量の最大化だが、もうひとつ重要なのが使用する機器装置類の寿命管理だ。たとえば遠い海の上のプラットホームでは、機器類の不具合を、余裕をもって事前に予測できなければならない。起きてしまってからでは遅い。このことは操業効率の最大化という側面のほかに、サイトの労働者たちの安全確保のためにも重要だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Fordが自動運転パトカーで特許を申請

Black Mirrorのシーズン4に驚かなかった人も、これにはびっくり!

Fordが、自動運転パトカーの特許を申請した。実際に特許が下りるかどうかは、まだ分からないが、そこに盛られているアイデアはちょいとおそろしい。

Motor1が見つけたそのパテントは、ほかの車が行った違反行為を検出できる自動運転パトカーを記述している。違反の発見は、自分の視覚系だけでなく、監視カメラや路側のセンサー経由でも行われる。

そのとき、このAIを装備したパトカーは、リモートで召喚命令を発したり、その車を追跡したりする。あるいは(ここからが怖いところだが)、“その方法にはさらに、システムがその車に対して一つまたは複数のアクションをリモートで執行することも含まれる”、と書かれている。

言い換えると、その自動運転パトカーは違反車にワイヤレスで接続して、乗員の身元確認をしたり、召喚令状を発行したりする。

Fordの特許申請書類には、機械学習のアルゴリズムが、その車の違反行為が警告ですむものか、それとも召喚を要するかを判定し、その結果を運転者に伝える、とある。

このパテントはまた、自動運転パトカーに乗っている警察官がその車のコントロールを運転者から取り上げたり、あるいはワイヤレスの接続を利用して各種のデータベースから違反者に関するさらなる情報を得る方法を記述している。

再度言うと、パテントに書かれていることが実際に製品として実現するとはかぎらない。私たちがロボットカーに拘引されるようになるとしても、それはまだ何年も先だ。しかしそれでも、パトロールの警官が自動化の時代の犠牲者になってしまうことは、すでに可能性の範囲内に入っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

顔認識技術のTrueface.aiがIFTTTを統合して多様な実用的利用が可能に

500 Startupsと多くのエンジェル投資家が支援している、まだステルス状態の顔認識スタートアップTrueface.aiが、IFTTTとの統合により、デベロッパーたちが同社の技術をいろいろ試せるようにしている。

CEOのShaun Mooreによると、IFTTTとの統合により初めて、同社の顔認識技術が、複雑なコードを理解する必要なく、多くの人が利用できるようになる、という。

同社は最初、ハードウェアとソフトウェアのベンダーだったが、2017年にハードウェアの取り扱いをやめて、ソフトウェアにフォーカスするようになった。

“われわれ自身がもっと幅広いアプローチを取ることによって、ハードウェアのデベロッパーが自分のやりたいことをできるようになる、と考えた”、とMooreは語る。

Trueface.aiが今集中しているデジタルの認識確認技術は、たとえば誰かが銀行の口座を開こうとするときの本人確認や、公証事務のデジタル化などに応用できる。しかも、“本人性や所有権の確認をリモートでできるようになる”。

その目標は、顔認識技術を誰でも使えるようにすることだ。そしてそのための第一歩が、IFTTTの統合だ。それによってデベロッパーやメイカーたちの知名度を上げることができる、とMooreは考えている。

  1. screen-shot-2018-01-25-at-2-52-47-pm.png

  2. screen-shot-2018-01-25-at-2-53-05-pm.png

  3. screen-shot-2018-01-25-at-2-53-17-pm.png

  4. screen-shot-2018-01-25-at-2-53-24-pm.png

“これ(IFTTTの統合)は、一般的にサードパーティがうちの技術を利用するときの、ひとつの形だと思う。たとえばスマートロックのLockitronがあれば、Truefaceが来客の顔を認識し、その判定に基づいてIFTTTがドアをアンロックする”。

その顔認識に使われる技術は、今やおなじみのディープラーニングだ。ソフトウェア専門で行く、と決める前のTrueface.aiは、本誌TechCrunchのニューヨークオフィスにやってきて、その前身的技術であるChuiをデモしたことがある(下のビデオ)。

その機械学習のモデルは、数百万もの顔の画像で訓練され、そしてユースケースによっては、人間の顔の数学的表現を生成することもできる(これを数学用語で埋め込み(mbedding)と言う)。

埋め込みを保存しておくと、他のモデルが本人性の推断に利用できる。同社のモデルは、生きた本人でなく、本人の顔写真でシステムを騙そうとしても騙せないようにできている。スマホのロック画面なんか、もうだめだからね。

IFTTTの統合とともに同社は、そのIDVerifyプロダクトによって同社の技術にユーザーを慣れさせようとしている。

すでに同社の技術は150か国以上の本人性証明ドキュメントと互換性があり、それらをTrueface.aiのWebアプリケーションやモバイルアプリケーションで利用できる。

Mooreは曰く、“何かを自分で作ることの好きな人たちも、うちの技術の立派なユーザーだ、と考えているよ”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Apple、自動運転車のテスト車両を27台に増強

Appleが自動運転のテスト車両を拡大している。Bloombergによると、カリフォルニア州DMV(運輸局)に登録された台数は昨年わずか3台だったが、現在は計27台となっている。

車種はすべてLexus RX450h SUV。自動運転システムの開発者に人気の車で、テストのために市販のセンサー類を追加するのが比較的容易であることが理由だ。Appleは昨年7月以来、テスト車両群に新たな車を追加していると記事は伝えている。

以前の記事や機械学習学会誌などから判断すると、Appleが自動運転関連で取り組んでいるのは主にソフトウェアと機械学習だ。Appleがカリフォルニア州クパチーノ本社近くの公道でテストしていた車を目撃した人たちによると、車両の屋根にはセンサーだけでなくコンピューターハードウェアも載っていたらしい。

これが、将来Appleが市販の車に付加するハードウェアを販売することを示唆しているのかどうかは不明だが、同社の取組み規模の縮小や、Tim Cook自身の発言からみても、主な焦点は自動車そのものではなくシステムであることが推測される。

[原文へ]

(翻訳:Nob Takahashi / facebook

NissanのコンセプトカーXmotionはSF的な未来とのどかな田園をミックス、コンソールを鯉が泳ぐ

Nissan(日産)は今年のCESで、‘Xmotion’と名付けた斬新なコンセプトカーを披露した。SUVのクロスオーバーのようなこのコンセプトカーは、すっきりした車体デザインにシャープな角(かど)や独特のヘッドライトでアクセントつけ、内部はタッチスクリーンと革新的な制御機構が融合し、外見は未来的であると同時に、どことなく牧歌的で癒やしの効果もある。

Xmotionの外殻は、Nissanによると、富士山に代表されるような日本の自然の美観と、電子製品であふれる現代の都市環境を組み合わせている。つまりBlade Runner的であると同時に現代の東京ふうでもある、と。

外観もおもしろいが、この車が斬新と言えるのは、主にその内部だ。まず、仮想アシスタントの役は画面上の鯉が演ずる。その鯉はコンソールとアームレスト上のタッチスクリーンを泳いで行き来し、社内の環境条件や音楽などを、目的地とユーザーの好みに合わせてプログラムする。車が自動運転モードのときは、仮想アシスタントも忙しい。今走っているルートに関する情報を大量に提供し、レーンを変えたり、運転マナーの順守なども担当し、次の休憩施設も教える。

内部の装置類の中ではスクリーン〔複数形〕がとくに重要で、そもそもミラーがまったくないのも、すべてをスクリーンに依存するからだ。

  1. nissan_xmotion_concept___photo_40.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  2. nissan-xmotion-concept-photo-28.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  3. nissan-xmotion-concept-photo-44.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  4. nissan-xmotion-concept-photo-43.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  5. nissan-xmotion-concept-photo-42.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  6. nissan-xmotion-concept-photo-35.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  7. nissan-xmotion-concept-photo-34.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  8. nissan-xmotion-concept-photo-33.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  9. nissan-xmotion-concept-photo-32.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  10. nissan-xmotion-concept-photo-30.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  11. nissan-xmotion-concept-photo-29.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  12. nissan-xmotion-concept-photo-23.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  13. nissan-xmotion-concept-photo-20.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  14. nissan-xmotion-concept-photo-19.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  15. nissan-xmotion-concept-photo-01.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  16. nissan-xmotion-concept-photo-18.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  17. nissan-xmotion-concept-photo-17.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  18. nissan-xmotion-concept-photo-16.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  19. nissan-xmotion-concept-photo-15.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  20. nissan-xmotion-concept-photo-14.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  21. nissan-xmotion-concept-photo-13.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  22. nissan-xmotion-concept-photo-12.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  23. nissan-xmotion-concept-photo-11.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  24. nissan-xmotion-concept-photo-10.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  25. nissan-xmotion-concept-photo-09.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  26. nissan-xmotion-concept-photo-08.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  27. nissan-xmotion-concept-photo-07.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  28. nissan-xmotion-concept-photo-06.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  29. nissan-xmotion-concept-photo-05.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  30. nissan-xmotion-concept-photo-04.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  31. nissan-xmotion-concept-photo-03.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.
  32. nissan-xmotion-concept-photo-02.jpg

    Making its world debut at the 2018 North American International Auto Show in Detroit, the six-passenger, three-row Nissan Xmotion (pronounced “cross motion”) concept fuses Japanese culture and traditional craftsmanship with American-style utility and new-generation Nissan Intelligent Mobility technology.

また内部には、できるかぎりの開放感を盛り込んでいる。まずバケットシートは自動運転時の楽ちん感を最大にするため、大きく回転する。単一の連続的なコンソールがフロントからバックへ伸び、うしろに乗ってる人に不便を与えず、まるで社内に“川”があるみたいだ。

このコンソールの上には“フローティングコマンダー”というものがあって、ユーザーのジェスチャーを照明やエアコンなどなどの操作に翻訳して実行する。

未来的なコンセプトはあくまでもコンセプトだが、自動車業界/技術の界隈ではすでにいろんなトレンドが登場しているから、その進化形のようなものが近未来の一般的な商用車に実装されても、心の準備はできている。でも、ぼくがとくに気に入ったのは、仮想のお魚が運転をガイドしてくれることだな。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Nvidia CEO、同社のGPUはMeltdownとSpcectreの影響を「一切」受けないと明言

1月9日(米国時間)Nvidiaはセキュリティー情報を公開し、GoogleのProject Zeroが発見したいわゆるMeltdown CPU脆弱性に対応する、同社のドライバーソフトウェアのアップデートについて詳細を説明した。この情報は一部メディアによって、Nividiaが同社のGPUも影響を受けていると認めたものと誤解された。

「当社のGPUはこうしたセキュリティー問題の影響を受けていない」と、NvidiaのCEO Jensen Huangが記者との一般質疑で語った。「われわれが公開したドライバー・アップデートはCPUのセキュリティー脆弱性にパッチを当てるためだ。われわれがこのCPU脆弱性のパッチを当てるのは、Amazonと同じく、SAPと同じく、Microsoftやその他の会社と同じく、われわれもソフトウェアを持っているからにほかならない」。

Huangは、どんなソフトウェアを動かしている人でも、研究者らが発見したこのCPU脆弱性を修正するパッチを当てる必要があると説明した。同氏はNvidiaが自社ハードウェアに関する問題のためにパッチを当てていることは一切ないことを強調した。

「私は当社のGPUが影響を受けていないことを100%確信している」とHuangは言い切った。

またNvidiaは、セキュリティー情報を更新し、現在わかっている限り、同社のハードウェア製品が今回発見された脆弱性の影響を受けていないことを明言した」。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google、CESに拠点を構える

Googleがやってきた。そして何か大きなことを計画しているようだ。ラスベガスコンベンションセンターに向かうParadaise Roadを走っていて、この会社の存在を見落とすことはない。駐車場に作られたGoogleのブースは、多くの他社と同じくまだ建設中だが、白と黒の巨大な “Hey Google” の看板はすでに高く掲げられ、数ブロック先からでも目に入る。

これはイベントに前に同社から送られた風変わりな招待状 のデザインをわずかに変えたもので、仮設ブースの側面のネオンブルーのループ状スライダーにいたるまで再現されている。

そしてGoogleがこれ以上このイベントに何を注ぎ込めるのかと思った矢先、ラスベガスを走るモノレールの線路を行き交う車両に見逃しようのない大きな文字で “Hey Google” と描かれているのが目に入った。

Googleの動きは急だった。これまで同社のソフトウェアソリューションの肩に乗ったサードパーティー以外、このショウでGoogleの存在感はほとんどなかった。それが突然、どこへ行ってもGoogleだ。もちろん前兆はあった。昨年のMobile World Congressでは大きな展示を出し、スムージーや砂で作ったAndroidの彫像まであった

もちろんモバイル専門のイベントにAndroidメーカーが出展するのは理にかなっているが、CESははるかに巨大で広範囲にわたる化け物イベントだ。しかし、筋書きは一貫している。MWCでのGoogleは、端末上のAssistantがすべてだった。過去1年、Googleはスマートホームの主導権をめぐってAlexaと激しい戦いを展開してきた。2017年に同社は様々なHomeファミリー製品や新しいスマートイヤホンを発売するとともに、サードパーティー製スマートスピーカーへのAssistant搭載を進め始めた。

そのサードパーティーとの提携が、このイベントの鍵になりそうだ。同社自身のI/Oイベントのように新製品の発表があるかどうかはわからない。しかしCESは、様々なパートナーとの関係を次のステップへと進める理想的な舞台だ。Sony、HTC、Lenovo、LG等々、主要なハードウェアメーカーが勢ぞろいしている。
独自のアシスタントBixbyを開発しているSamsungは、Googleと手を組む動機付けが必ずしも強くないが、それ以外のメーカーにとってGoogleエコシステムの構築に手を貸すことで得られるものは大きい。Alexaと同じく、スマートスピーカーから他の家電製品へと展開を進めていくことはこの手のイベントでは当然の流れだ。

そしてGoogleにとって、これはAlexaの影から抜け出しスマートホーム分野での地位を確実なものにする絶好のチャンスだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google CloudがプリエンプティブなGPUをローンチ、料金は50%安

Google Cloudが今日(米国時間1/4)、プリエンプティブなGPUのローンチを発表した。GoogleのプリエンプティブVMやAWSのスポットインスタンスなどと同様に、これらのGPUも相当な低料金で利用でき、しかし preemptibleの名のとおり、Googleがそのリソースを必要とするときにはいつでもシャットダウンされる。ユーザーはそのとき、30秒の警告をもらうだけだ。またこのプリエンプティブGPUは、最大24時間しか利用できない。

使用できるGPUは、Google Cloudプラットホームが今提供しているNVIDIA K80とNVIDIA P100だ。料金は1GPUあたり、K80が1時間0.22ドル、P100が0.73ドルだ。それプラス、VMの料金もあるだろう。その場合の料金もプリエンプティブVMの料金になるが、こちらはGPUのワークロードが終わる(またはGPUシャットダウンの警告が出る)まではシャットダウンされない。

Googleによると、これらのプリエンプティブなGPUは、フォールトトレラントな機械学習など、バッチで処理される計算集約的なワークロードに適している。Googleのマネージドインスタンスグループ機能を併用すれば、ダウンしたあとでもプリエンプティブなインスタンスを自動的に再生成できる。

Googleは今日の発表のわずか数か月前に、通常のGPUを大幅値下げしている。

またGoogleのリリースノートによると、GPUは今ではGoogle Cloudのアメリカ中部リージョンでも利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

立ち遅れている地域小売業をテクノロジーで底上げするRubikloudが$37Mを調達してグローバル化へ

小売業界はテクノロジーによる改革が著しく後れている。AmazonやWalmartなどの巨大企業の影で、小売店はレガシーシステムにしがみつき、最新のツールを生かして連中に対抗することができない。今日(米国時間1/3)3700万ドルの資金調達を発表したRubikloudは、人工知能を使ったクラウドツールで、小売店の現代化への取り組みを助ける。

この資金調達ラウンドをリードしたのはIntel Capitalで、Inovia CapitalとOTEAF、それに既存の投資家Horizons VenturesとAccess Industriesが参加した。これにより同社の調達総額は4700万ドルに達した、と同社は言っている。

Intelが小売業界に足場を築きたいのは、同社のIoT技術にとってそこが広大な未開の大陸だからだ。同社は、そのIoT技術とRubikloudのインテリジェントなオートメーションやデータ処理を組み合わせることで、強力なパートナーシップが生まれると信じている。小売業界に関して、同社がとくに攻めたい領域が三つある: それらは、サプライチェーン、企業の購買需要、そして店内の販促だ。

Rubikloudは、お店の販売促進ツールや、顧客への売り込みを個人化する顧客ライフサイクル管理などのための、SaaSツールを提供している。そのほかに、たとえばRubiCoreは、既存のシステムからデータを取り込み、選んだデータをRubikloudのプロプライエタリなデータモデルへ入れる。またRubiOneは、Rubikloudのデータセットをベースに小売店が独自の機械学習アプリケーションを作るためのツールとライブラリだ。

小売店は同社のアプリケーションを使ってより効果的な販促プランを作り、顧客を理解し、またお店独自のアプリケーションも作れるようになる。

それは堅実なアプローチのように見えるが競合他社も多く、Adobeのような巨大企業すら小売店支援をメニューに持っている。しかしそれでも、投資家たちはRubikloudに将来性を感じており、だからこそ数千万ドル単位の資金を投じているのだ。

今回得た資金は、ヨーロッパとアジアにオフィスを開き、グローバルな拡張をしていくために使われる予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa