ARによるビジュアルな遠隔会議をサポートするStreemが類似企業のSelerioを買収

遠隔会議のソフトウェアにコンピュータービジョンの技術を組み合わせたAR企業Streemが、同じく拡張現実の応用企業であるイギリスの小企業Selerioを買収した。

両社は昨年共に、Betaworksのアクセラレーター事業VisionCampに参加し、コラボレーションをしたり、別々にARにおけるコンピュータービジョンの問題に取り組んだりした。

Streemの持ち味はパワーアップしたSkype通話みたいなところにあり、たとえば各種ホームサービスのプロバイダーが家の持ち主とチャットする場合、多くのビジュアルデータを得られる。たとえば電話口で機器の30桁のシリアルナンバーを口頭で伝えるのではなく、画像や映像で分かる。それらのビジュアルデータから間取りを計測したり、その家の特徴に関するノートを取ったりできる。

ポートランドに本社を置く同社は、これまで1000万ドルあまりの資金を調達しているが、最近も新しいラウンドを完了したばかりだ(詳細情報は未発表)。

Selerioの専門技術は、空間の意味的な構造を理解することだ。同社は、ケンブリッジ大学における研究から生まれた。すでにシード資金を獲得しているが、額は公表していない。投資家はBetaworks、Greycroft Partners、GGV Capitalなどだ。同社の3名の社員は全員Streemに加わる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

GoogleのAIが予約申し込み電話をかけるDuplexの25%は人間がかけている

昨年のデベロッパーカンファレンス、Google I/OでGoogle(グーグル)がデモしたDuplexに対し、オーディエンスは実際にどれだけの通話能力があるのか怪しんだ。そのAIを利用する予約申し込みサービスは、マシンとは思えないぐらいできすぎていた。しかもそれはこれまで、実際の予約に使われていた。Googleによると、その頻度はささやかだったらしいが。

同社が最近The New York Times(ニューヨークタイムズ紙)に語ったところによると、Duplexの通話はコールセンターの人間オペレーターがやってるものが少なくない。だいたい、通話の4分の1は生きた人間の声で始まる。マシンが始める通話も、その15%は人間の介入を必要とする。

Googleは昨年のデモで、人間がシステムをモニタして、何かおかしくなったら代わる、と言っていた。もちろん、そうだろうな。でも、あれやこれやの奇癖をやっと直して、AndroidとiOSデバイスで使えるようになった。しかし25%は人間がやってるというのは、高度なAIシステムとしてちょっと寂しいね。

これまでのテスト期間中にGoogleは、そのサービスのためのデータ収集も行った。たしかにDuplexは、ときどきすごく感動的だ。ぼくが試したときも、全部うまく行ったときには騙されてしまう。でもニューラルネットワークは、改良のために膨大な量のデータを必要とする。お店の予約という、たった一つの仕事でさえも。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AIデータのアノテーションをしているDefinedCrowdがモバイルアプリで高速化

一昨年、TechCrunch主催のStartup Battlefieldにも出場したDefinedCrowdは、AIを訓練するためのデータを作り、その精製もしている。同社はこのほど、その仕事をする人間アノテーター軍団のためのiOSとAndroidアプリを作った。業界最速を自慢している同社の処理がさらに速くなるだろう。

AIが実は人間が注記注釈を記入した(アノテートした)データに全面的に依存していることは、今や多くの人が知っている。写真に写っている物や状況とか、文章や式などの意味は、すべて人間アノテーターが記入する。その仕事は零細な家内工業みたいで、多くがパートタイムやほかの仕事を抱えてやっている。

でもその仕事のインタフェイスが特定のプラットホームに限定されていたら、できる量に限界がある。メールに返事を書いたり、プレゼンテーションをざっと見たりすることは、バスに乗っていたりランチを食べながらでもできるが、この仕事もできればそうしたい。というわけで、モバイルアプリが生まれた。

DefinedCrowdが独自に作ったそのアプリは、同社のアノテーションコミュニティと同じNeevoという名前だ。アノテーターはこのコミュニティに登録し、画像やリアルタイムの音声に注釈を付けていく。アプリは米国時間5月21日から、iOSとAndroidで使用できる。

CEOのDaniela Braga氏によると、それは市場の自然な進化だ。今ではこのようなアノテーションワークの需要が膨大なので、それをやる人のスケジュールや使用するプラットホームを制限するのはナンセンスだ。今後は誰もがこのアプリを使えるようになるので、アノテーターという仕事も、そのほかの生産性サービスやメッセージングサービスと変らないものになると彼女は言う。

関連記事: DefinedCrowd’s next-gen platform solves the AI data acquisition problem(AIのデータ取得問題を解決するDefinedCrowd、未訳)

同社は社員の数も、最初の数名から100名余に急速に成長した。オフィスも今ではリスボン、オポルト、シアトル、そして東京にある(日本語版記事)。市場も同じく爆発的に大きくなり、今では多くの企業が、仕事にAIを導入したいだけではなく実際に導入できるという認識に変わりつつある。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

マイクロソフトは2022年までに1万5000名の労働者にAIのスキルと資格証明を賦与

Microsoft(マイクロソフト)は米国時間5月17日朝、同社が教育プロバイダーのGeneral Assemblyと提携して、一定範囲のAI関連スキルの資格証明と教育訓練に投資すると発表した。目標は2022年までに1万5000名を教育訓練して、世界中で多くのAI人材を確保することだ。教育訓練のフォーカスはAIと機械学習、データサイエンス、データエンジニアリングなどに置かれる。

この新事業の初年度には2000名を教育訓練してAIと機械学習のロールに移行させる。そしてその後の3年でさらに1万3000名にAI関連のスキルを教育訓練する。

この取り組みの一環としてMicrosoftは、他社とともにGeneral AssemblyのAIのStandards Board(スタンダード委員会)に加わる。今後の6カ月でこの委員会は、AIスキルのスタンダードを定義し、評価の基準を開発、キャリアのフレームワークを設計、そしてAIスキルの資格証明書を作る。

教育訓練事業は、現在需要のあるAI関連雇用を満たすことにもフォーカスし、そこではMicrosoft固有の技術も学習する。Microsoftによれば、航空宇宙や製造業などいくつかの業種では、Azureを使いこなせるような社員がとても少ない。そこで教育訓練のフォーカスは、AI人材を雇用したいと思っている企業のそのような、Microsoft固有技術のニーズにも対応していく。

また人材ネットワークAI Talent Networkを作り、そこから長期雇用の人材や契約労働者を見つけられるようにする。General Assemblyは、22の大学キャンパスや求人求職サイトAdecco(アデコ)にも縁があるので、この人材ネットワークをアシストできる。Adeccoは昨年General Assemblyが41300万ドルで売った企業だ。

Microsoftはこの事業の背景として、雇用創出へのAIのインパクトを挙げている。2022年までには、新しいテクノロジーによって最大13300万の新たなロールが作り出されるそうだ。もちろん、同社のソフトウェアやクラウドの顧客がAzureのような同社製品を使える人々を楽に見つけられるようになるという計算もある。

Microsoftでグローバル営業、マーケティング、オペレーションを担当する執行副社長であるJean-Philippe Courtois氏は声明で「テクノロジー企業がイノベーションにコミットしていくときには、労働者がAIの教育訓練にアクセスできて、今日と明日の職場で伸びていけるようにする責任がある。我々の業態とGeneral Assemblyの専門的技術が組み合わされば、スキルのギャップをなくし、企業はAIに駆動される経済において自らのポテンシャルを最大化できる。その成果が今からとても楽しみだ」と述べている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

中国検索大手Baiduが上場以来初めての四半期損失を計上

【抄訳】
中国のGoogleと一般的に思われているBaidu(百度)は5月16日に、本年第1四半期(1〜3月)の決算報告を発表した。近年同社は人工知能などの次世代技術への支出が多く、その成果がマスマーケットにまだ届いていないので、それはあまりうれしくない結果だ。

同社は、3月31日に終わる四半期に4900万ドル(約54億円)の損失を計上し、それは2005年に上場した同社の初めての損失の四半期になった。同社の前年同期の純利益66億9000万人民元(約1062億円)に対し、今四半期は3億2700万人民元(約52億円)の純損失となっている。

Baiduは中国最大の検索サービスで、PC時代には巨額の広告収入を獲得した。しかし消費者の関心が、リコメンデーションによるコンテンツ発見など、新形式のモバイルサービスに向くに伴い、Baiduの魅力は薄れた。

決算報告は、2005年以来同社に奉仕してきた検索部門の上級副社長を務めるXiang Hailong氏が辞めたことを、発表している。この巨大検索企業は今や、メインの事業を検索ではなく“モバイルビジネス”と称している。

Baiduの売上は241億人民元(35億ドル、約3830億円)で、前年同期比では15%増加した。

【後略】

画像クレジット: Bloomberg/Contributor

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

単眼のカメラから3D画像情報を取り出す次世代3Dセンサー

テルアビブのMultiVuは、1つのセンサーとディープラーニングを組み合わせた新しい画像技術を開発している。同社は米国時間5月16日、700万ドルのシードラウンドを発表した。ラウンドをリードしたのはクラウドファンディングのプラットホームOurCrowdCardumen Capital、および香港のJunson Capitalだ。

テルアビブ大学のイノベーション推進ファンドがMultiVuの中核的技術の初期の開発を支え、それは同大のDavid Mendlovic教授の研究室から生まれた。Mendlovic氏は前にスマートフォン用カメラのスタートアップCorephotonicsの共同ファウンダーだったが、同社は最近サムスン(Samsung)に買収された

MultiVuのセンサーは、従来のような2つのセンサーではなく単眼のカメラを使って3D画像を作り出す。そのたった1つのセンサーが1回の撮影で奥行きと色のデータを取り込む。

従ってセットアップはコンパクトになり、部品が少ないぶん費用も安くなる。それを可能にしているのが、同社が特許を持つライトフィールド技術だ。

現在同社のチームは、スマートフォンなど小型デバイスの顔認証でそのセンサーを利用することにフォーカスしている。それはもちろん成長市場だが、小型の3Dセンサーにはもっと多様なアプリケーションがありうる。顔認識以外のセキュリティ技術や、自動運転車のセンサーにも使えるだろう。

MultiVuのCEO Doron Nevo氏は次のように語る。「この技術は概念実証の段階を終えており、3Dの顔認証技術や、低コストの3D画像技術をモバイルや自動車産業、そのほかの工業分野、そして医療の分野にも提供できる。この技術を商用化する機会が与えられたことを、嬉しく思っている」。

しかし当面は、そのセンサーそのものの市場化に力を入れていく。今回の新たな資金もそのためのマーケティングや事業開発に充てられる予定だ。

OurCrowdの上級パートナーEli Nir氏はこう語る。「未来の3Dセンサー技術に投資できることはたいへん喜ばしく、MultiVuは市場に深く浸透していくだろう。現在の高コストな3D画像技術を利用できない企業はとても多い。David Mendlovic氏の3つめの創業企業に投資できることを誇らしく思うし、またCEO Doron Nevo氏の豊富な起業履歴や高い能力を持つチームにも大きな期待が持てる」。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

会話型アプリケーション開発のためのAIプラットホームをCiscoがオープンソース化

通信機器大手のCisco(シスコ)は米国時間5月9日、会話型のAIプラットホームのMindMeldをApache 2.0のライセンスにより、誰もが自由に利用できるように一般公開すると発表した。

MindMeldは、Ciscoが2017年に買収した会話型AIの企業だ。同社はその年の終わりごろに、その技術をCisco Spark Assistantに使用して、ミーティング用ハードウェアで音声コマンドが使えるようにした。当時それは、生まれたばかりの新しい技術だった。

現在、エンタープライズのいろんなユースケースに音声を持ち込む取り組みが至るところで行われており、CiscoはMindMeldのツールセットでデベロッパーにそのための方法を提供している。Ciscoで機械学習のチームを率いているKarthik Raghunathan氏が、ブログでこう書いている。「本日Ciscoは、MindMeld Conversational AI Platformをオープンソースにすることによって、会話型アプリケーションを構築するための総合的で実践的なツールでデベロッパーの能力を高めるための、大きな一歩を踏み出す」。

同時に同社は、デベロッパーにとってそのプラットホームが使いやすくなるための教本、Conversational AI Playbookをリリースする。このステップ・バイ・ステップのガイドブックによりデベロッパーは、会話駆動型アプリケーション開発の、第一歩を踏み出すことができる。Ciscoによると、デベロッパーに力をつけることが最大の目的とのこと。

しかしもちろん、Ciscoの外にいるデベロッパーがこのツールセットを使ってくれることが、同社の最大の関心だ。オープンソースにすれば、Ciscoの顧客やそのほかの企業にいるデベロッパーのコミュニティが、このツールを使ったり、試したり、改良したりしてくれるだろう。それによってプラットホームの開発が早くなり、より広範囲に行われるようになる。Ciscoのような大企業では、全社的な浸透も可能になるだろう。

もちろん、オープンソースにしたらいきなりコミュニティができるわけではない。しかし、音声対応のアプリケーションやシステム製品はその人気が急速に成長しているから、このプラットホームを試してみるデベロッパーが増えることは確実だ。どれだけの人に、より深い関心を持ってもらえるか、それは今後のCiscoの努力次第だ。

Ciscoはこのプラットホームのすべてを、同社のデベロッパーネットワークDevNet上で今日から提供開始する。

関連記事: 音声インターフェースがビジネス向けに進出中

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

シャープがスマートテレビの販売を年内に米国で再開する

米国の消費者にとって良いニュースだ。シャープが年内に米国でテレビの販売を再開すると発表したので、スマートテレビをめぐる競合がより活発になるだろう。

この日本企業は、財務状況が悪化して自分の存在すら危うくなった2015年に米国を去った。その後同社は、Foxconn(フォックスコン)の名でよく知られている台湾の製造企業Hon Hai Precision(鴻海精密工業)に救済されたが、そのときの35億ドルの買収は日本国内で議論をよび、国が支援する協定の方がまし、という声が多かった。しかし同社は今、新しい経営母体の下(もと)で、再建努力を継続するための事業拡大の道を探っている。

シャープは米国市場を去るにあたってTV事業のライセンスをハイセンスに売ったが、今週の同社の発表ではその後買い戻したという。その条件等は開示されていない。

両社の関係は確かに冷えきっている。シャープはこの中国の国有企業を告訴し、粗悪な製品にシャープの商標を付けて売った、と主張した。その訴訟は昨年の初めに取り下げられた。そのときシャープは、北米市場には自力で帰還したいと述べ、そして今回、そのために必要な契約が成立した。

ロイター通信の情報筋によると、ハイセンスがまだ権利を有しているそのほかの米国市場も同社は検討しているようだが、しかし言うまでもなくビッグニュースになるのは合衆国市場への復帰だ。

シャープによると、当面は5GとAIoTを結びつけた、画質が8K/4Kのテレビを発売する(AIoTはArtificial Intelligence of Things、物の人工知能の略である)。その製品系列の詳細は、まだ発表されていない。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

GoogleのCloud TPU Podsの最新世代はMLモデルの訓練を短時間化

Googleは米国時間5月7日、Cloud TPU Podsの第2世代と第3世代を発表した。このクラウドベースのスケーラブルなスーパーコンピューターは、最大1000基の同社特製のプロセッサ、Tensor Processing UnitsTPU)を使用する。それを本日からは公開ベータで一般に利用できる。

最新世代のv3は特に強力で、プロセッサーは水冷されている。一つ一つのポッドが最大で100ペタFLOPSの演算能力を持ち、Googleによれば、世界のスーパーコンピューターの5位以内に入るそうだ。ただし、このTPUポッドはあまり高い演算精度を望めないだろう。

TPU Podは、その全体を使わなくてもいい。Googleはこれらのマシンのスライスをレンタルで提供している。しかし、いずれにしても極めて強力なマシンであり、ResNet-50の標準的な画像分類モデルをImageNetの(100万を超える)画像データセットで訓練する処理を2分で終える。

TPU v2のポッドはコア数が最大512で、v3よりやや遅い。例えば、265基のTPUを使用した場合、v2のポッドはResNet-50のモデルを11.3分で訓練するが、v3ならわずか7.1分だ。ちなみにTPUを1個だけ使うと302分かかるだろう。

当然だが、Googleによればポッドは(料金がどんなに高くても)モデルを早く訓練したいときや、ラベル付きの標本が数百万という大きなデータセットで高い正確性が必要、あるいは新しいモデルのプロトタイプを素早く作りたい、といったユースケースに向いている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

マイクロソフトがドラッグ&ドロップの機械学習ツールをローンチ、ユーザーはデータを用意するだけ

Microsoft(マイクロソフト)は米国時間5月2日、機械学習のプロセスを単純化するための3つのサービスを発表した。それらは、(1)モデルの作成を完全に自動化するツールへの新しいインターフェイス、(2)モデルの構築と訓練とデプロイをデベロッパー自身が行うためのコード不要のヴィジュアルなインターフェイス、そして(3)高度なユーザー向けにホストされるJupyter様式のノートブックだ。

機械学習を始めることは難しい。とても簡単な実験ですら、相当な専門知識が要る。Microsoftの新しいツールは、コードを隠したり、あるいは自分でコードを書きたい人向けにはあらかじめ構成されたプラットホームを提供して、そのプロセスを大幅に単純化する。

Azureの自動化機械学習ツールへの新しいインターフェイスは、モデルの作成をデータをインポートしてどの値を予測するのかをサービスに告げるだけ、という簡単な作業にする。ユーザーはコードを1行も書かないが、バックエンドでは多くの新しいアルゴリズムと最適化技術により、より正確なモデルを作る。その過程のほとんどは自動化されるが、Microsoftは、このサービスが「アルゴリズムへの完全な透明性を提供するので、デベロッパーやデータサイエンティストはプロセスを手作業でオーバライドしたりコントロールできる」と強調している。

またMicrosoftは同日、最初から自分でコントロールしたいというユーザーのために、Azure Machine Learningサービスのヴィジュアルインターフェイスをプレビューでローンチした。これによりデベロッパーは、コードに触ることなく機械学習のモデルを構築、学習、そしてデプロイできる。

このAzure Machine Learningヴィジュアルインターフェイスと呼ばれるツールは、Microsoftの最初のヴィジュアルな機械学習ツールであるAzure ML Studioに酷似している。というか、2つのサービスは同一であるようにも見える。でもMicrosoftはML Studioを積極的に推していないし、初心者向けには便利なツールのように思えたにもかかわらず、今では忘れてしまったかのようだ。

Microsoftによると、今回の新しいバージョンはAzure ML StudioのいいところとAzure Machine Learningを結びつけている。つまり、インターフェイスはほとんど同一でも、Azure Machine LearningヴィジュアルインターフェイスはAzure Machine LearningサービスのおかげでML Studioにできたことを大幅に拡張し、さらにセキュリティとデプロイメントとライフサイクル管理を加えた、ということのようだ。

このサービスは今や、データのごみ掃除やさまざまなアルゴリズムによるモデルの訓練、それらの評価、そして最終的にプロダクションへの導入を、シンプルなインターフェイスでできるようにしている。

上記、モデル作成の完全自動化と、デベロッパーが関与できるインターフェイス、これら2つのサービスは明らかに初心者向けだが、Azure Machine Learningでホストされるノートブックは、明らかに機械学習の経験者向けだ。ノートブックにはAzure Machine Learning Python SDKのサポートがあらかじめ組み込まれ、同社によると「安全でエンタープライズ級の環境」で利用できる。ノートブックの利用は簡単とは言えないにせよ、でもデベロッパー自身が開発環境やクラウド環境を自力ですべてセットアップすることに比べれば、はるかに仕事の着手が早いと言えるだろう。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AIモデルの最適化を単純にするAxとBoTorchをFacebookがオープンソース化

Facebookは5月1日に、同社のデベロッパーカンファレンスF8で、新しいオープンソースのAIツールとしてAxとBoTorchの2つをローンチした。

BoTorchは、その名前からもわかるようにFacebookの機械学習フレームワークPyTorchをベースとするベイズ最適化(Bayesian Optimization)のためのライブラリで、かなり特殊なツールだ。一方のAxはもっと興味深く、AIの実験を管理、デプロイ、そして自動化するための汎用プラットホームとなっている。

どちらのツールもFacebookにおける同じ全体的なワークの一部であり、それはFacebookが「適応的実験」(Adaptive Experimentation)と呼んでいるものにフォーカスしている。実際にAxはBoTorchとつながり、そして内部的にFacebookはこの2つのツールを、Instagramのバックエンドのインフラストラクチャの最適化やユーザーアンケートの応答率の向上など、さまざまなタスクに利用している。

基本的に、BoTorchないし一般的にベイズ最適化なるものは、モデルの最適化を容易かつ迅速にしてデータサイエンティストがなるべく早くプロダクション級のモデルを得られるようにする処理だ。通常は大量の試行錯誤を要し、サイエンスというよりアートだと言われることも多い。Facebook AIでPyTorchを担当しているプロダクトマネージャーのJoe Spisak氏は「アートを取り去り自動化する。目標は最新の研究成果をフルに活用することだ」と言う(ベイズ最適化の日本語参考ページ)。

ベイズ最適化ツールはBoTorchが初めてではないが、Facebookによると既存のライブラリは拡張もカスタマイズも困難で、しかもFacebookのニーズに合わない。

上図のようにAxがまず仕事を引き受け、BoTorchのモデルの最適構成を見つける能力を管理していく。そして、デベロッパーがプロダクション級のサービスを得られるようにする。例えばFacebookでは、AxがA/Bテストやシミュレーションツールと連携する。ツールの目的はあくまでもシステムを自動的に最適化することだから、ユーザーが関与する必要性はほとんどない。Axは実験を行うとき、最良の最適化戦略を自動的に拾い上げる。それは、ベイズ最適化かもしれないし、古典的なバンディット最適化かもしれない、あるいはもっとほかのアルゴリズムかもしれない。重要なのはAxがフレームワークと特定しないことだ。BoTorchを使っていても、研究者はPyTorchやNumPyを介したサービスを使って自分独自のコードをプラグインできる。

Facebookでツールをオープンソースにすることは、現時点ではかなりスタンダードな行為になっている。PyTochはその好例だ。Spisak氏によれば、BoTorchもこの分野の優れた研究者たちの協力が得たいからやはりオープンソースにする。そもそも、最初のリリースでもコーネル大学の協力を得ている。「コラボレーションもオープンなコミュニティ作りも、クローズドソースではできない。オープンソースだからこそできる」と彼は言う。

関連記事: F8におけるPyTorchのアップデート(未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

英国はファーウェイを5Gサプライヤーにすることに難色

【抄訳】
中国の通信機器ベンダーの関与が国のセキュリティにリスクをもたらすとの懸念にもかかわらず、イギリスの政府は、同国の5Gネットワークの一部の中核的でない部分に関してファーウェイ(Huawei)をサプライヤーとして認めることになった。しかし政府の記者発表によれば、ネットワークの中核的な部分からは除外される。

米国時間4月23日の国家安全保障会議の会合における英国メイ首相の決定を今朝のテレグラフ紙が報じた。同紙によると、複数の閣僚が彼女のアプローチに懸念を表明した。それらは、内務大臣と外務大臣、防衛大臣、通商大臣、国際開発大臣である。

FT(フィナンシャル・タイムズ)は、英国の5Gネットワークへのファーウェイの関与に厳しい制約を課すのは、閣僚たちが提起した懸念のレベルが高いことを反映している、と報じている。

5Gによる次世代ネットワークの構築にファーウェイの部分的関与を許すというメイ首相の黃信号的決定の1か月前には、英国監督機関がこの中国企業のセキュリティへのアプローチを評価して厳しい報告書を提出したばかりだ。

ファーウェイ・サイバーセキュリティ評価センター監督委員会(Huawei Cyber Security Evaluation Centre Oversight Board)の第5次年次報告書は、同社のソフトウェアエンジニアリングとサイバーセキュリティの能力には「深刻かつ意図的な欠陥がある」と酷評している。

監督委員会はしかし全面的な禁令を促すことはせず、「英国の重要なネットワークへのファーウェイの関与が国のセキュリティにもたらすすべてのリスクは、長期的には十分に軽減できる、という限定的な確証しか提供できない」と言うにとどめている。

しかし2月にブリュッセルで行われたサイバーセキュリティカンファレンスで英国の国家サイバーセキュリティセンター(National Cyber Security Centre, NCSC)のCEOを務めるCiaran Martin氏は、ファーウェイがもたらすいかなるリスクでも英当局は軽減できる、と確信を述べた。

【中略】

オックスフォード大学のサイバーセキュリティ専門家Lukasz Olejnik博士はこう言う。「これ(ファーウェイの部分的認可)は、そろそろファーウェイ問題にけりをつけたいと願っている政府の、とりあえずまあまあの落とし所だから、別に意外ではない」。

【中略】

しかし、ファーウェイには手を出させない、ネットワークの中核的部分とは何なのか、その定義が難しそうだ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

産業用ロボット大手ファナックがAI利用でオートメーションをオートメーションする

工場等の製造工程はオートメーションによってすでに相当合理化されているが、しかしそれらのマシンは有能な技術者が苦労して訓練しなければならない。産業用ロボットの大手ファナックは、ロボットをもっと訓練しやすくして、オートメーションを製薬などより幅広い産業が利用できるものにしたい、と考えている。同社は米国時間4月18日に行われたTechCrunchのイベント「Robotics + AI Sessions」で、人工知能を利用する新しいツールを発表した。それは、簡単なアノテーションとセンサー技術によりロボットに容器から正しいオブジェクトを取り出すよう教え、訓練工程を従来より数時間も短縮する。

Bin-picking(ビンピッキング、より単純にはピッキング)はその名のとおり、ロボットアームを容器(bin)から正しい品物を取り出せるよう訓練して、一括注文した部品を正しく選り分けるなどの面倒で時間のかかる仕事をやらせる。そのために部品のサンプルを写真に撮り、ロボットが視覚センサーで目の前の部品とマッチできるようにする。従来のビンピッキングロボットの訓練では、正しいパーツを取り出せるようにたくさんのルールを教えなければならない。

ファナックのロボット事業本部本部長の稲葉清典博士はこう語る。「以前はそのためのルールを作るために大量の試行錯誤ややり直しが必要で時間もかかり、とても面倒だった」。

たとえば積まれた部品の山を見て、そこに目的の部品を見つけるためのルールがある。あるいはその中でいちばん目立つもの、目立つという概念を教えなければならない。エラーを犯したら人間オペレーターがそのことをロボットに教え、訓練をやり直す。オートメーションを導入してまだ日の浅い産業では、ロボットを訓練するための技術者やオペレーターを確保することが難しい。

そしてそこに、ファナックの新しいAIベースのツールが登場して、訓練工程を単純化する。人間オペレーターは容器に乱雑に放り込まれているパーツの写真を見て、ロボットに取り出させたいパーツの例を画面上でタップする。それは、幼児におもちゃの片付け方を教えるのに似ている。これは通常のAIベースの視覚センサーを訓練する場合に比べてかなり短時間で済み、同時に複数のロボットを訓練できる。

稲葉氏はこう語る。「人間が物を動かすときと同じやり方をロボットに人間オペレーターが教えるのは、きわめて難しい。しかしAIを利用すれば、従来のやり方よりももっと直観的にロボットに教えることができる」。彼によると、この技術はまだ初期的な段階なので、実際に工場の組立ラインで使えるようになるためには、さらなる研究開発が必要、という。

画像クレジット: Bloomberg/Getty Images

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Google Cloudはクラウドのシェアを伸ばす方法として垂直市場に深入り、まずリテールから

GoogleはAdobeやSalesforceではないが、でもリテイラー(小売業)の要求に見事にフィットするスキルがあり、それによって顧客の体験を良くすることができる。そのスキルの中には、ピーク時でもお店のWebサイトやアプリが確実に動き続けるようにすることも、含まれるだろう。米国時間4月10日のGoogle Cloud Nextカンファレンスで同社は、その垂直戦略(業種別戦略)の例として、複数のソリューションから成るパッケージを紹介した。

また今朝は、同社がSalesforceとのパートナーシップの新たな段階を発表した。それは、コンタクトセンターのAIツールとチャットボットをSalesforceのデータと組み合わせて、両社の長所をより強化し、より良いカスタマーサービスの体験を作り出すプロダクトだ。

しかしGoogleにはSalesforceのような有名企業とのパートナーシップだけでなく、リテイラー向けの独自のサービスもある。それはたとえば、お馴染みのブラックフライデーのような小売店向け販促サービスだ。クラウドの価値がいちばん分かりやすいのは、ブラックフライデーのようなイベントだ。ご存知のようにその日には、サーバーが大量のトラフィックの爆撃に見舞われる。

クラウドは常に、このようなイベントを容易にスケールアップできるが、しかし完全ではない。Amazonは昨年、Prime Dayにサーバーが遅くなった。リテールのウェブサイトが遅くなったりダウンすれば大量の売上を失うから、Googleはそれが起きないように企業を助けたい。

そのために同社は、オンラインのリテイラー専用のサービスeCommerce Hostingを提供する。この特別プログラムでリテイラーは、技術的なレビューやピーク時のオペレーションのサポートなど、行き届いた世話をしてもらえる、という。つまり小売企業のサイトが需要増でダウンしたときでも、損失の大きい惨憺たる結果が生じないようにする。

またGoogleのリアルタイム在庫管理ツールを使えば、店員もお客もどの品番のソックスがあるか、ないかを正確に知ることができる。これもGoogle Contact Center AIと同じく、AIを使っている。Cloud Visionテクノロジーにより、顧客がカメラを商品に向けると、類似製品や関連製品を教える。そしてRecommendations AIは、お客が買った商品の関連商品をおすすめする。

ShopifyやIkeaなども、同社のリテールの顧客だ。またAccentureやCapGemini、DeloitteのようなSIパートナーや、Salesforce、SAP、Tableauのようなソフトウェアパートナーとも協働している。

Googleはこのように多面的なサービスを揃えて、さまざまな垂直市場(業種別市場)に対応しようとしている。それにより、どの業種にも、クラウドのアドバンテージを享受してもらいたい。これが、Google Cloudがソリューションを売っていく新たな方法であり、それによってクラウドのマーケットシェアを増やしたいのだ。

関連記事: Salesforce and Google want to build a smarter customer service experience…SalesforceとGoogleがカスタマーサービスで提携(未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

GoogleのAI専門VCが機械学習のモデル開発を助けるLabelboxに投資

機械学習アプリケーションのためのデータセットを作り、管理し、メンテナンスするLabelboxが、新たな投資ラウンドで1000万ドルを調達した。

そのリード投資家Gradient Venturesは、GoogleのAI専門のベンチャーファンドだ。これに、前からの投資家Kleiner Perkins、First Round Capital、エンジェル投資家のSumon Sadhuが参加した。

Labelboxは、データのラベリングをアウトソーシングする過程を管理し、企業や団体に彼らが集めるデータを管理し、データのクォリティーを確保するためのツールキットを提供する。同社CEO Manu Sharma氏はそう説明してくれた。

CEOのSharmaとCTOのDan Rasmuson、そしてCOOのBrian RiegerらLabelboxのファウンダーたちにとっては、彼らが開発したツールは前に社員として勤めていたDroneDeployやPlanet Labs、Boeingなどで必要性を痛感していたサービスの実現だ。

今回得た資金は、社員を現在の11名から22名に増やして営業とマーケティングのチームを作ることに充てたい、という。

Labelboxの現在の顧客はおよそ50社で、課金は彼らがアップロードするデータの量と利用するサービスの種類に基づいて行われる、名前を挙げてもよい顧客は、FLIR Systems、Lytx、Airbus、Genius Sports、KeepTruckinなどだ。

Labelboxが昨年ステルスを脱したとき本誌も報じたように、同社のツールキットは誰でも無料で使える。利用量が一定の閾値を超えたときのみ、課金される。たとえばLytxは、ドライブレコーダーDriveCamのためにLabelboxを利用している。すでに50万台のトラックにインストールされているそのカメラはAIを使って危険運転を検出するので、その能力は訓練によってアップする。またメディアと出版の大手企業Conde Nastは、ランウェイ上のファッションを同社のコンテンツアーカイブにあるファッションと関連付けるためにLabelboxを利用している。

Sharma氏が声明文の中で言っている。「Labelboxはモデルの開発時間を大幅に減らし、データサイエンティストたちが自力ですばらしい機械学習アプリケーションを作れるようになる。新たな資金でデータラベリングのインフラストラクチャをさらに強化して、機械学習のチームに強力なオートメーションとコラボレーションとエンタープライズ級の機能を提供していきたい」。

Gradient Venturesはこの技術に投資したいと思うほどの関心を持ち、機械学習のツールの開発をグローバルにサポートしていける同社の能力に将来性を見出している。

Gradient VenturesのファウンダーでマネージングパートナーのAnna Patterson氏はこう言っている。「Labelboxは機械学習を製造業、運輸交通業、ヘルスケアなどさまざまな分野にわたって産業化していける位置にいる。そうすることによって同社は、AIのポテンシャルを全世界の企業に向けて開放するだろう」。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Android上のGoogle Assistantのビジュアルな答が改良された

半年ぐらい前にGoogleは、スマートフォンのAssistantのルックスを一新した。そして米国時間4月6日、同社はそのフォローアップとして、Android上のAssistantのビジュアルな応答性を良くするための、小さいけどすてきな手直しを発表した。それによってアプリの使い心地は、Googleのそのほかのサービスと同じになるだろう。

たとえば、イベントをたずねたときの応答は、同じ質問をモバイルのブラウザー上でたずねたときとまったく同じだ。これまでは、Assistantのビジュアルな応答は、かなり簡略化されていた〔下図のそれぞれ左(Before)〕。

[イベント][株価][犬][猫]

  1. Events

  2. Stocks

  3. Dog

  4. Cats

また、これにはユーザーからの苦情もありそうだが、Assistantでは最適解がないのでWebサイトのリストを“その他の解”としてユーザーに見せるとき、二つのボックスを画面上に縦に並べた。それは、とっても見づらい。しかし今度からは、ふつうのGoogle検索のレイアウトと同じになる。

良いアイデアじゃないの。なんでそれに苦情が来るの? つまり、表示が通常のGoogle検索と同じになったことによって、検索広告も出るのだ。Assisitantが広告をユーザーに見せるのは、これが初めてだ。Webサイトのリストを答としてもらうような質問は、そんなに多くないから、まあいいじゃないか。でもユーザーが心配するのは、これをきっかけにAssistant上の広告が今後多くなることだ。

Googleによると、Assistantのユーザーに見せるその広告では、広告主は広告のターゲティングができない。そしてユーザーに関する情報を、捕捉しない。

今度のAssistantには、住宅ローンの計算や、カラーピッカー(画面から色を拾う)、チップの計算、水準器などの機能が加わった。また、株価を知りたいときは、完全な対話型のグラフでそれができる。今までのように、株価が表示されるだけではない。

これらの新しい機能は今のところ、アメリカのAndroidスマートフォンのみだ。例によって、あなたのお手元のスマホに現れるのはもうちょっとあとだね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

オンライン学習の仏OpenClassroomsが修士号取得のためのAIコースを開設

フランスのオンライン学習コースOpenClassroomsが、新しいパートナーシップにより修士レベルのコースを始めようとしている。このコースに登録した学生は、人工知能に関する完全にオンラインの課程にアクセスできる。そして卒業したら企業に就職し、この事業のパートナーであるマイクロソフトも一部を雇用するだろう。

OpenClassroomsは、さまざまなテーマに関する人びとの学習意欲に応えるための、大規模でオープンなオンラインコースとして始まった。そしてその後、完全な卒業証書と学位をもらえる6か月から数年を要する長期コースも始めた。

OpenClassroomsはフランスの正式な学位を提供し、今後アメリカやイギリスでも同じことをしようと計画している。毎週メンターと対話して進捗状況を話し合えるから、完全な自学自習ではない。同社の場合、このやり方がとてもうまくいっている。

オンラインのコースは、学位を取るコストが通常の大学より低いし、時間/日/学期などのスケジュールの組み方に柔軟性がある。また同社は、卒業後6か月以内に就労できることを保証している

最近OpenClassroomsは、企業とパートナーして新入社員教育を提供している。その間新人は、週に数日出勤し、他の日はネットでOpenClassroomsを受講する。企業はそれにより各新人社員の適性がわかるし、一方社員は自分で金を払って基礎知識などを学習せずに済む。OpenClassroomsにお金を払うのは、社員ではなく企業だ。UberやDeliveroo、Capgemini、BNP Paribasなど数十社が、この新入社員教育事業を利用している。

マイクロソフトは、OpenClassroomsのデータサイエンスや機械学習、人口知能一般など学位取得コースの構築を助ける。同社は、学習コンテンツと実習プロジェクトの両方を提供する。最初の受講生は、フランスとイギリスとアメリカの計で1000名を予定している。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Adobe After Effectsでビデオのコンテンツ対応塗りつぶしができるように

Adobeは米国時間4月3日、Creative Cloudの一員である特殊効果ソフトウェアAfter Effectsでコンテンツに応じた塗りつぶし(content-aware fill)ができるようになる、と発表した。この機能はかなり前からPhotoshopにあり、写真から何かを消したらそのあとを、まわりにあるもの〔例: 青空〕に基づいて塗りつぶすのによく使われる。ご想像つくと思うが、それを静止画でなく動画でやろうとすると、相当大変だ。その消すべきものがあったすべてのコマで、塗りつぶしをやんなきゃならない。

同社はその大変なことを、AdobeのAIプラットホームAdobe Senseiを利用して実装した。邪魔者のブームマイクなど要らないものを消すには、それをマスクすればよい。マスキングが完全に終わったら、このツールが自動的に消されたあとを追跡して、一部が何かの後ろに隠れていたときでさえも、その場所にふさわしいピクセルで填める。結果を微修正したければ、Photoshopを使って参照フレーム(reference frames)を作ればよい。

  1. Ae_Content-Aware-Fill_1-Before

  2. Ae_Content-Aware-Fill_2-Mask

  3. Ae_Content-Aware-Fill_3-After

このコンテンツ対応塗りつぶしは360度のVRプロジェクトでも便利に使える、とAdobeは言っている。360度だから何かをカメラの視界の外に隠せない。塗りつぶすしかない。

来週行われる今年のNABの年次大会でAdobeは、After EffectsとPremiere Pro用にたくさんのビデオ機能をローンチする。その一部はワークフローの改良にフォーカスし、たとえばFreeform Projectという新しいパネルでは、重要なものを視覚的に並べ替えたり、オーディオをもっと良くするツールがある。なお、AuditionとPremiere Proには、環境音を抑制するオートダッキング機能がある。

例によってAdobeは、アプリケーションのパフォーマンスアップにも力を入れている。たとえば、PremiereのGPUレンダリングはエクスポートの時間を短縮し、8Kビデオのマスクの追跡は最大38倍速く、HDのシーンなら最大4倍速い。

ビデオは今、黄金時代を迎えているから、放送や映画、ストリーミングサービス、デジタルマーケティングなどの分野でビデオのプロたちが、消費者からのより高度なコンテンツの要求に直面している。一方でプロダクションのタイムラインはますます短く、仕事の受注数は増え続ける。Adobeのデジタルビデオオーディオ担当ヴァイスプレジデントSteven Warnerは次のように述べる。「Adobe Senseiが提供するパフォーマンスの最適化とインテリジェントな新機能の数々により、ビデオのプロたちは、だらだらと長かったプロダクションの仕事を減らし、クリエイティブなビジョンに集中できる」。

そして、Twitchのストリーマーにはボーナスがある。これからはCharacter Animatorを使ってリアルタイムのアニメーションを作れる。それはこのツールを使っているColbert Show などでお馴染みの、ライブのアニメーションだ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ML/AIプラットホームのVizion.aiがマネージドElasticsearchサービスを立ち上げ

オープンソースの分散検索エンジンのElasticsearchは、今や大小さまざまな多くの企業が自社の分散検索とアナリティクスを実装するために利用している。そのセットアップはそれほど困難ではないが、難しいのはリソースの最適プロビジョニングだ。特にユーザーの要求にスパイクがあるアプリケーションでは無駄のないリソース確保が難しい。そこで、Elasticsearchを管理を伴うクラウドサービスElasticsearch Serviceとして提供するVizion.aiは、その心配を解消し、ユーザーが実際に使ったインフラストラクチャにのみ課金する。

Vizion.aiのサービスは、必要に応じて自動的にスケールアップ・ダウンする。そのマネージドサービスとして提供されるSaaSプラットホームはプライベートとパブリック両様のクラウドデプロイをサポートし、Elasticの標準的スタックとの完全なAPI互換性がある。また標準のツールとして、データ視覚化のKibanaや、データをサービスに送るBeats、入力データを変換してデータパイプラインをセットアップするLogstashなど、Elasticsearchの標準のツールも含まれている。例えばーザーは、テスト用や開発用に複数のスタックを容易に作ることができる。

Vizion.aiのGeoff Tudor氏

Vision.aiのバイスプレジデントでゼネラルマネージャーのGeoff Tudor氏は、次のように語る。「AWSのElacticsearchサービスを使おうとすると、選択肢の数が多すぎて途方に暮れてしまう。インスタンスのサイズはどれにするか?、インスタンスはいくつ必要か?、地理的冗長性は必要か?、どんなネットワーキングを使うのか?、セキュリティはどうか?、などなど。選択を間違えると全体的なパフォーマンスに影響が及ぶ。弊社では、インフラストラクチャのレイヤの背後でリソースの均衡化を動的に行う」。

そのためにこのサービスはユーザーの利用パターンを見て、そのユースケースに合った最適なリソース割り当てを行う。実はVizion.aiの親会社Panzuraはエンタープライズ向けのマルチクラウドストレージサービスで、データのキャッシングに関する多くのパテントを持っている。今度の新しいElasticsearchサービスは、それらの技術を利用してリソースの最適割り当てを行う。

Tudor氏も認めるように、Elasticsearchの商用サービスはほかにもある。それらと、Vizion.aiの新しいサービスとの差別化要因は、事前にメタデータ用のストレージのサイズを決めなくてもよいこと、そして高価なSSDを大量に使わないことだ。PanzuraのIPを利用できるVision.aiは、最近のデータだけをSSDにキャッシュし、そのほかは安価なオブジェクトストレージのプールに収める。

さらに彼によると、Vizion.aiはAIやMLのワークロードを動かす総合的なサービスであり、Elasticsearchサービスはその構成成分のひとつだ。TensorFlowやPredictionIOのサポートも、目下準備中だ。とくにPredictionIOは、Elasticsearchと併用しやすい。「今後これを、マルチクラウドによる使いやすいサーバーレスのML/AIサービスにしていきたい。しかもうちでは、提供するのはコンピュート(計算処理)だけではなく、レコードのストレージも非常に高いコスパで利用できる」。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ディープラーニングを企業が使いやすい形で提供するSkymind、アジア市場開拓を目指す

Y Combinatorで孵化したAIプラットホームSkymindは、ディープラーニングをエンタープライズにとってアクセスしやすくすることがミッションだ。同社は米国時間3月20日、TransLink CapitalがリードするシリーズAのラウンドで1150万ドル(約12.7億円)を調達したことを発表した。これには、ServiceNow、住友のPresidio Ventures、UpHonest Capital、およびGovTech Fundが参加した。また初期の投資家であるY CombinatorやTencent、Mandra Capital、Hemi Ventures、そしてGMO Venturesらも参加した。これで、同社の調達総額は1790万ドルになる。

TransLink Capitalの存在が、今回の資金調達の目的を示唆している。TransLinkの得意技は、起業家のアジア市場開拓を助けることだ。Skymindもアジア市場に大きな機会があると信じているので、TransLinkのリードは理にかなっている。Skymindは、今度の資金で北アメリカにもチームを作り、顧客を獲得していきたいと考えている。

SkymindのCEOクリス・ニコルソン氏(Chris Nicholson)は、次のように語った。「TransLinkはこのラウンドのリードとして完璧だ。彼らは、北アメリカとアジアの間のコネクションの作り方を知っている。そこは世界でもっとも大きく成長している地域だ。そして、さまざまなシナジーの可能性もある。ServiceNowのような戦略的投資家の参加と、住友のPresidio Venturesが初めてわれわれを支援してくれたことも、すごく嬉しい。ServiceNowとはすでにコラボレーションしており、そこではSkymindのソフトウェアが、彼らが展開する強力で新しい技術の一部になっている」。

今では誰もが知っているように、エンタープライズはAIを何らかの形で採用しなければならないことを分かっているが、そのやり方が分からない。Skymindのツール、とくにそのコアプロダクトであるSKIL frameworkを利用すれば、データの取り入れ、洗浄、モデルの訓練、その実稼働までのワークフローを、データサイエンティストがこなせるようになる。つまりここでの同社の約束は、SkymindのツールがデータサイエンティストとITとの間にあるあるギャップをなくすことだ。

ニコルソン氏は語る。「AIにとって二つの大きな機会は、顧客体験の改善と効率の向上だ。そしてどちらもその源泉は、データに関するスマートな意思決定だ。それを、AIが行う。エンタープライズにとって重要なデータは、その多くがテキストと時系列データだ。前者の典型が企業や各部署のブログ、後者の例は会計経理のデータなどだ。したがってそこには自然言語処理と、ログのようなデータストリームに基づく意思決定の、膨大な量の需要がある」。

現在のSkymindの顧客は、前掲のServiceNowや、Orangeのような通信企業だ。またCiscoやSoftBankなど一部のテクノロジー系パートナーは、Skymindのサービスを自分たちのポートフォリオに統合している。

また、忘れてならないのは、Javaで書かれたオープンソースのAI/ディープラーニングライブラリとしていちばん多く使われているDeeplearning4jの作者が、Skymindであることだ。またPythonによるディープラーニングフレームワークKerasにも、同社が大きく寄与貢献している。

関連記事: Javaによるディープラーニングライブラリをオープンソースで提供するSkymind$3Mを調達

[原文へ]

(翻訳:iwatani、a.k.a. hiwa