ニュースからAIで業績予測を行うゼノデータが7.8億円を資金調達

写真前列中央:ゼノデータ・ラボ 代表取締役 関洋二郎氏

金融情報のAI分析サービス「xenoBrain(ゼノブレイン)」を開発するxenodata lab.(ゼノデータ・ラボ)は3月25日、総額7億8000万円の資金調達を実施したことを明らかにした。

同社が展開するxenoBrainは、経済ニュースや決算情報を自然言語処理により解析し、企業の業績への影響を予測するサービス。2018年11月から提供開始された。ウォール・ストリート・ジャーナルなどで知られるダウ・ジョーンズの持つ過去10年分以上のグローバルニュースデータを中心に、30万本を超える記事に含まれる過去の経済事象の連関から企業の利益影響を自動で分析し、業績予測を行う。

金融機関出身者を中心に開発されたxenoBrainには、ニュースをリアルタイムに分析し、ニュースに関連して将来影響を受ける企業や経済情報が把握できる機能や、上場企業3600社超の決算内容を発表後1分で分析し、レポートする機能などが搭載されている。

ゼノデータ・ラボは2016年2月の設立。MUFG Digitalアクセラレータの第1期に採択され、グランプリを受賞し、三菱UFJ銀行、帝国データバンクなど9社と資本提携を行っている。また2018年7月にはBloombergとのデータ連携、ダウ・ジョーンズとの業務提携も実施し、同年xenoBrainをリリースした。

今回の調達金額のうち6億8000万円は第三者割当増資、残りは融資によるもの。第三者割当増資の引受先は慶應イノベーション・イニシアティブ、第一生命保険、時事通信社、ジャパンインベストメントアドバイザー、ナントCVCファンドなど合計13社と、レオス・キャピタルワークス代表取締役社長の藤野英人氏ら4名の個人投資家だ。

■出資先一覧

<第三者割当増資>
慶應イノベーション・イニシアティブ
第一生命保険
時事通信社
ジャパンインベストメントアドバイザー
帝国データバンク
DBJキャピタル
内藤証券
ナントCVCファンド(南都銀行とベンチャーラボインベストメントの共同設立によるファンド)
フリービットインベストメント
横浜キャピタル
三井住友海上キャピタル
静岡キャピタル
山梨中銀経営コンサルティング
他、藤野英人氏含む個人4名

<融資>
商工組合中央金庫

調達資金により、ゼノデータ・ラボではxenoBrainの機能・コンテンツ拡充を図る。xenoBrainの分析対象ニュースの拡充やサプライチェーン分析といった機能開発を行う。機能拡張により、現在は大手金融期間を中心に展開されているxenoBrainの対象ユーザーを一般の事業会社にも広げ、より幅広い利用を目指す。また、出資先各社との業務提携、連携も順次発表するとのことだ。

ディープラーニングを企業が使いやすい形で提供するSkymind、アジア市場開拓を目指す

Y Combinatorで孵化したAIプラットホームSkymindは、ディープラーニングをエンタープライズにとってアクセスしやすくすることがミッションだ。同社は米国時間3月20日、TransLink CapitalがリードするシリーズAのラウンドで1150万ドル(約12.7億円)を調達したことを発表した。これには、ServiceNow、住友のPresidio Ventures、UpHonest Capital、およびGovTech Fundが参加した。また初期の投資家であるY CombinatorやTencent、Mandra Capital、Hemi Ventures、そしてGMO Venturesらも参加した。これで、同社の調達総額は1790万ドルになる。

TransLink Capitalの存在が、今回の資金調達の目的を示唆している。TransLinkの得意技は、起業家のアジア市場開拓を助けることだ。Skymindもアジア市場に大きな機会があると信じているので、TransLinkのリードは理にかなっている。Skymindは、今度の資金で北アメリカにもチームを作り、顧客を獲得していきたいと考えている。

SkymindのCEOクリス・ニコルソン氏(Chris Nicholson)は、次のように語った。「TransLinkはこのラウンドのリードとして完璧だ。彼らは、北アメリカとアジアの間のコネクションの作り方を知っている。そこは世界でもっとも大きく成長している地域だ。そして、さまざまなシナジーの可能性もある。ServiceNowのような戦略的投資家の参加と、住友のPresidio Venturesが初めてわれわれを支援してくれたことも、すごく嬉しい。ServiceNowとはすでにコラボレーションしており、そこではSkymindのソフトウェアが、彼らが展開する強力で新しい技術の一部になっている」。

今では誰もが知っているように、エンタープライズはAIを何らかの形で採用しなければならないことを分かっているが、そのやり方が分からない。Skymindのツール、とくにそのコアプロダクトであるSKIL frameworkを利用すれば、データの取り入れ、洗浄、モデルの訓練、その実稼働までのワークフローを、データサイエンティストがこなせるようになる。つまりここでの同社の約束は、SkymindのツールがデータサイエンティストとITとの間にあるあるギャップをなくすことだ。

ニコルソン氏は語る。「AIにとって二つの大きな機会は、顧客体験の改善と効率の向上だ。そしてどちらもその源泉は、データに関するスマートな意思決定だ。それを、AIが行う。エンタープライズにとって重要なデータは、その多くがテキストと時系列データだ。前者の典型が企業や各部署のブログ、後者の例は会計経理のデータなどだ。したがってそこには自然言語処理と、ログのようなデータストリームに基づく意思決定の、膨大な量の需要がある」。

現在のSkymindの顧客は、前掲のServiceNowや、Orangeのような通信企業だ。またCiscoやSoftBankなど一部のテクノロジー系パートナーは、Skymindのサービスを自分たちのポートフォリオに統合している。

また、忘れてならないのは、Javaで書かれたオープンソースのAI/ディープラーニングライブラリとしていちばん多く使われているDeeplearning4jの作者が、Skymindであることだ。またPythonによるディープラーニングフレームワークKerasにも、同社が大きく寄与貢献している。

関連記事: Javaによるディープラーニングライブラリをオープンソースで提供するSkymind$3Mを調達

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

スケッチを数秒でリアルな写真に変えるNVIDIAのAI

米国時間3月18日、NVIDIA GTC 2019で、同社は驚きの画像作成機能を発表した。それは、GAN(Generative Adversarial Network=敵対的生成ネットワーク)を利用したもので、このソフトウェアのユーザーは、ほんの数クリックで写真のようにリアルな画像をスケッチすることができる。数本の線を、あっという間に麗しい山頂の夕日に変えてしまうのだ。これこそAI世代のMS Paintだ。

GauGANと呼ばれるこのソフトウェアは、NVIDIA(エヌビディア)のニューラルネットワークのプラットフォームによって可能になることの、ほんの一例に過ぎない。それは、人間が描く絵画のような画像を生成するように設計されている。スケッチを数秒で写真のようにリアルな画像に変換するのが目標だ。初期のデモを見る限り、その言葉通りに機能している。

GauGANには3種類のツールがある。ペイント缶、ペン、そして鉛筆だ。画面の底辺近くには、オブジェクトの名前が並んでいる。たとえば「Cloud(雲)」のオブジェクトを選択して鉛筆で線を引くと、ソフトウェアが細くたなびくリアルな雲を描き出す。もちろん、これは画像を貼り付けているわけではない。GauGANは、入力ごとに固有の結果を生成するのだ。円を描いてから、ペイント缶で塗り潰せば、ソフトウェアはふわふわした夏の雲を作り出す。

ユーザーが入力ツールを使って木の形を描けば、木が生成される。直線を引けば、裸の幹が描かれる。その上を丸で囲めば、ソフトウェアはその中を木の葉で満たし、立派な木になるというわけだ。

GauGANは、一種のマルチモーダルにもなっている。2人のユーザーが同じスケッチを同じ設定で描いたとしても、プロジェクトに組み込まれた乱数発生機能によって、ソフトウェアは異なる結果を生成するようにしている。

リアルタイムで結果を得るためには、GauGANはTensorコアを使った計算機プラットフォーム上で実行する必要がある。NVIDIAのデモでは、このソフトウェアをRDX Titan GPUプラットフォーム上で実行し、リアルタイムで結果を出力していた。デモのオペレータが直線を引くと、ソフトウェアは直ちに結果を生成することができた。しかし、Applied Deep Learning Research部門の副社長であるBryan Catanzaro氏によれば、若干の変更を加えることで、一般的なCPUなど、ほぼすべてのプラットフォーム上でGauGANを実行できるようになるという。ただし、結果が表示されるまでには、数秒かかるようになるはずだ。

今回のデモでは、オブジェクト間の境界はまだ完璧ではない。このプロジェクトを担当するチームは、今後それも改善されるとしている。2つのオブジェクトが接する部分に細い線が見えてしまうのだ。NVIDIAは、結果は写実的だと言うものの、よくよく見ると、説得力を欠いてしまうことになる。現状のニューラルネットワークが抱える問題として、学習に使ったオブジェクトと、学習の成果との間の違いがある。このプロジェクトでは、そのギャップを減らすことを目指している。

NVIDIAは、Flickr上にある100万枚の画像を、このニューラルネットワークに学習させた。そのほとんどは、Flickr上でクリエイティブ・コモンズとしてライセンスされているもの。Catanzaro氏は、同社は許可を得た画像のみを使っていると述べている。NVIDIAによれば、このプログラムは何十万種類ものオブジェクトを生成し、現実世界のようなオブジェクト同士の関係も再現できるという。たとえばGauGANでは、季節を変えることで、枝に葉がなくなるところまで再現している。そして、木の前に池があれば、その水面に木が映るのだ。

Nvidiaは米国時間3月18日、ホワイトペーパーを発行することにしている。Catanzaro氏によれば、それはあらかじめCVPR 2019に提出されたものだという。

Catanzaro氏は、このソフトウェアをNVIDIAの新しいAI Playground上でも使えるようにすることを目論んでいる。ただし、そのためにはもう少し仕事が必要だという。彼は、このようなツールをビデオゲームに応用すれば、より没入しやすい環境を作ることが可能になると考えてはいるものの、NVIDIAが直接、そうしたソフトウェアを開発することはないとしている。

このソフトウェアを使って、非道な目的のため、偽物の画像を生成することも簡単にできるということが心配になるのも無理はない。Catanzaro氏も、これは重要なトピックであり、1つのプロジェクト、あるいは1つの会社で扱えるようなものではないと考えている。「私たちも、そのことをとても気にかけています。この世界をできるだけよい場所にしたいですから」と、彼は言う。そして、これは信頼の問題であり、技術の問題ではないと付け加えた。われわれが、社会全体として対処すべき問題であるとも。

今回の限られたデモからも明らかになったのは、こうした能力を引き出すようなソフトウェアは、ビデオゲームデザイナーから建築家、そして一般のゲーマーまで、誰にとっても魅力的なものであること。NVIDIAとしては、このソフトウェアを商業的にリリースする予定はないものの、誰でも使ってみることができるよう、じきにパブリックトライアル版をリリースすることになるはずだ。

原文へ

(翻訳:Fumihiko Shibata)

NVIDIAの次世代RTXポッドは1280基のGPU搭載、ネット上のハイエンドビジュアルを狙う

このところNVIDIA(エヌビディア)は、クラウドの大物になりたがっている。もともとは高性能なグラフィクスカードでゲームファンの人気企業だったが、最近ではデータセンターやAI、機械学習の推論、そして推論エンジンやデータ視覚化用のGPUに力を入れている。米国時間3月18日に開催されたGTCカンファレンスで同社は、ハリウッドのスタジオなどビジュアルなコンテンツを迅速に作りたいと願っている企業向けに、RTXサーバーの最新の構成を発表した。

そのRTXサーバーポッドは、32のRTXブレードサーバー上で最大1280基のTuring GPUをサポートする。それはサーバー1つあたり40のGPUを意味し、ひとつのサーバーがEIA規格で8Uのサイズになる。GPUは、構成にもよるがQuadro RTX 4000または6000だ。

今日の発表声明はこう述べている。「NVIDIAのRTX Serversは、Optix RTXレンダリングとゲーム、VR、AR、プロフェッショナルな視覚化アプリケーション向けに最適化されたソフトウェアスタックを持ち、レイトレーシングで強化された映画クラスのグラフィクスを、同じ性能のCPUベースのレンダリングクラスターよりもずっと低いコスト(電気料金)で提供する」。

このパワーを複数のユーザーで共有でき、バックエンドのストレージと相互接続ネットワークは、NVIDIAが今月初めに69億ドルで買収したMellanoxの技術が支える。その買収と今日のニュースはNVIDIAの未来にとってデータセンターがいかに重要であるかを物語っている。

DellやHP、Lenovo、Asus、SupermicroなどのシステムメーカーがRTXサーバーを顧客に提供しており、そのすべてをNVIDIAが検証し、それらの上で動くワークロードの管理には同社提供のソフトウェアツールを使用する。

NVIDIAは、これらのサーバーはARやVRをエッジで動かしたり、5Gネットワーク上でビジュアルをクライアントにサーブするのに適している、と力説している。それはあまりにもバズワードまみれとも感じるし、ARやVRに一般消費者が関心を持ったり、5Gネットワークがメインストリームになるのは、まだかなり先だろう。しかしそれでも、例えばゲームプレーをクラウドからストリーミングで提供するといったニーズには今日すでに、これらのサーバーが活躍できそうだ。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

自分やアイドルの顔と声から抽出した人工遺伝子で「自分だけのアイドル」を作るゲームがあるらしい

ディープラーニングで「アイドル自動生成AI」を開発するデータグリッドは3月19日、東京大学松尾研究室のスピンアウトVCであるDeep30から1500万円の資金調達を実施したと発表した。

このスタートアップが持つ技術はいろいろな意味で非常に面白い。その技術とは、GAN(敵対的生成ネットワーク)と呼ばれるモデルを利用してアイドルの顔画像を学習し、それらの特徴を組み合わせることで「架空のアイドル」の顔画像を生成するというもの。

ここで登場するGANとは、画像などのデータから特徴を学習することで、実在しないデータを生成したり、存在するデータの特徴に沿って変換する技術のこと。例えば、シマウマの画像と走るサラブレッドの画像を学習させることで、実際には存在しない「走るシマウマの画像」を生成することができる。

データグリッドは、この技術を利用してオルツおよびICOVO AGというスタートアップの3社合同で「GENE A.I.dols(ジーンアイドル)」というゲームを開発中だ。このゲームでは、データグリッドがもつ技術により、画像を学習させて「人工遺伝子」を作成し、それを組み合わせていくことによって「自分だけのアイドル」を作ることができる。

また、オルツが持つ話者適応技術(少量の音声データから、その人の音声を真似する技術)を利用することで、アイドルの声も生成する。そうすることで、世界で1つの容姿と声を持つアイドルが生まれるというわけだ。アイドルファンにはたまらないゲームだろう。

それと、この人工遺伝子はこのゲームで生成したアイドルからだけでなく、実在する人物からも抽出することができる。だから、例えば自分の画像や声から抽出した人工遺伝子と、ゲームから生まれたアイドルの人工遺伝子を組み合わせれば、自分とそのアイドルの「子ども」も作り出せてしまう。うーん、じつに奥が深い。

同社は将来的に、ジーンアイドルのVRへの対応、および人工遺伝子に書き込まれたアイドル個々の音声モデルと対話エンジンの開発も行う計画だという。それが実現すれば、VRを使って自分が生んだ架空のアイドルと“会って会話する”ことも夢ではない。

ジーンアイドルは2019年春にリリース予定。気になる読者はこのページからサインアップすることができるので、チェックしてみてほしい。

離婚した親同士の争いをAIと人間の調停を用いて解決するCoParenter

元裁判官であり家族法の教育者でもある人物が、テクノロジー起業家とチームを組んで、あるアプリを開発した。離婚した親同士がその共同養育(コペアレンティング)上の問題点や、コミュニケーション、共有カレンダーその他の意思決定を一つのプラットフォームの上で解決できるようにすることが願いだ。coParenterという名のこのアプリは、競合他社のものよりも包括的であることを目指しているが、AI技術を活用し、難度の高い状況にはオンデマンドで人間による対応を行うことも組み合わせている。

coParenterのアイデアは、共同創業者であるシェリル・A・エルスワース氏の個人的経験と、自分自身も離婚を経験した起業家であるジョナサン・ヴァーク氏から生み出された。

エルスワース氏はカリフォルニア州リバーサイド郡の上位裁判所の裁判長を20年務め、家族法の教育者として10年のキャリアを持っている。こうした歳月の中で、彼女は多くの家庭が、現在の法体系の中でどのように破壊されたかに直接触れてきたのだ。

「私は無数の家族たちが、家族法制度の中で苦労を重ねるうちに、ばらばらになっていった様子を目撃したのです。家族がいかに簡単な意見の相違で争うのかを見て来ました。例えば彼らの子供は、どの学校に行くべきか、どの医者にかかるべきなのか、そしてどのような食事を与えられるべきなのかなどなど、そうした問題は本来家庭に属するべき問題であって、法廷にはふさわしくないのです」と彼女は語る。

エルスワース氏はまた、法廷で訴えられた意見の不一致の8割が、法の介入など必要とはしないものだったことを指摘している。

法曹職のキャリアが終わりに近付くにつれて、彼女は法体系がこうした状況に対応できるように作られていないことを認識しはじめたのである。

そんなとき彼女が出会ったのが、かつてはShazamの戦略パートナシップ担当上級役員であり、現在はcoParenterのCEOを務めるジョナサン・ヴァーク氏である。ヴァーク氏はちょうど離婚したばかりであり、共同養育プロセスをより苦痛の少ないものにするために、どのように技術を使うことができるかについてのアイデアを温めていたところだったのだ。彼は既に、長年の友人であり連続企業家のエリック・ワイス氏(現COO)に、システム構築の協力を仰いでいた。しかし、彼はまた、法的専門知識を持った人物も必要としていた。

これがcoParenterの生まれた経緯である。

CTOのニールス・ハンセン氏によって開発されたこのアプリは、共同養育プロセスの様々な側面のために開発された、他のアプリたちと共存する形で存在している。

そうした他のアプリとして名前が挙げられるものは、OurFamilyWizard、Talking Parents、AppClose、そしてDivvito Messengerなどの、コミュニケーションを文書化するように設計されたアプリ;Custody Connection、Custody X Exchange、そしてAlimentorなどの、カレンダー共有アプリ;そして各種の機能を組み合わせたWeParent、2houses、SmartCoparent、そしてFayrなどのアプリである。

だがcoParenterのチームは、彼らのアプリは共同養育のためのあらゆる側面をカバーすると主張している。例えばコミュニケーション、ドキュメンテーション、カレンダーとスケジュールの共有、送迎記録のための位置情報ベースツール、経費の追跡と返金、スケジュール変更依頼、そして例えば散髪、食事、小遣い、メディアの利用などの細々とした日常的な親の意思決定を支援するツールなどだ。

またcoParenterは「ひとりモード」も提供することが特徴だ。つまりもう一方の親が同じことをすることを拒んだ場合でも、このアプリを使うことができるということだ。これは多くのライバルアプリに欠けている重要な機能である。

しかし最大の差別化要因は、coParenterがあなたのポケットの中に一種の調停者を置くやり方である。

アプリはお互いの会話を丁重なものに保つために、AI、機械学習、そして感情分析技術を使うことから始まる。この技術は、激しい会話がエスカレートすることを防ぐために、呪うような言葉、炎上を招くフレーズ、攻撃的な呼び名の利用に対して介入を行う。

もし会話が良くない方向に進む場合には、アプリは利用者(親)に対して、本当にその言葉を使いたいかどうかを問いかける警告メッセージをポップアップ表示する。そのことによって少し立ち止まり考える時間を与える(他のソーシャルメディアプラットフォームたちが、こんな機能を提供してくれてさえいれば!)。

もし両親がより多くの支援を必要とするときには、彼らは弁護士に連絡する代わりに、アプリを使うことを選ぶことができる。

同社はプロフェッショナルへのオンデマンドアクセスを、月ごと(月額12.99ドル、20クレジット。2回分の調停に十分な額)あるいは年ごと(年額119.99、240クレジット)のサブスクリプションで提供している。どちらの親も、年額199.99ドルでサブスクリプションを行うことができ、それぞれ240クレジットを受け取ることができる。

「これに比べますと、弁護士にたった一つの申し立てを依頼するだけでも、通常は平均250ドルから最高500ドルを支払う必要があります」とエルスワース氏は語る。

ここで相談できるプロフェッショナルたちは、調停者ではないが、それぞれの専門分野で資格を保有する人たちである。多くは家族法の弁護士、セラピスト、ソーシャルワーカー、または紛争解決の長い経歴を持つ退職した判事だ。エルスワースはプロフェッショナルたちが、親たちに適切なガイダンスを与えているかを監督する。

親とプロフェッショナルの間のやりとりはすべて機密扱いとされており、証拠扱いされるような発言として扱われることはない、なぜなら目標は法廷の外にとどまることだからだ。ただし、両親が最終的に法廷に紛争を持ち込んだ場合には、アプリのあらゆる場所に保存された履歴や文書を、法廷で使用することができる。

このアプリは1年近くベータ版として用いられてきたが、今年1月に正式に開始された。これまでに、coParenterは、すでに4000以上の紛争の解決を助け、2000人以上の共同養育親がスケジューリングのためにアプリを使用していると主張している。実際、もめている親たちの81%が、全ての課題を、プロの調停者や法律専門家の力を借りることなくアプリの中で解決していると同社は述べている。

CoParenterはiOSAndroidの両方で利用可能である。

[原文へ]

(翻訳:sako)

Galaxy S10カメラアプリに技術導入、スマホにAI/MLを持ち込むPolarr

ベイエリアの写真加工スタートアップであるPolarrは米国時間3月14日の朝、シリーズAで1150万ドル(約13億円)を調達したことを発表した。この投資ラウンドをリードしたのはThreshold Venturesで、Pear VenturesとCota Capitalが参加し、同社によるとこれで調達総額は1350万ドルになった。

現在同社のアプリは、iOSやAndroidの写真アプリとしてよく知られている。機械学習とAIを利用して高度な写真編集ができるのが特徴だ。同社によると、現在の月間アクティブユーザー数はおよそ400万とのこと。

今回得られた資金は主に、研究開発とエンジニアリング、およびパートナーシップに充当される。パートナーシップは目下、Polarrにとってビッグビジネスになり始めている。というか同社は、この資金調達の発表の機会に乗じて、同社の技術がサムスンのGalaxy S10が搭載するネイティブのカメラアプリに利用されていることを誇示している。ほかにもこれまで同社は、QualcommやOppoなどのハードウェア大手とチームを組んだ経験がある。

資金調達を発表する声明の中で、同社のCEO Borui Wang氏はこう述べている。「ディープラーニングの計算がクラウドからエッジデバイスへシフトすると、高度でクリエイティブなAI技術をモバイルデバイスに持ち込む機会が増える。今回の資金調達ラウンドは、誰もが美しい創造ができるように、その気と能力を人びとに与えるわれわれのアプローチが、明確な支持を得たことの証だ」。

スマートフォンのメーカーはハードウェアのほかに、その画像技術でも製品の差別化を図ろうとしているから、Polarrの技術がますます重要になりつつある。サムスン、アップル、グーグルなどの企業の最新世代のハンドセットで注目すべき傾向は、AIとMLの最新技術に大きく依存して、頭ひとつ先頭に立とうとしていることだ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

米議会に超党派で提出、顔認識技術の商業的利用を監視監督する法案

米国時間3月14日、米ハワイ州選出のBrian Schatz上院議員(民主党)とミズーリ州選出のRoy Blunt上院議員(共和党)が、顔認識技術の商用利用を監視監督する法律の法案を提出した。Commercial Facial Recognition Privacy Act(商用顔認識プライバシー法)と名付けられたその法律は、顔認識を使用している企業がそのことを消費者に知らせる義務と、企業がユーザーの同意なく顔認識データをサードパーティと自由に共有することに対する制限を定めている。

Blunt上院議員は法案についてこう説明している。「消費者は自分のデータがどのように集められ利用されているかについて、ますます心配している。それらのデータには、顔認識技術で集められたデータも含まれる。そのため、今後のこの技術の開発に対してガードレールを設け、責任ある実装が為されるようにしていく必要がある」。

マイクロソフトは、この超党派的法案を支持している。それは、顔認識技術に対する同社の規制方針にも合致している。マイクロソフトの社長Brad Smith氏は、December誌でこう述べている。「この技術を規制する法律の採択を政府が2019年に開始することが重要、とわれわれは考えている。今ならまだ、顔認識という霊鬼が瓶から飛び出したばかりの段階だ」。

The Hill誌の指摘によると、この法案にはマイクロソフトが前に言及していた警察による顔認識技術の使用に関する条項が含まれていない。例えば、特定個人の監視には裁判所命令を要するといった制限条項。代わりに法案が重視しているのは、顔認識技術の商業的利用がもたらすリスクだ。顔認識技術に対する法制は今年から、マイクロソフトの本社がある州では州レベルでも進んでいて、同社はそれを支持している。

Schatz上院議員は法案についてこう述べている。「顔は人間のアイデンティティであり、個人のものだ。だから顔を追跡したり分析しようとする企業には、事前に許可を求める責任がある。われわれの法案は、企業が顔認識技術を使ってデータをシェアするとき、人びとが事前に確実にその情報を知り、もっと重要なこととしては、そのやり方を人びとがコントロールできるようにするものだ」。

法案の去就はともかくとして、これを見るとこの技術に対する、議会による規制の基調のようなものが分かる。マイクロソフトの関与からもわかるように、顔認識技術に対しては一般社会からの関心も濃密だから、企業は法律ができる前に法案作成の段階から積極的に関わっていくべきではないか。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Apache Sparkの技術を応用するDetermined AIがAI開発を民主化

深層学習では、データサイエンティストは、かなり反復的なプロセスによってモデルを設計し、GPUを利用したシステム上でテストすることになる。そうすることで、はじめて機能するものを手にすることができる。それには、多大な費用と時間がかかる。適切なモデルを仕上げるのに数週間かかることもざらだ。新しいスタートアップDetermined AIは、そこにメスを入れ、そのプロセスをより速く、安く、そして効率的なものにしたいと考えている。そして今日、1100万ドルのシリーズAの資金を得て忽然と表舞台に姿を現した。

今回のラウンドは、GV(かつてのGoogle Ventures)が主導したもので、Amplify Partners、Haystack、さらにSV Angelの協力も取り付けている。同社はすでに2017年、260万ドルのシードラウンドがあったことも発表した。現在までにトータルで1360万ドルを調達したことになる。

Determined AIの共同創立者兼CEOであるEvan Sparks氏によれば、これまでは、Facebook、Google、Apple、Microsoftのような巨大企業だけが、自動運転や音声認識技術など、高度なAIを生み出すためのインフラとシステムを構築することができたのだという。「私たちの考えでは、そうしたことが可能な大きな理由は、それらの大企業はみな社内にソフトウェアのインフラを持っていることにあります。それによって、機械学習のエンジニアとデータサイエンティストのチームは効率的に仕事ができ、素早くアプリケーションを生み出すことができるのです」と、Sparks氏はTechCrunchに語った。

Determined AIのアイデアは、クラスタ計算機のリソース管理からワークフローの自動化まで、すべてを扱えるソフトウェアを作成すること。それにより、大企業と同様の技術を、あらゆる組織の手の届くところに引き寄せることができる。「私たちの使命は、そのソフトウェアを他のみんなのために開発することです」と彼は述べた。ターゲットとする市場は、Fortune 500や、Global 2000に含まれているような企業となる。

同社のソリューションは、カリフォルニア大学バークレー校のAmpLabでの、ここ数年間の研究成果に基づいている。同研究室は、ビッグデータを扱うクラスタ計算機のフレームワーク、Apache Sparkを開発したことでもよく知られている。その研究室で培った知識を使って、顧客のGPUリソースをより有効に活用できるようにするための高度なソリューションを開発したのだ。

「私たちが提供するは、スケジューリングとリソース共有のための一種の基礎レイヤーです。それによって、そうした非常に高価なリソースを扱います。その上に、ワークフローを自動化するための、いろいろなサービスのレイヤーを重ねるのです」と、Sparks氏は説明する。これまでにチームが達成した最先端の成果によれば、現在ほとんどの会社が使っているツールに比べて、5倍から50倍も高速化を実現できるという。

今のところ、このスタートアップは、顧客が現在利用可能な一般的な種類のソリューションから、よりカスタマイズされたアプローチに移行するのを支援しようとしている。そこでは、Determined AIのツールを使って、AIの生産プロセスをスピードアップすることができる。今日のラウンドから得た資金は、成長を促進させ、エンジニアを増強し、ソリューションを開発し続けることを可能にするはずだ。

画像クレジット:Getty Images

原文へ

(翻訳:Fumihiko Shibata)

思い立ったらすぐに活動開始、AIチャットボット「Pairsナビゲーター」が強力支援

恋愛・婚活マッチングサービスに興味はあっても、登録するのが面倒、どんな写真を投稿していいかわからないといったユーザーは多いはず。「Pairs」を運営するエウレカは3月13日、カラクリが提供するカスタマーサポート特化型AIチャットボット「KARAKURI」を「Pairsナビゲーター」として一部導入した。

エウレカによると、Pairsでは2018年2月にカスタマーケアを完全インハウス化。社内常駐のオペレーターが24時間365日、テキストや画像の投稿監視に加え、1日あたり約500件の機能や決済方法に関する問い合わせに対応しているとのこと。AIチャットボット「Pairsナビゲーター」の導入によって、1人あたりの課題解決時間を平均約30秒にすることを狙う。

Pairsナビゲーターのベースになっている「KARAKURI」は、東京大学大学院人工知能研究チームが開発した独自の深層学習アルゴリズムを活用することで、少ない教師データでAIの精度を向上させることを可能としたサービス。導入から運用までのプログラミングスキルが不要で、AIトレーニングを効率的に行えるのが特徴だ。

Pairsの累計会員数は2019年1月時点で1000万人超、年間約1.5倍ペースで成長を続けているという。同社としては、新規登録会員数の増加に伴う、機能などに関する問い合わせニーズに応えたいとしている。今後は、プロフィール作成やデート支援などの機能も追加していくそうだ。

Googleの新音声認識はオフライン化されて高速に、Pixelで利用可能

音声認識は最近のスマートフォンの標準的機能だ。人工知能を利用した分析は驚くほど正確なこともあればひどい混乱に陥ることもある。しかし最大の問題は、Siri、Alexa、Googleアシスタントなどが返事を返してくるのが遅れることだ。Googleの最新の音声認識は完全にオフラインで動作するため遅延を完全に排除できる。ただし認識失敗はやはりときおり起きる。

遅延がなぜ起きるのかといえば、ユーザーの音声データはローカルデバイスからネットワークを通じてはるばる音声認識エンジンが存在するサーバーまで旅しなければならないからだ。データはそこで分析されてからユーザーに戻される。当然ながらこれには時間がかかる。応答を待つ時間はミリ秒単位ですむ場合もある。しかしまるまる数秒かかることあり、そうなればユーザーは苛立たしい思いをする。最悪の場合、経路の途中でデータの一部が行方不明になり、まるきり応答が返ってこないこともある。

それなら音声認識をローカルデバイス上で実行すればいいではないか?プロバイダーもそれが理想的な解決法だと考えている。しかし音声をミリ秒単位でテキストデータに変換する処理は膨大なコンピューティングパワーを食う。つまりマイクが拾うのは単なる「音」であって「発話」ではない。音声をテキスト化するためには言語と発話が行われたコンテキストに関する膨大な情報が必要だ。

もちろんローカルデバイス上で実行することはできる。しかしユーザーのデバイスの限られたリソースを考えるとクラウドに往復させるより速くはならなかった(しかもデバイスのバッテリーをひどく食う)。だがこれは急速に進歩を続けている分野であり、Googleはそれを可能にした。ただしPixelを持っている必要がある。

Googleの最新のテクノロジーについてはこちらの論文が詳しいが、簡単に要約すれば、Googleはこれまでの音声認識で蓄積された経験を生かして音声分析システムをスマートフォンで高速に作動するくらいいにコンパクト(正確には80MB)にまとめることに成功した。これによりユーザーはほとんd遅延を感じずに発話をテキスト化できるようになった。「their」と「there」などの同音異義表現も新しいシステムは発話終了を待たず、その場で判断できるという。

ただしテクノロジーには今のところ大きな制限がある。まずGoogleのPixelスマートフォン上のGboardアプリでしか作動しない。またサポートする言語は米英語に限られる。つまり実機によるベータテストに近い。Googleでは世界の各言語へのローカライゼーションの必要性を強調して次のように述べている。

ハードウェアコンポーネントの標準化とアルゴリズムの進歩という業界のトレンドを考えれば われわれが実現したテクノロジーが広く採用され、多くの言語、アプリが近くサポートされるようになるものと期待している。

しかし考えてみるとGoogleの他のアプリは大部分クラウド接続を必要とする。できた文書を共有したりメールで送信したりするのはもちろん、摂氏温度を華氏温度に換算するのでさえネットワーク接続が必要だ。接続状態が貧弱な場合オンラインでは音声認識が不可能な場合がある。またオフラインであればデータ伝送量を食わないですむ。こうした点は大進歩だ。

画像:Bryce Durbin/TechCrunch

原文へ

(翻訳:滑川海彦@Facebook Google+

史上最年少の女性下院議員が主張「労働者はオートメーションを恐れるな」

オートメーションへの地殻変動的な移行を、失職について語らずに議論することは不可能だ。テクノロジーに反対する人びとは、「熟練技能を必要としない」職業分野で大規模な失業が起きることをおそれて批判する。一方テクノロジー肯定派の人たちは、その種の記事は大げさになりがちだと言う。でも労働力のシフトは、太古の昔からそうであったように今も起きている。

しかし今週行われたSXSWで、ニューヨーク州出身の女性下院議員アレクサンドリア・オカシオ=コルテス(Alexandria Ocasio-Cortez)氏は、まったく違う見解を述べた。

The Vergeによると、彼女はある質問への答でこう述べている。「自動化で仕事を失うという妖怪を怖がるべきではない。自動化は、むしろ喜ぶべきだ。でも、それを喜べないのは、私たちが、仕事がなければ死ぬという社会に生きているからだ。そして、そのことの中核にあるものこそが、私たちの本当の問題だ」。

聴衆からの質問に対するこの答は、オートメーションに関するこれまでのさまざまな会話の中で、あまり聞かれない見方だ。いちばん多いのは、業界を代弁するような人びとが、テクノロジーがこれまでの「退屈で汚くて危険な」仕事を置換すると主張する説。多くのロボット賛美派が言うには、それらは本当は誰もがやりたがらない汚れ仕事だ。

【ウィリアム・ギブスン「これは政治家が言う言葉としては衝撃的に知的だ」】

一方オカシオ=コルテス氏の答は、彼女の民主社会主義者としての見解を述べている。それは、正しく実装されたテクノロジーは労働者を資本家のシステムから解放できる、今は労働者が、自分の存在と生計をそのシステムに冷酷に縛り付けられている、と見る議論だ。

この新人女性議員は、オートメーションが社会にもたらす利益を指摘して、自分の立場を明らかにしようとする。

The Vergeの引用によると、オカシオ=コルテス氏の発言はこうだ。「オートメーションに関して、私たちは喜ぶべきだ。それによって、可能性としては、自分自身を教育する時間が増えるし、アートを創る時間や、科学にお金をかけて研究する時間、発明に集中する時間、宇宙に行く時間、自分たちが今住んでる世界をエンジョイする時間も増える。必ずしもすべての創造性が賃金に結びついていなくてもよいのだから」。

オカシオ=コルテス氏は、ビル・ゲイツ氏がQuartz誌のインタビューで語っていることを引用して、このビジョンを実現するためにはロボットに課税することもひとつの方法だ、と言う。彼女はこう言ったそうだ。「ゲイツ氏が本当に言ったのは企業に課税することだけど、『ロボットに課税する』のほうが言いやすいから」。

オートメーションに関する質問への彼女の答は、未来に関してとりわけ楽観的な一部のライターたちの喝采を浴びた。

小説家のウィリアム・ギブスンは、「これは政治家が言う言葉としては衝撃的なほど知的だ」とツイートした。それは少なくとも、今や陳腐化している話題への新鮮な観点であり、われわれ全員が共有するテクノロジーの未来をめぐる重要な会話に、生命(いのち)を吹き込むものだ。

オートメーションが向こう数十年で雇用に大きな影響をもたらすことは、疑問の余地がない。倉庫などの業種では、その多くをすでに目にしてきた。この主題に関するすべての研究が認めているのは「破壊される」雇用の数は数千万以上だが、新たに“創られる”数はその膨大な数の小部分にすぎないことだ。

でも、この女性下院議員のコメントはそれらの具体的な数とは関係なく、たぶん我々がこれまでずっと間違った問いを尋ねていたのではないかということを示唆している。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

アメリカでは成人の1/4以上がスマートスピーカーを所有、日本では?

スマートスピーカーやAIに特化したメディアのVoicebotは3月7日、「Voicebot Smart Speaker Consumer Adoption Report Jan 2019」と題された、アメリカにおけるスマートスピーカーの普及率などに関する調査の結果をリリースした。

VoicebotとVoicifyが共同で行なった同調査によると、アメリカの成人6640万人ほどがスマートスピーカーを所有している。成人における普及率は同国の成人人口の1/4強に値する26.2パーセントまで成長し、所有者数は前年同時期に発表された前回調査と比較すると約40パーセント増加した。

アマゾンとグーグルのシェア争い

そしてこの調査によるとアマゾンが市場をリードしていることは鮮明だ。アマゾンの「Amazon Echo」のシェアは61.1%、 グーグルの「Google Home」は23.9%となっている。だが昨年の調査結果ではアマゾン71.9%に対しグーグルは18.4%。グーグルが徐々に差を縮めてきているのがわかる。

アップルの「HomePod」や「Sonos One」を含む「その他」のブランドに関しても9.7%から15%に伸びたが、Sonos OneはAlexa搭載だ。

同調査はアメリカの成人1038人を対象に2019年1月に行われた。

なおStrategy Analyticsが2018年10月に発表したレポートによると、アメリカで使われているスマートスピーカーのブランド別シェアは、アマゾン63%、グーグル17%、アップル4%。その他の同類の調査においても、やはりアマゾンのブランド別シェアの高さが目立つ。

スマートスピーカーの普及率、日本では?

電通デジタルが2月に発表した調査によると、スマートスピーカーの認知率は約76%だが、普及率は約6%に止まっている。「スマートスピーカーの所有状況」はGoogle Homeが2.9%、Amazon Echoは2.4%、そして94.1%は所有していなかった。

所有者の約4割が「音楽スピーカーの代わりになる」ことをスマートスピーカーの購入理由として挙げており、実際に74.5%以上の所有者が音楽聴取のために利用している。あとは天気予報を聞いたり、アラームをセットしたり、といった使い方が多い。

電通デジタルは「音楽以外のさらなる機能の拡張や、サードパーティー・アプリケーションの拡大が普及のカギとなる」「サードパーティー・アプリケーションの利用者は一部を除きまだ多くはないが、利用している場合はエンゲージメント形成に役立っていることが伺える」と説明している。

同インターネット調査は2018年12月、全国の15から69歳の男女1万人を対象に実施された。

MMD研究所が2018年10月に発表した「スマートホーム関連製品に関する調査」においても、スマートスピーカーの利用経験者が4.2%と低いのが目立つ。利用したことがある製品の順は、AmazonEchoがトップで56.3%、Google Homeが47.2%、LINE Clovaが14.1%だった。

この調査は15歳から69歳の男女5000人を対象に、2018年7月31日から8月1日の期間、インターネット上で行われた。

クラウドサービスのScalewayがGPUインスタンスを1時間1ユーロで提供

フランスのクラウド・ホスティング会社Scalewayは、Nvidia Tesla P100 GPUを使用した新しいインスタンスを公開した。同社はシンプルな価格体系を採用し、料金は1時間あたり1ユーロとした。

今や多くの会社がGPUインスタンスを使って機械学習ベースのアプリやサービスのモデルを訓練している。こうしたインスタンスを活用して3Dモデルを作ったり、その他のGPU主導タスクを実行している会社もある。高価なGPUを山ほど買わなくても、気に入ったクラウドホスティング会社でGPUをオンデマンドで使うことができる。終わったらそのインスタンスを閉じる。

ScalewayのRENDER-SインスタンスはNvidia Tesla P100に16 GBのHBM2メモリーを付けて使っている。RAM 45 GBと400 GBのストレージ(ローカルNVMe SSDなのでビデオ処理は超高速のはず)を備え10コアのIntel Xeon Gold 6148をAVX-512命令セットで使用している。ある程度長い期間使う予定があれば、料金は1時間1ユーロまたは月間500ユーロ(567ドル)のどちらか安い方になる。

Google Cloudでは、Nvidia P100のオンデマンド・インスタンスを1時間あたりアジア・ヨーロッパでは1.60ドル、米国では1.46ドルで使える。MicrosoftもP100 GPUのクラウド・インスタンスを1時間2.07ドルで提供している。Scalewayは、これらのサービスを主なライバルと見ているのだろう。

AmazonものAmazon Web ServiceにもGPUインスタンスがある。Nvidia Tesla V100というもっと強力な GPUを使うインスタンスもある。価格も高く1時間当たり3ドルだ(価格はデータセンターによって異なる)。古いGPUを使うAWSインスタンスもあるが、性能は落ちる。

OVHもTesla V100 GPUを使った インスタンスを1時間当たり2.30ユーロ(2.61ドル)で提供している。DigitalOceanとLinodeではGPUインスタンスを見つけることができなかった。

おそらく殆どの人にとってGPUインスタンスは必要ない。しかし、次のクラウドプロバイダーを探している会社にとっては、重要な要素になりうる。支払先を一箇所にまとめたければ、幅広いオプションのある会社を選ぶ必要がある。

[原文へ]

(翻訳:Nob Takahashi / facebook

Brodmann17がローエンドCPUにも対応する自律コンピュータービジョン技術で1100万ドルの投資を獲得

自律走行車両と運転支援技術にとって、高効率なコンピュータービジョン・システムは決定的な意味をもつ要素だが、高価でかさばるハードウエアに依存しないコンピュータービジョン技術を提供する方法(ローエンドのCPUでも利用可能な深層学習ソフトウエア)を開発したあるスタートアップが投資ラウンドを確保し、今年末のサービス開始に向けてギアをシフトアップした。

Brodmann17(ヒトの脳の一次視覚野があるブロードマン領野に由来する)は、OurCrowdが主導するシリーズA投資として1100万ドル(約12億3000万円)を調達した。これには、Maniv Mobility、AI Alliance、UL Ventures、Samsung NEXT、Sony Innovation Fundが参加している。

Brodmann17の高速演算を実現する最先端技術は、物、道路、広範な景観を目で見て対処する人工知能を用いた車載機能全般に利用できるようデザインされている。これは、IntelのMobileye、Boschなど他のOEMが開発したサービス、BMWなどの一部の自動車メーカーと競合するものだ。

自動車は、以前にも増してハードウエアとして認識されるようになった。そのため、上記の企業だけでなく自律運転業界すべての企業は、技術界が経験したことのない巨大な課題に取り組んでいる。自律走行システムは高価であるばかりでなく、大量のエネルギーを消費し、自動車の大きな空間を占拠するため、どの企業も、この問題のひとつでも、できればすべてを解決できる道を探っている。さらに、現在のところ、多くの解決策はクラウドで演算を行うため、数テラバイトものバンド幅を消費し、運転シナリオに許容限度を超える遅延を発生させてしまう。

Brodmann17の宣伝文句によれば、その中核製品は、「軽量」にデザインされた、深層学習をベースとするコンピュータービジョン技術だという。ソフトウエアを基本とするソリューションであるため、小型の、ローエンドの車載プロセッサーでも利用でき、システムにどのようなLidar、カメラ、レーダーが実装されていても、完全に対応できるという(ただ、ローエンドのCPUで使えるとは言え、高速なCPUの場合とは比べものにならない)。

高速化の成績。Brodmann17のFPS。

計画では、Brodmann17の技術は、完全な自律走行を支援するものとして展開されることになっているが、自律走行車両が実用化するのはまだ何年も先の話だ。CEOのAdi Pinhas(深層学習とコンピュータービジョンの専門家であり、Ami​​r AlushとAssaf Mushinskyという2人のAI科学者と同社を共同創設した)は、最初の商業展開は、先進運転支援システム(ADAS)の形で行われるだろうと話している。これは現在、人が運転する自動車の前後のカメラで静止体と物体をより正確に認識できるよう、グローバルな大手自動車メーカーが取り入れようとしている技術だ。

だが、これは決して小さな魚ではない。ADASは、すでに多くの新型車で重要な装備となっているばかりか、その普及率と機能性は今後も成長を続ける。サードパティーから、まるごと、または一部が納入されることが多いADASシステムだが、2017年の時点で市場規模は200億ドル(約22兆3300万円)。2025年には920億ドル(約102兆7340億円)に達すると予測されている。

私は、その本社が置かれているテルアビブで、Brodmann17の創設メンバーと初めて会った。あれは2年前、その街で運営されているサムスンNEXTインキュベーターの片隅で、たった4人で活動していたときだ。彼らは、小さなプロセッサーに収まり、一般的な運転シナリオで遭遇する大小の物体のかすかな雰囲気の違いを大量に特定できる技術の最初のバージョンを見せてくれた。

それが今では、70名のスタッフを抱えるまでに成長した。そのほとんどが技術者で、独自技術の開発にあたっている。しかし、初期の開発ステージから一段上がるために、さらに社員を増やしてゆくという。

Pinhasは、ここ2年ほどの間に、技術界と大きな自動車産業が、自律運転車両のコンセプトに迫る方法に面白い変化が見られたと話している。

一方では、みんなが自律運転に関して可能なことを出し合っている。それは新しい試作車を作ってテストするというロードマップを加速させる明らかな助けになっている。もう一方では、そうした研究が増すことで、完全なシステムが出来上がるまでに、この先どれほどの研究開発が必要になるか、自律運転には今後どのような未知の要素が現れるのかという、現実的な見方ができるようになったという。

「今は、市場が一歩後退したかのように私には見えます。自律運転システムの開発を加速したいと誰もが望んでいますが、同時に、今年のCESで気がついたのですが、レベル5の話をする人が一人もいなかったのです」とPinhasは言う。レベル5とは、自律運転サービスにおける自律度の最高レベルのことだ。CESは、1月に開かれる大規模な技術系見本市で、次世代の輝かしい新サービスが初めて披露される場所でもある。「現状では、レベル4の開発に取り組みつつ、考えることが最適だと感じています。みんなでよく考えて、ロボットタクシーが、高度に洗練されたシナリオでどのように走らせることができるのかを確かめるのです」

そこに、Brodmann17はADASを入れ込む考えだ。それにより、現在実用化されているサービスに力を与える。そしてそのコンセプトを提示しつつ、将来の開発とサービスの足場を固める。

もうひとつ、Pinhasが指摘した面白い進展がある。これまでデータを演算し理解するためには、データのトレーニング量が重要だと考えられていたが、より賢いニューラルネットワークの開発に重点がシフトしているという。「これまでは『誰がいちばんたくさんデータを持っているか』でしたが、今はみんなが持っています」と彼は言う。「今は、トレーニングのためのアルゴリズムが重視されます。専門家たちは、(人間のように「思考する」ようデザインされた)ニューラルネットワークがすべてを解決すると、ずっと考えてきました。しかし今はまだ、そのネットワークのトレーニング方法を解明することが鍵となっている段階です。単にそこへデータを投げ込むだけでは解決しません」。まさにそこは、Brodmann17が長い間フォーカスしてきた分野であり、「他の企業も始めようとしている」ものだ。

Pinhasは、今日の自動車用コンピュータービジョン市場でもっとも進歩しているのはMobileyeだと認めている。とは言え、まだまだ世の中は進化の初期段階であるため、たくさんのイノベーションが誕生する余地があり、スタートアップにも大企業にも、インパクトを与えられる機会が十分にある。それこそ、投資家たちがBrodmann17に興味を抱く理由だ。そしてそれが、このスタートアップが次の段階に必要な資本を得るために、すでに次の投資ラウンドに向けて動き出している理由でもある。

「私たちは、Brodmann17が現在最高水準の深層学習AI企業であると確信しました。この会社には、非常に経験豊富な経営チームがあり、AIアルゴリズムの基礎に大きな飛躍をもたらした、卓越した技術の先進性があります」と話すのは、OurCrowdの共同経営者Eli Nirだ。「Brodmann17の技術は、AIの低計算量実装への扉を開きました。コストと複雑性と価格を大幅に低減し、数多くの分野、業界での利用が可能になります。私たちは、このラウンドを主導でき、この会社の未来の成功に貢献できることを大変に嬉しく思っています」

[原文へ]
(翻訳:金井哲夫)

Alexaの新機能Song IDは次の曲のタイトルを案内する

Amazonは今日、ユーザーが好きな曲についてより知ることができるようにするための「Song ID」というAlexaを使った新機能を導入する。この機能をオンにすると、スマートスピーカーを使ってラジオやプレイリスト、Amazon Musicでリリースされた曲を聴いている時、曲がかかる前にAlexaがその曲のタイトルとアーティスト名を教えてくれる。

Echoデバイス向けのこのオプション機能は、Alexaに「Song IDをオンにして」「Song IDをオフにして」と言うことでいつでも音声でコントロールできる。

モバイルやデスクトップアプリで音楽を聴いているときは、アーティストの名前や曲のタイトルをストリーミングアプリでさっとチェックするのは簡単だ。しかしスマートスピーカー越しにストリーミングの音楽を聴いているときはそうもいかない。デバイスはどこか離れたところに置かれ、すぐにアクセスできない。そして従来のラジオと異なり、Amazon Echoから流れる音楽には、次に何が流れるかDJの言葉はない。

新機能は、パーソナリティには程遠いにしてもAlexaをDJにするのが目的だ。ただし今は曲のタイトルとアーティスト名を言うだけで、その音楽についての他の情報やコメントをはさむということはしない(しかしながら、そうした機能をAmazonが加えるというのは、将来におけるSong IDの興味深い拡張になる。そうなった場合、曲について掘り下げた情報を提供するSpotifyのGenius を活用した“Behind the Lyrics”機能によく似たAlexaベースのサービスとなる)。

Amazonによると、Song ID機能は音楽に関してユーザーからAlexaに寄せられたリクエストを参考にして構築された。

毎日多くのユーザーが流れている曲についてアシスタントに「Alexa、これ何ていう曲?」「Alexa、この曲誰が歌ってる?」などと何十万回も尋ねてきたのだ。

Amazonはまた、Amazon Musicの2019年チェックすべきアーティストプレイリストや、注目を集めつつあるアーティストを特集したWeekly Oneプログラムのような、あなたがタイトルやアーティスト名を知らない新しい曲をチェックするときにSong IDは役に立つかもしれない、と述べている。

Song IDは米国のAmazon Musicで今日からEchoデバイスで使える。

原文へ、翻訳:Mizoguchi)

ウォルマート傘下のサムズ・クラブがバーコードの代わりにコンピュータービジョンで商品スキャン

昨年10月、Walmart(ウォルマート)傘下のSam’s Club(サムズ・クラブ)がダラスにテスト店舗を設置し、モバイルチェックアウト、Amazon GOライクのカメラシステム、店内ナビゲーション、電子商品棚ラベルなどの新技術の試行を開始した。米国時間3月4日、同社は改訂されたScan & Go サービスのテストを開始したことを発表した。コンピュータービジョンと機械学習を活用して商品のスキャンを簡単、迅速にする。

現在のScan & Goシステムは2年前に導入され、Sam’s Clubの買い物客は購入する商品のバーコードを探して専用モバイルアプリでスキャンする。ショッピングカートに入れるときに商品をスキャンしてアプリで支払うので、レジの行列に並ぶ必要がない。

便利ではあるが、バーコードを探さなくてはならないため、商品を裏返してシールを探すなど苛立つことがある。重い商品ではとくに困難で、ラベルが剥がれてしまっていることもある。

また、スキャン自体に数秒かかるため、まとめ買いするときなど累積する時間はバカにならない。

新しいスキャン技術はバーコードの代わりにコンピュータービジョンと機械学習を利用して商品を識別する。これでスキャンに要する時間が短縮されると会社は言っている。

ビデオデモの中でSam’s Clubは、飲料水のパッケージをスキャンするのに、旧システムだと9.3秒かかるのに対して最新技術を利用すると3.4秒しかかからないことを見せている。

もちろん、かかる時間は客のスキルやスキャンする商品、システムの動作条件などさまざまな要因によって変わる。大きな水のボトルはかなり極端な例だが、システムがうまく働いたときの可能性を表してはいる。

ダラスに新規開店したテスト店舗の目的は、新技術を実世界環境で早期にテストして何がうまくいくかを知ることに加えて、利用者のフィードバックを集めることにある。ダラスが選ばれたのは、IT人材が豊富で採用の可能性があることのほか、アーカンソー州ベントンビルのWalmart本社から近いことも理由のひとつだと以前同社は言っていた

Sam’s Clubはこの新しいスキャン技術に関連する特許を申請したこと、および今春からダラス地域の 「Sam’s Club Now」でテストを開始することを話した。

[原文へ]

(翻訳:Nob Takahashi / facebook

コアラを感知するドローンが絶滅危惧動物の個体数推移の調査に貢献

コアラの個体数を常時調べることはオーストラリアの人たちにとって当然のように重要だが、いつも森の中の木の上にいる連中をどうやって数えるのか? ドローンとAIを使うのだ、もちろん。

クイーンズランド工科大学(Queensland University of Technology、QUT)の新しいプロジェクトは、前からよく知られているいくつかのテクニックを新しいやり方で組み合わせて、あの有名なふわふわ有袋類の野生状態の個体数を調べる。まず、ドローンに赤外線画像で熱を感知するビデオカメラを乗せる。そして撮影した映像を、コアラのような熱痕跡を見つけるよう訓練されたディープラーニングのモデルに見せる。

QUTは前にも、これと似たやり方で、絶滅危惧種の海牛ジュゴンの個体数を、海岸の航空写真と機械学習で調べたことがある。しかし今回は、それよりずっと難しい。

この研究のペーパーの共著者Grant Hamilton博士が、ニューズリリースで言っている。「ビーチにいるアザラシと木の上にいるコアラでは、違いがとても大きい」。ジュゴンという言葉を避けたのは、知ってる人が少ないからだ。

博士は曰く、「木の上や森の中という複雑性も、今回の研究課題のひとつだった。難しいから、おもしろい。ドローンを飛ばして動物の数を数える、という単純な仕事ではなく、ものすごく複雑な環境で、それをやらなければならなかったのだ」。

チームはドローンを早朝に飛ばして、外気の寒いところと、木の中の、コアラの体温で温かいところとの明瞭なコントラストの撮像を求めた。ドローンは、木の上辺を刈る芝刈り機のような航路で飛行した。そうして、広い範囲のデータを集めた。

赤外線画像(左)と関心領域を高輝度にするニューラルネットワークの出力

その映像を訓練済みのディープラーニングシステムに通すと、コアラの体温で温かくなっているところのサイズや密度を認識し、車やカンガルーなどそのほかの物は無視した。

初期のテストでは、システムの精度をコアラの推測位置や実測による地上データと比較した。そのために調べる参照動物には、GPS装置や電波発信タグをつけた。その結果、この機械学習によるコアラ検知システムは約86%の精度であることがわかり、「コアラを見つける名人たち」の70%という精度を上回った。精度だけでなく仕事も早い。

博士曰く、「人間が1日かけて調べる範囲を、2時間で調べる」。しかし人間のコアラ発見名人や地上チームをリプレースするわけではない。「人が行けない場所もあるし、逆に、ドローンを飛ばせない場所もある。人力とドローンが互いに補完できる最良の方法を、見つける必要がある。コアラは広範囲にわたって絶滅に瀕しているし、そのほかの多くの種もそうだ。彼らを救う魔法のような特効薬はない」。

クイーンズランドの1つの地区でテストしたら、今度はオーストラリア東海岸部の他の地域で試す予定だ。今後は、コアラ以外の危惧種動物の個体数調査に使える、温度のヒートマップ以外の別の識別子も加える計画である。

彼らのペーパーは、今日発行されたNature Scientific Reportsに載っている。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

米国で求人の多いプログラミングの仕事と言語、ブロックチェーンとGo言語

プログラマーとして高給で需要の多い仕事を探している人、手を上げて。求職求人サービスHired調査によると、今ならブロックチェーンのアプリケーションの書き方を勉強すべきだそうだ。

Hiredに登録している10万名近くのデベロッパー対して、今最も需要の高い仕事や、求人の最も多いプログラミング言語、そしてロンドンやニューヨーク、パリ、そしてサンフランシスコなど大都市のテクノロジー求人市場における、平均給与のもっとも高いキャリアを調べた。

そして同社によると、その結果はあなたにとって意外かもしれない。

いや、むしろ意外ではないかもしれない。Hiredのデータによると、業界全体として今はブロックチェーンのエンジニアとセキュリティのエンジニアの需要がもっとも増えている。ブロックチェーンの経験のあるプログラマーの求人は、2018年になんと前年比で517%も増えた(ほぼ6倍)。セキュリティエンジニアの求人は同じ期間に132%増えている(ほぼ2.3倍)。

すべての国や地域で、最も高給の職種はセキュリティエンジニア、検索エンジニア、ブロックチェーンエンジニア、自然言語処理エンジニア、機械学習エンジニア、そしてゲーミングエンジニアの計6種だ。

下図は、サンフランシスコの例だ。

これらのデータについて、HiredのMehul Patel CEOがブログにこう書いている。「ニューヨークとサンフランシスコとトロントでは、ブロックチェーンエンジニアが高給のトップスリーに入っている。今の主なテクノロジーハブ都市におけるソフトウェアエンジニアの給与をよく見ると、必要とされている人材は都市によってかなり異なる。たとえばゲーミングエンジニアはニューヨークでは給与が最高だが、自然言語処理エンジニアの給与はトロントで急騰している」。

しかしこの調査によると、ブロックチェーンのスキルはデベロッパーたちの心を今一番多く占めているスキルではない。「いちばん勉強したいのはブロックチェーンの技術」と答えたデベロッパーは全体の12%にすぎない。なお、いちいち断らないが、これらの数字はすべて、今回のHiredの調査の結果である。

このような、実態と需要の乖離は、需要のもっとも多いプログラミング言語と、最も多くのデベロッパーがプログラミング経験のある言語との違いにも、表れている。

すなわち、最も需要が多いのはGo言語を知っている求職者だ。しかし、今実際に主にGo言語で仕事をしているデベロッパーは7%にすぎない。

Goに次いで求人側で高く評価されているScala、Ruby、Typescript、そしてKotlin(下図)も、デベロッパーのコミュニティでは普及率が低い。Goは全世界的に、求人側が最も関心を示している言語だが、サンフランシスコとトロントではTypescriptの経験者の需要が多い。

画像クレジット: maciek905

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

アスリートの怪我リスクを予測するZone7、シード資金250万ドルを調達

データ分析によってアスリートの怪我の可能性を予測するZone7が、250万ドル(約2億7700万円)のシード資金を調達した。

この会社はスポーツ選手の実績をモニターすることで、選手生命を脅かす怪我を避けるために休養が必要かどうかを判定する。

同社のテクノロジーは投資家の関心を引くことに成功し、Resolute VenturesUpWestAmicus CapitalDave PellPLG Venturesらに加え、NBAのスター選手、Kristaps Porzingisも出資している。

声明によると、MLB、ラ・リーガ、チャンピオンズリーグ、MLSのチームや大学の運動部、各国のオリンピックチームなどが同社の技術を利用している。

「怪我はどのアスリートにとっても最悪の経験の一つだ」とPorzingis選手が声明で語った。「Zone7のテクノロジーは実に画期的でスポーツ界の景観を永遠に変える可能性をもっている」

Zone7はアスリートの過去の実績と医療記録に基づくパターン認識を用いて、怪我をしないために最適な行動を決定する。同社は、これまでに95%の精度で怪我を予測し、怪我の可能性が75%減少したと声明に書いている。

「プロスポーツ選手の負傷は年間数十億ドルの損害に相当するが、このビッグデータの時代にそれで良いはずはない」とZone7の共同ファウンダー・CEO Tal Brownは言う。「プロスポーツ団体には医療や実績に関する使われていないデータが膨大にあり、AIで鍵をあければチームにとって最も価値ある資産に変えられる。全選手の限界点を認識し、個別の治療介入計画を立てることによって、怪我を未然に防ぐことが可能になり、チームは怪我を不可避のものとして受け入れる必要がなくなる」

二人のイスラエル人ファウンダー、Tal BrownとEyal Eliakimは、軍の8200と呼ばれる技術部門に従事していた。Zone7の経営チームはSalesforceとEinsteinの開発で長年にわたる共同作業の経験を持ち、イスラエルのプロサッカーチームとも仕事をした。

「プロスポーツは大部分において医療や実績のデータ利用が遅れている。このため歴史的にも、参入の難しい市場だった。TalとEyalは説得力のある製品を作ることによって、チームに認識を改めさせた。これは文字通りのゲームチェンジャーだ」とResolute Venturesのゼネラル・パートナー、Raanan Bar-Cohenが声明で語った。「Zone7が人工知能を使って怪我を避けられることを示した最初の会社であるという事実は、この会社とパートナーを組むわれわれにとって実に誇らしい」

[原文へ]

(翻訳:Nob Takahashi / facebook