3Dプリンターで作る自動運転シャトルバス「Olli 2.0」が都会のモビリティを変革する

遠くから見る限り、Olli(オリー)も、ここ数年よく見かけるようになった、未来を先取りしたような電動の自動運転シャトルと区別が付きにくい。

背の高い長方形のポッドのような本体に、間隔を思い切り空けて取り付けられたヘッドライト、丸みを帯びたフレームにはめ込まれた開放的な窓。「こっちにおいでよ、乗ってみてよ」と、親しみやすい顔つきで、優しく声をかけられているような気がしてくる。

しかしOlliは、製造方法や、誕生にまつわる話を含めて、普通とはまるっきり違っている。そして今回、メーカーのLocal Motors(ローカル・モータース)は、Olliにアップグレードを施した。それによって、この自動運転シャトルの採用が加速されることを期待している。

Local Motorsの共同創立者兼CEO、John B. Rogers Jr(ジョン・B・ロジャーズ・ジュニア)氏によると、この3Dプリンターによって製造される電動自動運転シャトル、Olli 2.0は、今後急速に普及する見込みだという。

「未来はここにあります。まだ均等に分配されていないだけです」と、ロジャーズ氏は、最近のインタビューで述べている。「私は、よくそう言っています。多くの人が私に『ねえ、この車、いつから走り出すの? 2023年? どうなの?』と聞くのです。私の答えは、今すぐにでも、というものです。まだどこにでもあるわけではない、というだけなのです」。

ロジャーズ氏の未来のビジョンを信じるかどうかは、人それぞれだ。しかし彼によれば、すでにOlli 1.0が説得力のある大使のような役割を果たしてきたのだという。

Olli 1.0は、2016年にメリーランド州のNational Harbor(ナショナル・ハーバー)で発表され、デビューした。ワシントンDCからわずか数マイル南にある、多目的の開発都市だ。それから2年、OlliはオートモビリティLAなどのイベントに登場し、TechCrunchを含むさまざまなメディアにも取り上げられてきた。なんと、あのJames Cordon(ジェームズ・コーデン)でさえ乗ったことがあるという。

Local Motors自体は2007年に設立された。その製品、Olli 1.0シャトルとともに、新興の自動運転車業界では、よく知られた存在だ。しかし、これまでは、Argo AI、Cruise、Uber、Waymoといった、市街地を走るロボタクシーの実現を目指す大きな会社の影に隠れることが多かった。

Olliは、そもそも、病院、軍の基地、大学のキャンパスなど、低速で走行する環境向けに設計されている。

「ニューヨーク市の街中を自動運転車が常に走り回っているというような状況が、すぐに実現するわけではありません」と、ロジャーズ氏は言う。それに対してキャンパスは、今すぐに自動運転車を配備したいと考えているLoal Motorsのような会社にとって、スイートスポットなのだ。キャンパスにはモビリティが必要であり、人々はOlliのような、ロジャーズ氏に言わせれば「親しみやすいロボット」を身近なものと感じ、仲良くすることができる、という。

Olli 2.0

OlliとOlli 2.0は、紛れもない兄弟だ。両方とも低速で走行するものであり、最高速度は同じ25mps(約40km/h)。車体の形状もほとんど同じだ。また、いずれもLocal Motorsの衝突試験に合格し、SAE(米自動車技術者協会)の規定によるレベル4の自動運転機能が搭載されている。これはこの車が、さまざまな条件下で、人間の介入なしに、運転のあらゆる操作を実行できることを意味している。

Olli 2.0では、航続距離がかなり伸びていて、スペックシートによると、1回の充電で最大100マイル(約160km)走行できる。Olli 2.0の製造プロセスも進化し、全体の80%が3Dプリンターで製作できるようになった。またOlliが車軸ホイールモーターを搭載しているのに対し、2.0はハブモーターとなっている。さらにOlli 2.0では、座席も2つ増加し、室内の照明もプログラム可能なものになった。

しかし、Olli 2.0が本当に際立っているのは、改善されたユーザーインターフェースと、特定のニーズに合わせてシャトルをカスタマイズすることを検討している顧客向けの選択肢が増えたこと。ロジャーズ氏は、「適切な相手と組めば、彼らが求めるものを、ほとんど何でも作ることができます」という。

Olli 2.0の外側には、前部と後部に、歩行者を意識した拡声装置とディスプレイが装備されている。前部のディスプレイには「目」を表示して、Olli 2.0を擬人化し、より親しみやすいものに見せることができる。

シャトルの室内では、乗客は高音質のスピーカーとマイク、タッチスクリーンを利用できる。Local MotorsはAPIを公開しているので、ユーザーインターフェースの可能性は無限に拡がる。たとえばLGは、5Gを利用して、Olliのメディアコンテンツをカスタマイズしているという。ただロジャーズ氏によれば、今はまだ詳細を明らかにできないそうだ。

顧客の希望があれば、ARやVRを追加することも可能だ。また、さまざまなニーズに合わせて内装を変更することもできる。たとえば病院では、座席を減らしてスペースを確保し、患者をベッドに乗せたまま運びたいという要求もあるだろう。このようなカスタマイズにより、Local Motorsは他の自動運転シャトルのメーカーよりも優位に立つことが可能になると、ロジャーズ氏は考えている。

Olli 2.0では人とのコミュニケーション方法も進歩している。

Olli 1.0では、IBMのAIプラットフォームであるIBM Watsonを利用して、言語の発声と聞き取りを実現していた。Olli 2.0では、選択肢が増えている。自然言語の処理には、AmazonのディープラーニングによるチャットボットサービスのLexと、IBM Watsonが使用できる。顧客は、そのうちの1つを選択するか、あるいは組み合わせて使うこともできる。いずれについても、変更を加えて、システムをOlliにとって使いやすいものにすることも可能だ。

Olliに関わる多くの人々

自動運転車の配備は、それ自体が一種のレースのようなもの。その参加者としてのLocal Motorsは、カテゴリに分けたり、ラベル付けするのが難しいメーカーだ。その理由はシャトルの製作の過程にある。

それは単に、Local Motorsの2つの工場が、「マイクロファクトリー」と呼べるような、面積が1万平方フィート(約930平方メートル)という小さなものだからではない。アリゾナ州チャンドラーの本社と、テネシー州ノックスビルにあるマイクロファクトリーには、従来の自動車メーカーの工場に見られる工具や金型、プレスの機械がないのは事実だが、Olliが3Dプリンターによって製造されているから、というわけでもない。

決定的ながら、さほど目立たない違いは、Local Motorsと、その親会社のLocal Motors Industries(LMI)が、Olliや、他の製品を生み出す方法にある。LMIは、共同制作と少量生産を特徴とする現地生産のビジネスモデルを持っている。LMIのLaunch Forthと呼ばれるユニットが、数万人ものエンジニアとデザイナーのデジタルデザインコミュニティを管理し、顧客向けの製品を共同製作するというもの。そうして創作されたモビリティ製品の企画の一部は、Local Motorsに持ち込まれ、少量生産用の3Dプリンターを利用したマイクロファクトリーで、OlliやOlli 2.0、さらにはRally Fighterといった製品として製造される。

ロジャーズ氏によれば、こうしたコミュニティと、研究所とのパートナーシップを活用する能力を、直接的なデジタル製造手法を採用したマイクロファクトリーと組み合わせることで、設計から、実際に動作するプロトタイプの製作まで、何ヶ月や何年といった単位ではなく、わずか数週間で持っていけるのだという。

LMIは、コミュニティに向けてコンテストを実施している。コンテンストの優勝者には賞金が与えられるだけでなく、製品が商品化された場合にはロイヤリティを受け取ることもできる。2016年には、コロンビア共和国ボゴタ出身のエドガー・サルミエント(Edgar Sarmiento)という男性が、都会の公共交通システムを設計するというLocal Motorsのコンテストで優勝した。彼が設計したものが、最終的にOlliとなったのだ。

Local Motorsでは、Olliをどこに配備するか決める際にも、コンテスト形式を採用している。

Olliや、その他の製品のUIとサービスを改善するために、新しいデザインコンテストが定期的に開催されている。しかし、それだけでは、共創によって得られる成果を完全には捕獲できない。Local Motorsは、何十もの企業や研究機関と提携している。3Dプリンターの技術は、オークリッジ国立研究所(Oak Ridge National Laboratory)から提供されたもの。他にもOlliには、センサー、AV技術、サプライヤーコミュニティなどについて、有力な協力者がいる。

Local Motorsによれば、たとえば、スタートアップのAffectivaが、Olliの認知システムを提供している。乗客の顔や感情を認識したり、ダイナミックな経路の最適化にも貢献する。また、Velodyne、Delphi、Robotic Research、Axis Communicationsといった企業は、自動運転シャトル本体の知覚スタックを担当している。NvidiaとSierra Wirelessは、ヒューマン・マシン・インターフェイスの主要な部分を担っている。その他、主なところを挙げるだけでも、Bosch、Goodyear、Protean、Eastmanといった会社が、Olliにさまざまな部品を供給している。

Olliは今どこを走っている?

現在、Olli 1.0は全部で9ヶ所のキャンパスに配備されている。中でも最近走り出したのは、Joint Base Myer – Henderson Hallだ。これは、バージニア州アーリントンにある米軍の統合基地で、Fort Myer、Fort McNair、Henderson Hallを統合したもの。またOlliは、カリフォルニア州サクラメント近くのRancho Cordovaにも、最近になって配備された。

Olli 2.0の製造は7月に始まり、今年の第4四半期には納車も開始される予定だ。その前にも、今後6週間ほどで、さらに3ヶ所にOlliシャトルが配備される予定だというが、Local Motorsは、それ以上の詳しいことは明らかにしていない。

Olli 1.0の製造は、顧客から注文を受けた分の納品が済みしだい、今後数ヶ月で段階的に停止される。Olliは、まもなくヨーロッパをも目指す。Local Motorsは、3番めのマイクロファクトリーを、ヨーロッパに建設することを計画している。

画像クレジット:Local Motors Industries

原文へ

(翻訳:Fumihiko Shibata)

Elemental PathのAI恐竜おもちゃ、予約開始――ステモサウルスで子供たちがSTEMを体験

Elemental Pathが最初の人工知能おもちゃ、CogniToyをデビューさせたのは2016年のTechCrunchがCES 2016の一環で開催したStartup Battlefieldだった。このときKickstarterで予約を行ったCogiToyは恐竜のおもちゃでIBM Watsonを利用し話しかけられた言葉を認識する能力があった。

今回開発されたのは新しい世代の恐竜ロボットで、その名もSTEMosaur(ステモサウルス)という。デザインはlementalの最初のロボットに似ているが、サイズが小さく、半透明なグリーンで子どもたちが組み立ててプログラミングも行うようになっている。

もうひとつ重要な変更点は、ステモサウルスはWatsonではなくElementalの独自のAIソフトを利用することだ。

ファウンダーのDonald Coolidgeはわれわれのインタビューに答えて、「Watsonはエンタープライズ業務、ことに製薬会社の業務に適したソフトで、もともと子供向けではない。マーケットにできるだけ速くプロダクトを出すためにWatsonは大いに役立ったが、第一世代のロボットを通じて十分にデータも集まったので、これをベースに独自の子供向けソフトを開発した」と説明した。

新しいステモサウルスはIndiegogoで予約受け付け中だが、 Coolidgeは「途中で立ち消えになったり、出荷されるまでに3年も待つようなプロジェクトではい」と請け合った。ロボットはすでに製造中であり、今年のクリスマスには十分に間に合うという。

Coolidgeの前回の恐竜おもちゃは大好評で、当初のKickstarterのキャンペーンで予定した数の5倍も売れた。これによりCoolidgeは新製品開発のための資金400万ドルを得たという。またAmazonを含むいくつかの販売チャンネルも確保した。

Elementalでは前回同様のヒットを期待しているようだが、そうなる可能性は十分にある。Indiegogoはキャンペーン締め切りまで15日あるが、すでに当初の目標の2万5000ドルの2倍以上の予約を集めている。

今度のクリスマスのプレゼントにグリーンの恐竜おもちゃを考えている向きに注意しておくと、このロボットの対象年齢は7歳以上だ。またIndiegogoでは119ドルで基本ユニットが入手できる。その後の小売価格は139ドルとなる。

〔日本版〕STEMはScience, Technology, Engineering and Mathematicsの頭文字でアメリカにおける科学技術教育の強化を図ろうとしてアメリカ国立科学財団が21世紀初頭に造語したとされる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

The Emotion Journalは日々の出来事から、ユーザーの感情をリアルタイムで分析する

emotionjournal

サンフランシスコに住むアプリ開発者のAndrew Greensteinは、数カ月前から日記をつけ始めていた。毎日5分間、日記をつけることを習慣づけようとしたが、そのための時間を割くのは難しかった。それでも彼は日記をつけることがストレスを発散することにつながり、目標を達成する手助けとなると書かれた本を信じ、これを習慣づけようと努力している。

Greensteinは彼のチームメイトと共に、Disrupt London HackathonでThe Emotion Journalを開発した。ユーザーの感情をリアルタイムで分析し、その分析結果を時系列で表示するボイス日記だ。(ここで、ちょっとした注意事項:The Emotion JournalのWebサイトを訪れてみると、セキュリティ警告が表示されるだろう。その理由は、このWebサイトはhttpsコネクションを利用しているが、彼らはまだhttps証明書の支払いを終えていないからだ)

Greensteinは日中の間、デジタル広告代理店のSF AppWorksのCEOとして働いている。しかし、彼と共同創業者のDarius Zagareanは最近になって人工知能に夢中になり、その技術をメンタルヘルスの分野に応用できないかと考えていた。

「今後もこの分野に取り組んでいきたいと思います。なぜなら、人間とコンピューターをつなげるこの分野は、私にとって非常に魅力的なものだからです」とGreensteinは話す。

AIをメンタルヘルス分野に応用するというアイデアが最初に生まれたのは、AppWorks内部で開催したハッカソンでのことだ。そのハッカソンに出場したあるチームが、不安を生じさせる状況を人工的につくりだすアプリを開発し、そのような状況に対するユーザーの反応を向上させるという試みをしたことがきっかけだ。「できるだけAIの技術を身につけておきたいと思っていました。この世界が向かう方向が、AIに向いていることは明らかだからです。感情というファクターをもつこのアプリは、私の心を鷲掴みにしました」とGreensteinは説明する。

screenshot-2016-12-04-12-23-01

人工知能と感情の交わりを探求していこうと決心した彼は、リアルタイムの感情分析のためにIBM Watsonを利用したThe Emotion JournalをLondon Hackathonの舞台で創りあげた。ユーザーが1日の出来事をThe Emotion Journalに話しかけると、ユーザーの感情に合わせて画面の色が変化する。

The Emotion Journalはその感情の色を時系列で記録する。そのため、ユーザーは自分の感情を分析したサマリーをひと目で確認することができる。「索引可能で、検索可能な日記の必要性について頻繁に話し合ってきました。私たちは過去の出来事から何かを学ぶことができるかもしれないのです」とGreensteinは話す。

screenshot-2016-12-04-12-22-39

AIと日記を融合することにより、ユーザーに彼らのメンタルヘルスについて多くを教えるThe Emotion Journalだが、このアプリケーションが利用できる期間は限られているかもしれない — Greensteinは、このプロジェクトをデモ版のままにしておくことを望んでいる。だから、このプロジェクトを利用できる今のうちに、ぜひチェックしてもらいたい。

[原文]

(翻訳: 木村 拓哉 /Website /Facebook /Twitter

IBM WatsonとUdacityがパートナーしてネット上に人工知能の単科学位コースを開設(全26週)

ibm-watson-servers

社会人のスキルアップ&キャリアアップのためのネット教育をやっているUdacityが、IBM WatsonDidi Chuxing、およびAmazon Alexaとパートナーして、人工知能のナノディグリー*を提供していく、と今日(米国時間10/25)のIBM World of Watsonカンファレンスで発表した。〔*: nanodegree、ナノ学位、‘ミニ’よりもさらに小さな学位、特定単一科目限定。Udacity独特の用語である。〕

この課程のためのカリキュラムはIBM WatsonとUdacityが共同開発する。‘中国のUber’(のひとつ)Didi Chuxingは、このナノ学位を取った学生を雇用する。IBMも、だ。人工知能ナノ学位の開発に関し、Amazon AlexaがUdacityのアドバイザーとなる。

UdacityのファウンダーSebastian Thrunは、Googleのイノベーション部門Google Xと、その自動運転車開発事業を創始した人物だが、彼によるとこのAIナノ学位は、ソフトウェア開発にある程度精通している人が対象だ。

IBMでWatsonを担当しているVP Rob Highが同社のブログ記事に、このナノ学位の教程では、ゲーム、検索、ロジックとプランニング、コンピュータービジョン、自然言語処理などのアプリケーションやプラットホームの作り方を学生に教えていく、と書いている。

人工知能と倫理の問題についてThrunはこう言う:

“その問題は、ナノ学位のカリキュラムには含まれない。AIに関して恐怖を声高に広める人たちがいるが、AIと世界の支配や破壊は無関係だ。むしろそれは、退屈な繰り返し作業から人間を解放する。あなたがライターじゃなくて、オフィスで毎日同じことをしているオフィスワーカーだ、と想像してご覧”。

“あなたの仕事のやり方を見ていたAIは、あなたの仕事をあなたの100倍の効率でできるようになるだろう。あなたには、大量の自由時間ができる。AIと人間の心との関係は、蒸気機関と人間の体との関係とパラレルだ、と私は思う。どちらも、世界にとって、ポジティブなニュースだ”。

UdacityのAIナノ学位課程は、13週間の学期を2学期受ける。最初の学期は、2017年の初めに開く。

カリキュラムは目下開発中だが、教えるのは人間だ。ただしそれらの先生たちが、自分の授業のためのAIアプリケーションを開発するのは、かまわない。

UdacityはEdX, Courseraなどなどのエドッテック(edtech)プラットホームと競合している。どこも、今のテクノロジー社会における、一般社会人のスキルアップとキャリアアップを、売り物にしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

PepperPayは、商品を画像認識するレジ係ロボット

pepperpay

画像認識技術が進歩すれば、スマートフォンやタブレットで物体の認識が可能になり、人間の目やバーコードスキャナーに頼る必要がなくなる。TechCrunch Disrupt SFハッカソンの参加プロジェクト、PepperPayは、レジのチェックアウトに画像認識を利用する。

PepperPayを塔載したデバイスを持つロボットの前で商品をかざすと、撮影してそれが何であるかをすぐに識別する。あとは支払いを済ませ、長い列に並ぶことなく店を出ていくだけだ。

チェックアウトの自動化は、リアル店舗の経費を節減し顧客満足度を向上させる。多くの食料品店がセルフチェックアウトを提供しているが、バーコードのスキャンは慣れない利用者にとっては苦痛だ。

商品を持って写真を撮るだけになれば、チェックアウトのスピードは向上し、特殊なハードウェアも大幅に削減できる。

gallery-1

PepperPayを作ったのは、Dave Idell、Adam Chew、Nisha Garigarnの3人で、IBM Watsonの画像認識技術とPayPalの取引サービスを利用している。Walgreensで長い行列を見て、自分たちのアイデアを使えば簡単に解決できるはずたとこのシステムを思いたった。

PepperPayのデモには、Aldebaran社の人間型ロボット、Pepperが使われたが、iPadに載せた簡易バージョンでも十分機能する。いずれPepperPayのようなテクノロジーが普及すれば、ロボットやAIが人間を置き換えることによる失業問題に対処する必要がでてくるだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

IBM Watsonを乗客インターフェイスに利用した電気ミニバス、Olliが運行開始へ

2016-06-17-watson-olli

今日(米国時間6/16)、IBMは自動運転分野に大々的に参入したことを明らかにした。ただし実際に自動車を作るのではなく、自動運転に興味深い機能を提供する頭脳としての役割だ。

IBM Watsonの人工知能が電気自動車のOlliの乗客インターフェイスのベースとなる。Olliは12人乗りのミニバスで、アリゾナの自動車メーカー、Local Motorsが開発した。

Olliの製造にあたっては3Dプリントなどの最新のテクノロジーが利用され、これまで少量生産に付きものだった高コストが克服された。このミニバスは当初ワシントンDCで走るが、今年中にマイアミ・デイド郡、ラスベガスに運営が拡張される予定だ。 IBMによれば、マイアミ・デイド郡は自動運転車を利用して乗客をマイアミの各所に実際に移動させるパイロット・プログラムをスタートさせるという。

Local Motors、IBM、それにIntelは以前もRally Fighterというコンセプト・カーの開発などで協力したことがある。Olliはこの提携が産んだ最初の商用プロダクトのようだ。

詳しくいえばOlliは自動運転車のアプリ向けに最適化されたカスタム版のWatsonを用いており、自動運転機能のすべてを担当しているわけではない。IBMの声明によれば「乗客の利用体験を改善する」ことに主眼が置かれている。

「WatsonとWatson IoTを含むIBMのテクノロジーはOlliの操縦やナビゲーションではなく、乗客の体験を改善することに用いられている。Watsonによって乗客はバスと自然に意思疎通ができるようになる」と声明は述べている。

ただしこれは第一歩にすぎないようだ。Local Motorsの共同ファウンダー、John B. Rogersは声明でこう述べている。

「長年待ち望まれてきたスマート、安全、かつビジネスとして長期に運営可能な公共交通機関をOlliは実現する。Watsonを利用するOlliはわれわれの考える自動運転車の世界へのドアだ。パートナーとLocal Mortorsのコミュニティーはこの1年、静かに開発を続けてきた。ごく近い将来、われわれが開発したテクノロジー・ポートフォリオはあらゆる自動車に適用できるようになるだろう。われわれは採用のための努力を加速していく。高度な自動車テクノロジーの分野において、われわれのオープン・コミュニティーが貢献を行うことができる大きな可能性には興奮させられる」

Olliは4つのWatson APIを利用している。具体的にいえば、音声をテキスト化するSpeech to Text、自然言語のクラス分類を行うNatural Language Classifier、 固有表現を抽出するEntity Extraction、逆にテキストを音声化するText to Speechだ。これらの機能を用いて、Olliは車内の30以上のセンサーから収集される膨大な情報を適切に処理することができる。

IBMによれば「A地点からB地点に移動中に、乗客はOlliと自然な会話を行うことができる。乗客はOlliにバスの目的地だけでなく、作動の仕組や今なぜそのような運転操作を行ったのかを尋ねることができる」という。さらにOlliは食事をするのに適したレストランや付近の観光地に関する情報も教えてくれる。ただしWatsonは自動運転そのものを担当するわけではない。

【IBMの声明は原文参照】

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Twilioがアドオンのマーケットプレースを開設…サードパーティ製の有料APIを便利に利用できる

LONDON, ENGLAND - DECEMBER 08:  Co-Founder & CEO at Twilio Inc. Jeff Lawson during TechCrunch Disrupt London 2015 - Day 2 at Copper Box Arena on December 8, 2015 in London, England.  (Photo by John Phillips/Getty Images for TechCrunch) *** Local Caption *** Jeff Lawson

通信APIのプロバイダーTwilioが今日(米国時間5/24)、アドオンのマーケットプレースを立ち上げた。

既製のアドオンに使えるものがあれば、TwilioのAPIを使って自分のアプリやサービスに強力なメッセージング機能を実装したいと思っているデベロッパーは、より容易にその願いを実現できる。

TwilioのCEOで協同ファウンダーのJeff Lawsonは、“Twilioのマーケットプレースはまだ始まったばかり”、と語る。彼によると、Twilioはすでに、デベロッパーが自分のアプリケーションに通信機能を実装するためのビルディングブロックを数多く提供しており、デベロッパーはそれらを、ほかのベンダのAPIと組み合わせることもできる。“しかしマーケットプレースからアドオンを入手できれば、さらに少ないコードでより多くのことができるようになる”。

課金はアドオンを提供しているパートナーたちに代わってTwilioが一括して行い、デベロッパーは彼らのサービスに一度のAPI呼び出しでアクセスできる。今パートナーは18社いて、その中にはIBM Watson, NextCaller, WhitePages Pro, Mobile Commons, Payfoneなどがいる。IBMがWatsonのサービスをサードパーティのプラットホームから提供するのは、これが初めてだ

Lawsonによると、誰もが自由にこのマーケットプレースに自作のアドオンを出品できるが、その前にTwillioが各作品を徹底的に精査する。そしてそのほかの類似サービスと同様に、Twilioが売上の25%を取る。

そして、これらのアドオンの使い方だが、Lawsonによると、当面は3種類の基本的な統合方式がある。まず、“電話番号検知方式”のアドオンは、ボットなど受け取り拒否のリストに載っている番号をチェックできる。また“メッセージ検知方式”のアドオンは、メッセージのテキストを調べて悪い感情などをチェックする。そして三つめの“記録検知方式”は、音声電話を録音して、それに対する感情分析や、テキストへの書き起こしサービスを行う。

これらのアドオンはTwilioのProgrammable SMS, Programmable Voice, そしてTwilio Lookupサービスで利用できる。

同社は今日、登録ユーザー数(デベロッパー数)が100万に達した、と発表した(ただしアクティブユーザーの数は不明)。

Twillio関連記事

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Watson日本語版API提供開始、日本IBMやスタートアップが対話デモも披露

IBMとソフトバンクは今日、東京・箱崎の日本IBM本社で記者会見を開催し、日本語化されたWatsonのAPIを6つの提供を開始したと発表した。日本語化したWatsonのデモでは、架空のアパレルショップで「こんにちは中野さん、今日はどのような商品をお探しですか」というWatsonの顧客の対話による商品の推薦の様子を、以下のような、ちょっとドラクエ風にも思える画面を見せながらデモした。

screen01

screen02

今回IBMと提携して開発を進めたソフトバンク代表取締役社長の宮内謙氏は、全国2000店舗に及ぶソフトバンクショップでの販売支援のためのWatson導入などに積極的で、来月3月にも1つ目のプロジェクトをスタートすると話した。

IBMの説明によればWatsonは、すでにグローバルでは保険、金融、医療、メディア、製造、営業支援など36カ国、29の産業、400社で利用、もしくは実験的な取り組みが始まっている。例えば、タイの病院でがん治療のソリューションや、シンガポールでの税金処理のシステムなどがあるという。

IBMとソフトバンクの2社は2015年2月の提携アナウンス後、過去1年にわたってWatsonの日本語化を進めてきた。Watsonといえば、2011年に米国のクイズ番組で人間のチャンピオンに買ったことから、自然言語による質問を理解し、膨大なデータから正解を探しだすというタスクで知られている。当初そういうQ&AのためのAPIだけだったWatsonだが、現在は約30のAPIがそろっていて、今回はこのうち6種を日本語化。API経由でパートナー企業や開発者、起業家などに公開するとしている。

dia

6種類のAPIのことをIBMでは「コグニティブ・サービス」と呼んでいる。具体的には、

自然言語分類:質問方法が異なっても回答を見つけ出す製品やアプリを開発できる
対話:人間が質問するときの個人的スタイルに合わせた会話を生み出せる
検索およびランク付け:機械学習を活用した情報検索精度の向上
文書変換:PDFやHTML、Wordなど異なる系s気のコンテンツをWatsonで利用可能な形式に変換する
音声認識
音声合成

となっている。自然言語処理には文書例となる、いわゆる「コーパス」が必要だが、Watson日本語版には日本語コーパスも含まれるそうだ。企業などで利用する場合には、Watson適用時の効果予測、事前の学習トレーニングを経て、SaaSモデルによる提供となる。会見でWatson導入の現状や展望を説明したマイク・ローディン氏(IBMコーポレーションWatsonビジネス開発担当シニア・バイスプレジデント)によれば、Watsonの日本語対応は英語に次いで2番めの言語。すでに6言語に対応している。このため今後、日本企業がサービスをグローバル対応するのが容易になるだろうと話した。

会見ではWatson適用を進める日本企業が狙いを説明したが、この中にはスタートアップ企業のカラフル・ボードFiNCの姿もあった。カラフル・ボードはSENSYと名付けた人工知能を使ってユーザーのファッションの好みなどを「感性」として理解し、ユーザーに代わって多数のアイテムの中からリコメンドするサービスを作っている。カラフル・ボード創業者でCEOの渡辺祐樹氏は、Watsonによって、このサービスに「言語というインターフェースを実現できる」とし、声でファッションアプリに話しかける次のようなデモを披露した。

「春物のシャツを探したい」
→写真でアイテムが表示される
「もう少し明るめのものがいいかな」
→別のアイテムが表示される
「コーディネートも考えてくれる?」
→追加アイテムが表示される
「ありがとう、お気に入りに入れておいて」

ここで「明るめ」というような曖昧な語句を理解するのがポイントだといい、こうした言語インターフェースと、SENSYによるユーザー個別の感性に合わせた推薦ができるようにするのが狙いだという。今後SENSYではファッション以外にも食べたいデザート、休暇に訪れたい観光地などと適用範囲を広げることも考えているという。

記者会見にはテレビ局関係者も含めて非常に多くの報道陣が押しかけていて、「IBMの人工知能」に対する関心の高さがうかがえた。

photo04

テキストデータをニューラルネットで分析するAlchemyAPIが$2Mを調達, GoogleやIBM Watsonと競合

alchemylogo

AlchemyAPIが、その高度な学習テクノロジを一層充実させるために200万ドルのシリーズA資金を獲得した。その投資ラウンドの幹事会社はAccess Venture Partnersで、新資金は営業とマーケティング、社員増、そして新サービスのローンチに充てられる。同社の技術は、Webページやテキスト文書、メール、ツイートなどを読んで理解する人工知能技術だ。

ファウンダでCEOのElliot Turnerによると、同社の自然言語処理技術は、金融などの垂直市場(特定業種市場)で利用されており、たとえば証券会社では、Alchemyの技術でテキストを分析し、そこから得られる株価変動の兆候などを株取引のアルゴリズムに放り込む。同社はその技術を、APIサービスまたはデータセンターに据え付ける専用の装置として提供している。

2009年にローンチしたAlchemyは現在、世界の36か国で使われ、毎月30億のAPI呼び出しを処理している。これだけAPI呼び出しの多い同社を、Programmable Webは「APIの殿堂」(API Billionaire’s Club)に加えた。これで同社は、GoogleやFacebookやLinkedInなどが持つ希少なステータスを獲得したのだ。

Alchemyからの課金は、APIの呼び出しまたはトランザクションに対して行われる。呼び出しの90%は、トランザクションベースの支払形式だ。

Alchemyの技術はIBM Watsonに似ていて、顧客がデータ集合に対して質問を投げかけ、答を得るために利用する。ただしAlchemyは、数や量ではなくテキストの分析に特化している。同社は、そのためにニューラルネットの技術を利用している数少ない企業の一つだ。Googleはニューラルネットを脳のシミュレーション に利用しているが、Alchemyのように多様なデータ集合に対するクェリには使っていない。Alchemyの分析技術を使うと、たとえば膨大な量の法律文書から必要な情報を見つける、などのことができる。

Alchemyの技術はデータ分析の技術として画期的だが、しかし今後、IBMなどの超大手と互角に戦えるだろうか? ぼくは、十分に行けると思う。IBMはWatsonをSaaSとして提供していないが、AlchemyはSaaSをやっている。だから、どんな企業でもその技術を利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))