Post Intelligenceがあなたのツイートを良いものにするかも?

ソーシャルメディアは厄介なことになる可能性がある。

これは仮定の話ではない。いつかはこんなことを考える日が来るだろう「おっと、最後にInstagramTwitterに投稿してから随分時間がたったぞ」 — そしてまあ、何も言いたいことがないのに無理やりでっち上げた投稿は、惨めな失敗に終わるというわけだ。そんなとき、おそらくPost Intelligenceを使っていたなら、私はもっとうまくやれていただろう。

私はこれまで沢山のソーシャルメディアのダッシュボードやアシスタントを見てきたが、Piという名のPost Intelligenceのアシスタントは、これまでで最も直接的なアドバイスを提供してくれるものだ。TwitterアカウントやFacebookページに接続すると、それはあなたが投稿に使っても良いかなと思えるような話題のリンクの一覧を生成してくれる(例えば、今日最初に提案されたものは、BatmanとTrumpに関する話題などだ、まあ悪い提案ではない)。

投稿の下書きを書くと、Piはその投稿がどれくらいウケるかを予測し、投稿するのに適した時間も提案してくれる。また、投稿がどれくらいウケたかも分析するし、更にスポンサー付きの記事を通してお金を稼ぐ手段も提供されている。

Post Intelligenceの共同創業者兼CEOのBindu Reddyは、このプロダクトがFacebookとTwitterからのエンゲージメントデータ(投稿への反響データ)を調べていると語った。そして人工知能を用いて、フォロワーによる反響が良いであろうと予測されるトピックを浮上させてくるのだ。投稿のパフォーマンスは話題、長さ、気分、そしてキーワードを用いて予測される。

「私たちは皆のツイートを良くします」とReddyは語る。

ポストインテリジェンス

彼女は、Piはユーザーに何を言うべきかを指示しているわけではないこと、そして単純に現在何に人気があるのかに焦点を当てているだけでもないことを強調した。もちろん他の人たちと全く同じものをシェアしていたのでは成功は覚束ない。

「トップ5のテレビ番組や、トップ10のニュース記事だけではなく、1000の異なるトピックに光を当てたいと思っているのです」とReddy。「なので、私たちのプロダクトは、現在のような反響の洞窟(同じようなニュースが拡散するネット)状況を取り除いてくれることに対して役立つだろうと、かなり楽観的に考えています」。

Post Intelligenceは、ソーシャル広告プラットフォームのMyLikesの背後に居るものと同じ会社によって開発された。Reddyは、この技術に関して「完全に新しいものです、インスラストラクチャ全体を書き直しました」と語る。チームは現在はPost Intelligenceに専念しているということだ。

現在のPost Intelligenceは無償で利用できる。

[ 原文へ ]
(翻訳:Sako)

YouTubeが[笑い]も自動キャプション―機械学習で3種の環境音を認識

YouTubeはずっと前から自動キャプションシステムをサポートしている。 近年目覚ましい進歩を遂げたGoogleの機械学習テクノロジーのおかげで、自然言語の音声認識の精度は非常に高くなった。自動キャプションは驚くほど正確にビデオに発言の字幕を作ってくれる。

Googleの今日の発表によれば、自動キャプションシステムはさらに改良され、環境音を認識して[笑い]、[喝采]、[音楽]( [LAUGHTER]、 [APPLAUSE]、 [MUSIC])と字幕をつけるようになったという。

当面、システムが自動的にキャプション化してくれるのは上に挙げた3種類だ。この点について Googleは「この3種類のサウンドは多くのビデオの制作者がマニュアルでキャプション化しているからだ」と説明している。

Googleのエンジニア、Sourish Chaudhuriは今日の発表でこう説明している。「背景音自体はもちろんきわめて多彩だ。しかし〔新たにサポートされた〕3種類の環境音は文脈的な曖昧さが少ない。これに対しして例えば何かが鳴った場合に[RING]とキャプションすると視聴者はすぐに『何が鳴ったのだろう? ベル? アラーム? 電話?』と疑問を抱いてしまう」。

ただYouTubeにこうして環境音のキャプションシステムが導入されたので、今後Googleが対象となる音の種類を増やすのは比較的簡単だろうと予測される。

システムレベルでみると、YouTubeのサウンド・キャプションはGoogleのディープ・ニューラルネットワークを弱いラベル付けをしたデータで訓練した結果を用いている。新しいビデオがアップロードされるつどYouTubeのシステムはサウンドを認識しようと試みる。このシステムについてさらに詳しく知りたい場合は(Viterbiアルゴリズムを用いているという)、 Googleのブログ記事を参照のこと。

画像:ERIC PIERMONT/Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ARMの次世代チップは人工知能にフォーカスした設計になる

ARMが今日発表したDynamIQなるものは、同社の次世代モバイルプロセッサーの基礎となる新しい技術だそうだ。モバイルのチップメーカーは将来の製品について語るとき、すごく饒舌だが、とくに今回のARMは“マイクロアーキテクチャの2011年以降における最大の変化”という、最大級の主張だ。

同社がとくにプロセッサーのスピードを強調するのは、将来の人工知能を意識しているからだ。確かに人工知能は、今後数年間、モバイルコンピューティングにおいてもますます主流の技術へと成長していくだろう。それは、スマートアシスタントや自動運転車や、それらを超えるものが、おびただしく繁茂する未来だ。

このチップメーカーのAIに関する主張は、確かに謙虚ではない。3年ないし5年後には、今の50倍の性能になるそうだが、しかしその数字は、同社によれば、あくまでも今あるAIアルゴリズムに基づく“控えめな予想”だそうだ。

その技術の普及についても、ARMは控えめな言い方をしない。そのほかのモバイルチップメーカーが自分の製品について言うときと同じく、同社も、モバイルに限定されないさまざまな広範囲なコンピューティングプラットホームをターゲットにする、と言う。確かに同社はここ数年のIoTデバイスの大ブームにおいて、多芸なコンポーネントメーカーとして自己を確立したから、これだけ大言壮語する資格があるかもしれない。

DynamIQチップの同社による位置づけは、(今後ワークロードがさらに増える自動運転車の)車載用と、インターネットに接続される家庭用デバイス、そしてもちろん、スマートフォンなどなどだ。Microsoftはすでに12月に、今後のアプリケーションの基礎をまとめ上げ、それらのアプリケーションはARMのモバイルプロセッサーに載る、と発表した。そのオペレーティングシステムが、より多様なデバイスに使われることを期待しているのだ。

またMicrosoftは先週ARMにおいしい言葉を進呈し、Windows Server OSは同社のチップでも動く、と言った。そのニュースが、今日の発表の前触れだったのかもしれない。ARMはDynamIQのアーキテクチャを、サーバーやクラウド、そして最近の新しいネットワーキングアプリケーションを担うコンピューティングハードウェアにも、推していくつもりだからだ。

発売日などは発表されなかったが、2021年までには、ハードウェアパートナーたちが今よりも1000億多いARMベースのチップを売る、と述べた。2013年から2017年までの販売総数はおよそ、その半分なのだが。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

自動運転車を混乱させる“罠”を考えたパフォーマンスアーチストJames Bridle

自動運転車に何ができるか、については、本誌もこれまでさんざん書いてきたけど、ときには、できないことの方がおもしろいこともある。技術というものは、その能力とともに、限界を知ることもきわめて重要だ。というわけで今回は、このパフォーマンスアートから教訓をいただこう。

この“Autonomous trap 001”(自動運転の罠001号)は、とても分かりやすい。自動運転システムが最初に学ぶいちばん重要なことは、路上のマーキングの理解だ。これは車線の端だ、これはカープール専用車線だ、などなど。

アテネに住むイギリス人のJames Bridleが、コンテキスト(文脈、状況知)を欠く知識の限界を例示している。人工“知能”が氾濫する今の時代には、われわれはそんな不具な知識に、至るところでぶつかる。

 
スーパーで一山いくらで売ってるような人工知能は、路上のいちばん重要なルールは、車から遠い方の側にある点線〔上図で外側〕は絶対に横切ってはならない、だと知っている。しかしもちろん、その点線が近い側なら、横切ってもよい。

なお、この円はわざと塩で描かれている。塩の儀式的な意味は、“神聖な場所なのでそこから先へ行くな”、という意味だ。あるいは、精霊や悪霊を金縛りにするために、灰や塩をお供えした時代もある。人間をその場に金縛りにするために、塩と呪文を併用することもある。

この実験でも、点線という単純なシンボルが、ターゲットを金縛りにした。この‘知能’の作者に、救い出してもらうしかないね。それとも、祈祷師に頼んで点線の呪いを解いてもらうか。人間運転手が中にいるなら、モアベターだけど。

遠い未来には、自動化システムが世界を支配して、それらの内部情報や設計情報はとっくに失われているかもしれない(Horizon: Zero Dawnをプレイしてみよう)。そうすると、システムが、理解できないおかしな振る舞いをしても、われわれの愚かな子孫たちは原因も対策も分からないのだ。今回の実験の、自動運転車の“罠”も、そのひとつだろう。

自動運転車を急に停止させたり、片寄せさせたり、予期せぬ不具合が生じたりする、いろんな“罠”がありうるだろう。それらから、人間を守れるだろうか? 犯罪目的で人工知能騙しをやるなら、それはどんな犯行だろう? いずれにしても、奇怪な未来が待っているのだ。

とりあえず、BridleのVimeoやブログを今後もウォッチしよう。そのパフォーマンスはつねに、“進化途上”だから。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

心臓発作防止プラットホームのAliveCorが製品をAI化、Omronなどから$30Mを調達

心電図のデータを利用して心臓発作を防止するアプリKardiaを作っているAliveCorが、Omron HealthcareとMayo Clinicから3000万ドルの資金を調達し、また、Kardiaの医師用バージョンKardiaProを発表した。

すでにFDAの承認を得ているAliveCorのモバイルアプリKardiaは、99ドルの心電図読み取り機と併用するが、昨年Mayo Clinicとのパートナーシップにより、4500名の患者に対して心臓発作に関する大規模な調査を行い、その結果として新しいプラットホームの開発を迫られた。今度のKardiaProは、発作など心臓の諸症状のリスクを抱える患者の心電図をモニタしたい、と願う医師向けの高度な製品だ。

KardiaProは、リスクを抱える患者の体重、活動、血圧など複数の要素を調べて、それらのデータをAliceCorのAIに分析させ、医師が気づかないかもしれない兆候を見つける。そしてAliveCorのCEO Vic Gundotraが患者の“パーソナル・ハート・プロフィール”(personal heart profile)と呼ぶものを作り、そのデータを元に、医師が次の診療内容/方針を決めるための注意情報(アラート)を送る。

AliveCorはこの前、Khosla Ventures, Qualcomm, そしてBurrill and Companyから1350万ドルを調達した。今回の資金と合わせると、調達総額は4540万ドルになる。しかしより重要なのは、今回、Mayo Clinicという、数百万の患者を対象としている大手のヘルスケア企業とパートナーしたことだ。またOmronも、血圧計などのヘルスケア製品を世界中に提供している企業なので、貴重な情報が得られるだろう。

[循環器疾患による死亡率(人口10万人あたり)]

心臓疾患は世界の死因のトップであり、血圧計や心電図などを定期的にチェックすることは、心臓病の早期発見と有効な症状管理に寄与する。その部分でKardiaProのAI成分は、不規則な心電図などの異状を、ほとんどリアルタイムで医師に伝えることができるだろう。

KardiaProはAliveCorの新製品だが、同社はApple Watch用の心電図読み取りバンドAliveCorのKardiaバンドも発売した。すでにヨーロッパでは使われているが、アメリカではFDAの承認待ちだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

全自動衣類折りたたみ機「laundroid」の体験型カフェがオープン(製品デモ動画あり)

全自動衣類折りたたみ機「laundroid(ランドロイド)」を開発する日本のセブンドリーマーズは3月16日、同プロダクトを展示したカフェレストラン「laundroid cafe(ランドロイド・カフェ)」を3月18日よりオープンすると発表した。

ランドロイド・カフェでは、昼にはコーヒーやかき氷、夜には「焼かない焼き肉屋『29ON(ニクオン)』」のディナーを楽しむことができる。営業時間は午前11時から午後11時までで、年中無休(年末年始を除く)で営業予定。カフェの運営は飲食系スタートアップのfavyが手がける(favyは同日、サイバーエージェント・ベンチャーズなどから総額3.3億円を調達したことも併せて発表している)。

カフェには「ランドロイド・ルーム」と呼ばれる体験スペースが併設されており、プロジェクトマッピングを利用して「ランドロイドのある生活」を疑似体験できるようになっている。ランドロイド・ルームの利用には別途予約が必要だが、実際のランドロイドを触って衣類をたたむ様子を体験することができる。

本日開催されたメディア向けオープンイベントに登場したセブンドリーマーズ代表取締役の阪根信一氏は、「ショールームを作って販売するというのが通常の流れだと思うが、ランドロイドを体験しながら食事をするという空間をつくりたかった」とランドロイド・カフェ誕生の背景を語る。

セブンドリーマーズ代表取締役の阪根信一氏

また、ランドロイドカフェの運営を手がけるfavy代表取締役の高梨巧氏は「このレストランでは、日本のスタートアップが開発した機械を使って料理工程を削減している」と語り、テクノロジーと飲食の融合をアピールした。ちなみに、このカフェには店員の呼び出し用にエスキュービズムが提供するIoTデバイス「noodoe(ヌードー)」が採用されている。だから、デバイス好き、スタートアップ・プロダクト好きのTechCrunch Japan読者も楽しめることだろう。

IoT店員呼び出しデバイスの「noodoe」

阪根氏によるランドロイドの製品デモ

今回のオープンイベントで、これまで注目されていたランドロイドの販売価格が明らかとなった。阪根氏によれば、価格は185万円〜(税別)で、5月30日から一般販売が開始されるようだ。

また、セブンドリーマーズは同時に「laundroid購入宣言キャンペーン」を行うことを発表。これは、SNS上で購入意思を表明した後、実際にランドロイド購入すると各種特典がもらえるキャンペーンだ。実施期間は2017年3月16日〜4月30日となっている。

セブンドリーマーズは2011年の創業。同社は2015年6月に15億円をシリーズAで調達している。続いて2016年11月には60億円の資金調達を行っており、同社の累計調達金額は75億円だ。今後の展望について阪根氏は、「今後は他社製品とランドロイドとのコラボも予定しているので、楽しみにして頂きたい」と語り、オープンイベントを締めくくった。

AIが作り置きレシピを提案 ― ダイエット支援アプリ「CALNA」に新プログラム

1人暮らし世代のTechCrunch読者の中には、「外食や飲み会が増えたのでお腹まわりが気になってきたが、自炊をして健康的な生活を送るための時間や気力がない」という悩みをもつ人も多いのではないだろうか(僕もその1人だ)。そんな悩みを解決してくれるのが人工知能(AI)アシスタントの「CALNA(カルナ)」だ。

日本のmeuron(ミューロン)が提供するCALNAは、ユーザーが入力した身長や体重などのデータとアンケート診断の結果をもとに、AIがユーザーに最適なダイエットメニューを提案してくれるというアプリ(2016年10月のリリースはTechCrunch Japanでも紹介している)。

当初からCALNAはユーザーの目的に合わせていくつかのダイエットプログラムを用意する計画だった。リリース時から提供している「外食中心ダイエットプログラム」では、大手コンビニや飲食チェーン店(「ガスト」などのホームレストランや「ほっともっと」などの弁当チェーン)など、計13店舗のメニューをデータベース化しており、約700万点あるメニューから適切な組み合わせを提案してくれる。

そのmeuronは3月13日、これまで提供していたプログラムに加えて、CALNAに「あっという間の作り置きプログラム」を追加すると発表した。

平日は自炊する時間はなくても、「休日ならばできるかも」という人も多いだろう。平日に食べるご飯を休日にまとめて作り置きしておけば、より健康的な生活も送りやすい。

この新プログラムでは、レンジで簡単につくれるレシピなど、1品あたり5〜10分で調理できる作り置きレシピを毎月配信する。月額480円でレシピ本1冊分のボリュームのあるコンテンツが配信されるようだ。レシピの幅も広く、カレーやシチューなどの定番作り置きメニューだけでなく、ハーブチキンや魚を使ったメニューなどもあるそうだ。

なお、既存の「外食中心ダイエットプログラム」は今後も無料で提供を続けるとのこと。

新プログラム開発の背景について、meuron代表取締役の金澤俊昌氏は「CALNAを利用するユーザーから『簡単にできる自炊のプログラムを作ってほしい』という要望があったのがきっかけでした。また社内からの意見でも、『すべての食事を外食で済ませるダイエットユーザーはいないよね』という声もあり、ユーザーが簡単に調理可能で、かつ作り置きができる料理に特化したプログラムを開発することに決めました」と語る。

料理レシピを見るだけならクックパッドでも事足りる。しかし、あくまでも「作り置き」にフォーカスしたこの新プログラムでは、ユーザーの好みを学習したAIが何品分ものレシピをまとめて提案し、それをすべて考慮したうえで作業工程を最適化。買い物リストや調理手順まで教えてくれる。西澤氏は、「料理を何品も作るときには、例えば5品分の野菜をまとめて切って、つぎに野菜を切ってという作業になる。CALNAでは、そういった『まとめて作る』という作業工程をシステム側で再設計することで、『料理を作る』という体験をアシストすることが目的です」と語る。

リリースから約5ヶ月が経過するいま、CALNAは累計で8万ダウンロードを達成。「リリース当初に比べると、ユーザーの継続率は2倍程度まで伸びている」という(西澤氏)。2014年10月に創業のmeuronは、これまでに累計で1億8000万円の資金調達を完了している。

IBMとSalesforceがパートナーシップを締結 ― WatsonとEinsteinによる統合サービスを提供

人工知能の分野で先行する2社が手を組んだ。IBMとSalesforceがパートナーシップ締結を発表したのだ。

このパートナーシップにより、IBMはEinsteinとWatsonの両方を通じて同社のコンサルティングサービスを売り込むことができる。

今後、Watsonのビジネスから得たノウハウが直接SalesforceのIntelligent Customer Successプラットフォームにもたらされることになる。Einsteinがもつカスタマーリレーションシップのデータと、Watsonがもつ天気、ヘルスケア、金融、リテール分野の構造化/非構造化データが組み合わさるかたちだ。

「今後数年のうちに、私たちはAIや認識技術の手を借りて主要な意思決定 ― 個人、ビジネスを問わず ― を行うことになるでしょう」とIBM最高経営責任者のジニ・ロメティー氏は語る。

ロメティー氏によれば、Watsonに「触れた」ユーザーは10億人にものぼる ― 腫瘍学などの医療分野、リテール分野、税務分野、クルマ分野など、その入り口はさまざまだ(この数字に広告分野が含まれているかどうかは定かではない。たぶんそうだろうが、、、IBMはWatosonを頻繁に宣伝している)。

「EinsteinとWatsonのコンビネーションによって、ビジネスがよりスマートになり、私たちの顧客も恩恵を受けることができます」とSalesforce最高経営責任者のMarc Benioff氏は話す。「IBMと手を組むことができ、とても興奮しています ― これほどまでにSalesforceのコアバリューと共通した理念をもつ企業は、IBMの他にありません。両社にとってベストなパートナーシップだと言えます」。

Benioff氏の話は多少誇張されている部分もあるが、この2つの企業が手を組んだことによって奇妙なパートナーシップが出来上がったことは紛れもない事実だ。両社が展開する知能プロダクトがどのレベルまで統合されていくのか、そして彼らがどの程度手を取り合うのかは、まだ明らかにされていない。

両社の発表によれば、今後彼らはAPIを利用してWatsonとEinsteinの統合を進めていくという。彼らが例としてあげた用途として、Einsteinがもつ顧客データとWatsonがもつ天気データやリテール業界のデータを組み合わせることで、顧客にEメールキャンペーンをうつというものがある。

まさしく、天気データの統合はこのパートナーシップのなかで最も重要な要素だといえる。IBM傘下のWeather CompanyのサービスがSalesforceのアプリマーケットプレイス「AppExchange」に加えられるのだ。これにより、顧客に天気情報をもとにしたアップデートを提供することができるようになる。

最も重要なのは、WatsonとEinsteinを統合した機能の導入を支援するサポートチームをIBM傘下のコンサルティング企業「Bluewolf」が組織するという点だろう。両社の統合サービスは3月末から利用可能になる予定だが、すべての機能が利用できるようになるのは今年後半になる見込みだ。

この件についてSalesforceとIBMからコメントを入手することはできなかった。

AIが作曲をするAmperが$4Mを調達、訓練次第でAIも本物の創造力を持つ、とファウンダーは主張

amper2

AIで作曲をするAmperが、400万ドルの資金調達を発表した。

このラウンドはTwo Sigma Venturesがリードし、Foundry Group, Kiwi Venture Partners, および Advancit Capitalが参加した。Amperはこの前、Brooklyn Bridge Venturesから資金を調達している。

このスタートアップを作ったDrew Silversteinは映画音楽の作曲家だから(ほかにSam EstesとMichael Hobeが協同ファウンダー)、自分の仕事を奪いそうなプロダクトを作るはずがない、と思うかもしれないけど、Silversteinの考え方は違う。

彼によるとAmperは、コマーシャルやネット上の短編ビデオなどにつける“実用的な”音楽を、はやく、安価に、そして無権利で作る方法だ。これまで、そういう種類の音楽は、既存の権利切れの曲を利用していた。Silversteinは以前、そういう方面から作曲を頼まれたこともあったが、あまりにもギャラの提示額が小さすぎた、と言う。

“弊社の会社としての信条は、未来の音楽が人間とAIのコラボレーションで作られる、ということだ”、と彼は語る。“しかもそのコラボレーションによって、創造性は一層強化される。コンピューター自身も、訓練次第で本物の創造力を持つだろう”。

1年前の本誌主催Startup Battlefieldで優勝したJukedeckをはじめ、AIを利用する作曲システムはほかにもいろいろある。しかしSilversteinが唱えるAmperの差別化要因は、創造性なのだ。

Amper screenshot

彼は、“コンピューターが新しい画期的なアイデアを生み出したという例はまだないけど、人間とコラボレーションできるAmperはそれにいちばん近いだろう”、と言う。

Amperで曲を作るときには、まず、ムードと長さとジャンルを指定する。最初の作品は、数秒で返ってくる(その時間は曲の長さにもよる)。次は、人間がその曲を磨く。たとえば、特定の楽器をなくしたり、あるいは新たに加えたりする。

AmperはAPIを公開しているので、デベロッパーや企業は自分のアプリに作曲機能をもたせられる。もっと大規模な作曲も、やらせることができる。Amperの創造性はそうやって世界中に感染が広まる、とSilversteinは比喩的に言う。

でもそれは、一体どんな音楽なのだろう? 下にそのサンプルがある。SoundCloudには、もっとたくさんサンプルがある

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

手書きの内容も人工知能でデータ化する「Tegaki」の開発元が13億円を調達

%e3%82%b9%e3%82%af%e3%83%aa%e3%83%bc%e3%83%b3%e3%82%b7%e3%83%a7%e3%83%83%e3%83%88-2017-02-28-19-06-32

申込用紙やアンケート用紙など手書きのものが多いが、それを有効活用するには、まずは手書きの情報をデータ化しなければならない。Cogent Labsは、人工知能による手書きの認識サービス「Tegaki」を開発している。Cogent Labsは本日、シリーズAで総額13億円の第三者割当増資を実施したことを発表した。引受先はSBIインベストメント、トッパン・ フォームズだ。

手書き文字を読み取りと言えば、OCR(光学的文字認識)を思い浮かべる人も多いだろう。Googleドライブでも画像やPDFをアップロードするとOCRで文字データを抽出することができる。けれど、OCRでの日本語の識字率はそう高くないとCogent Labsの担当者は説明する。日本語の漢字やカタカナにはパーツが分かれている文字が多いので、OCRでの読み取りが難しいのだそうだ。Cogent Labsでは、ディープラーニングで精度の高い識字率を実現しているという。TegakiとGoogleの機能を比較したところ、Googleは約7割、Tegakiでは99%の識字率だったそうだ。

%e3%82%b9%e3%82%af%e3%83%aa%e3%83%bc%e3%83%b3%e3%82%b7%e3%83%a7%e3%83%83%e3%83%88-2017-02-28-19-06-22

Tegakiは4月下旬に正式リリース予定で、APIも用意している。クレジットカードの申込用紙やアンケートなど手書きで情報を取得している企業は多いだろう。Tegakiを利用することにより、企業はデータ入力にかけている時間と人件費を減らせるという。

今回調達した13億円は、 組織体制の強化 、Tegakiのサービス開発、次世代人工知能の研究・開発に充てる。引受先となったトッパン・フォームズは通帳や帳票といったビジネスフォームやDPS(データプリントサービス)、BPO(ビジネスプロセスアウトソーシング)などを提供していて、トッパン・フォームズとのシナジーが発揮できることに期待しているとCogent Labsは話す。

Cogent Labsの目標は「日本発の卓越した人工知能で、人々の生活の質を高めること」であり、今後文字認識サービス以外にも音声や画像認識におけるサービス開発も視野に入れているという。

Voysisは各業界の専門知識を事前に訓練された音声AIを使いやすいAPIで提供し、音声AIのTwilioを目指す

peter-cahill-voysis-1

【抄訳】
音声による人工知能は、売上増や顧客体験の向上に寄与すると分かっていても、そのセットアップは容易ではない。そんな状況を変えようとするVoysisは、自然言語の入力を解析するAIプラットホームを提供し、eコマースやエンターテインメントなどさまざまな専門分野で効果的に音声入力を利用できるようにする。Voysis自身がSiriやAlexaになるのではなく、デベロッパーがユーザー企業のお店の優秀なアシスタントや、ビデオ店の頭の良い販売員を作る手助けをするのだ。

VoysisのファウンダーでCEOのPeter Cahillは次のように語る: “Voysisは完全な音声AIのプラットホーム〔それを構築するためのプラットホーム〕だ。それを利用すれば、企業やそのさまざまな事業部門が、顧客が音声やテキストでクェリできる独自の人工知能を、迅速に立ち上げることができる”。

つまり同社が目指すのは、浅くて汎用的な音声アシスタントではなくて、ユーザーが属する業界のドメインスペシフィックな(その分野固有の)知識を持った音声AIプラットホームだ。ユーザー企業やデベロッパーはそれを、同社が提供するAPIから利用し、セットアップ時間の短縮を図れる。音声AIを、ユーザー企業がそれをわざわざ訓練しなくても、単純に短時間でセットアップできることを、同社はあくまでも目指している。最初はとくに、eコマースの顧客対応インタフェイスの提供を目指しているが、今後はいろいろな業界や業態の業務知識や音声応答パターンを集積していくつもりだ。

【中略】

IBMのWatsonなどもドメインスペシフィックなAIを提供しようとしているが、PhDのCahillには大学の研究室でニューラルネットワークや音声認識と深くつき合った15年の履歴がある。Voysisは今回、 Polaris PartnersがリードするシリーズAのラウンドで800万ドルを調達したが、その主な用途は技術チームの増員(15名から倍の30名へ)と、ボストン支社の開設だ。ユーザー企業にとって、AIの訓練を自分でやらなくてよい、という敷居の低さも、Cahillの長年のAIに関するキャリアと相まって、同社の魅力になるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

東工大の人工知能スパコンはNvidiaチップを使う

2017-02-18-nvidia-tokyotech2

GPUメーカーとして有名になったNvidiaだが、ビジネスの中心は次第に人工知能にシフトしている。その最新の成果がこの夏にも稼働する予定だ。Nvidiaは日本の東京工業大学が開発中の次世代人工知能スーパーコンピューターに心臓部となるGPUを提供する。このコンピューターは完成すれば人工知能スパコンとして日本最速となるという。

NvidiaのTesla P100はPascalアーキテクチャに基づくGPUでTSUBAME3.0と名付けられたネットワークを駆動することになる。これは現行のTSUBAME2.5の2倍のパフォーマンスだ。ただしTSUBAME2.5も引退するわけではないのでご安心いただきたい。2.5は現役マシンとしてTSUBAME3.0の能力を補完し、トータルで64.3ペタFLOPSを目指すという。3.0のパフォーマンスは47.2ペタFLOPSが予定されている。これだけの処理能力に匹敵するiPhoneを集めるとすれば途方もない山ができるかもしれない。

TSUBAME3.0は今年夏の完成を目指しており、東京工業大学における教育とハイテク研究に役立てられる。また契約を結んだ民間企業も利用できる。大学ではこの新しい人工知能に訓練を開始するが待ちきれないとしている。

〔日本版〕東京工業大学学術国際情報センターのTSUBAMEページ

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Baiduが音声アシスタントのRaven Techを買収してAI色を一層強める

img_9817-crop

Baiduがこのほど、音声アシスタントを開発している中国のスタートアップRaven Techを買収して、AIへの進出をさらに一歩前進させた。Baiduは、Ravenの技術と製品と60名のスタッフすべてを買収したことを確認した。

Baiduは1か月前に、以前Microsoftにいた、AIのエキスパートとして著名なQi Luを雇用し、COOとGroup Presidentの座に据えた。Raven Techの買収額は公表されていないが、同社はMicrosoft Venture AcceleratorとY Combinatorの出身であり、DCM VenturesやZhenfundなどのVCから1800万ドルを調達している。

Raven TechのFlowは中国のSiriと言われつつ、ビジネスとしては離陸できなかった。Tech In Asiaの指摘によると、そのアプリは中国のApp Storeで700位よりも下を一貫して低迷、一方Siriは標準中国語をサポートし、またXiaomiやBaiduのような有力企業からもライバル製品が登場していた。

Baiduによると、この買収を機に同社はデジタルアシスタントDuerや、それと関連する拡張現実製品に特化した新たな事業部門を作る。Raven TechのCEO Cheng LuはBaiduのスマートホームデバイス部門を率い、また、“新製品開発に関してDuerのチームと協働する”。Cheng Luは、Qi Luの配下になる。

BaiduのAIおよび機械学習路線は、CourseraのファウンダーAndrew Ngがそのトップであり、彼はカリフォルニアにあるBaiduの研究部門の長でもある。先月Baiduはそこへ拡張現実の研究グループを加え、さらにこの研究部門にはディープラーニングとビッグデータの研究グループも前からある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoft、ドローン、自動運転車のシミュレーター・ソフトをオープンソース化

Microsoft AIRO group on January 24, 2017.(Photography by Scott Eklund/Red Box Pictures)

Microsoftはドローン、自動運転車、その他ユーザー独自のガジェットの移動をシミュレーションできる高度な仮想現実のベータ版をオープンソースで公開した。ソースコードはGitHubから入手できる。このソフトでは物体の形状ばかりでなくドローンの運用にあたって困難な問題を引き起こす可能性がある影や反射などの要素も描写できる。レンダリングはきわめてリアルだという。

Microsoftはこのソフトが「ロボティクスの民主化」を進めることを期待している。つまり個人であれ組織であれ、ドローン・テクノロジーを実験したい場合に好適ということだ。現実世界でドローンを動かすのは自他への危険を伴う上にきわめて大量の資源を必要としがちだ。

ドローンその他の自動運転デバイスを仮想空間でテストするメリットは次のような点だろう。衝突を回避しなければならない壁などの固い物体と物体の影を見分けるのは自動運転システムにとって難しい課題になる。現実世界でドローンを動かすのは上で述べたようには非常に高価な上に、通り抜けが不可能な障害と影のように「そう見える」だけの形状を判別させるテストを現実世界で実行した場合、失敗はクラッシュを意味することになる。これはますます高価であり、また危険だ。しかし仮想世界の中では大量に失敗を繰り返すことができる。失うものは少々の時間と電気料金だけだ。

失敗を高速で繰り返すことはAIの訓練のために必須でもある。ただしAIの訓練に本当に役立つためには仮想世界はきわめてリアルに再現できなければならない。Microsoftによればこのシミュレーターは最新の高度なグラフィックス・テクノロジーを用いており、影、きらめき、陽光、霧、路上の水たまりの表面の反射など外界のディテールを精密に再現できるという。

MicrosoftのAshish Kapooはブログで「このシミュレーション・ソフトは自動運転車と飛行するドローンの双方の実験に用いることができるだけでなく、現実の世界を安全に移動する必要のあるロボットのテストに広く利用できる」と述べている。

画像: Scott Eklund/Red Box Pictures

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Dysonがシンガポールに、AIとソフトウェアの研究開発に注力した技術センターをオープン

dyson-stc-fluid-dynamics-lab-01

Dysonはシンガポールでの業務を拡大している。掃除機とスマート家電のメーカーが新しい技術センターを本日(米国時間13日)オープンしたのだ。この英国生まれの会社は新しい施設へ5億6100万ドルを投資する。この施設は会社の成長するビジョンを推し進めるために、研究開発チームが様々なハードウェアとソフトウェアのノウハウを蓄積できるようにするものだ。

もしDysonの仕事にあまり詳しくないならば、どうして掃除機の会社が「人工知能、機械学習、そしてソフトウェア開発への集中」に5億ドルもの投資を行うのかを不思議に思うかも知れない。しかしDysonは、いつでも国内清掃機器マーケットでハイテクエッジであることを強調してきた。それが最近は推し進められているというだけのことだ。そこにはロボット工学、コンピュータービジョンシステム、機械学習を使うDyson 560 Eyeロボット掃除機などが含まれている。

施設内の写真から分かるように、Dysonはその最新のプロダクトであるSupersonicヘアドライヤーに多大なエンジニアリングを投入している最中だ。また、Dysonがその電気モーターやバッテリ技術の知見を自動車の世界に広げるのではという憶測もあったが、その件に関しては会社はまだ何も発表していない。

  1. dyson-stc-reception-day-01.jpg

  2. dyson-stc-reception-night-01.jpg

  3. dyson-stc-supersonic-wall.jpg

  4. dyson-stc-performance-environmental-lab-02.jpg

  5. dyson-stc-project-room-03.jpg

  6. dys_westpark-1.jpg

    crose
  7. dyson-stc-lighting-day.jpg

  8. dyson-stc-low-voltage-lab-01.jpg

  9. dyson-stc-future-lab.jpg

  10. dyson-stc-high-voltage-lab.jpg

  11. dyson-stc-copy-right-gareth-phillips-6.jpg

    Dyson R&D by Gareth Phillips
  12. dyson-stc-fluid-dynamics-lab-01.jpg

  13. dyson-stc-copy-right-gareth-phillips-5.jpg

    Dyson R&D by Gareth Phillips
  14. dyson-stc-copy-right-gareth-phillips-3.jpg

    Dyson R&D by Gareth Phillips
  15. dyson-stc-copy-right-gareth-phillips-4.jpg

    Dyson R&D by Gareth Phillips
  16. dyson-stc-connected-studio-04.jpg

  17. dyson-stc-breakout-area-cafe.jpg

  18. dyson-stc-connected-studio-01.jpg

  19. dyson-stc-acoustic-lab-01.jpg

  20. dyson-stc-breakout-area-05.jpg

  21. dys_westpark-2.jpg

    crose
  22. dys_westpark-3.jpg

    crose
  23. dys_westpark-4.jpg

    crose

Dysonの新施設には、彼らがThe Control Towerと呼ぶ、サプライチェーンと物流のリアルタイムモニタができる設備も置かれる。これを使うことで世界的な生産と出荷がスムースに行われるようになる。そして新しいハイテクセンターはDysonのWest Park 工場の近くに位置している。同社によればこの工場では高度な自動生産ラインのおかげで、2.6秒に1台の割合でモーターが完成しているということだ。

Dysonは既に、ロボット計画のリーダーであるMike Aldredの下でロボットや機械学習に関する多くのことを行うと発表している。そして新しいハイテクセンターはその追求に役立つだろう。既にDysonは次世代ロボット掃除機の開発に取組んでいることを認めている。360 Eyeのために開発されたコンピュータービジョンやその他の技術が、より広い製品に適用されるだろうと語っている。

[ 原文へ ]
(翻訳:Sako)

MITが音声認識機能を低電力チップに収めることに成功、音声が聞こえたときだけ本体部が動き出す

google-voice-android

MITが今日(米国時間2/13)、音声認識チップの開発を発表した。その発表によると、このチップを使うと各種応用製品の音声認識処理の部分の電力消費量が90〜99%節減される。音声技術は今やモバイル製品のほとんどに実装されており、中でもとくに、Siri, Alexa, Google Homeといった音声アシスタントアプリの人気がそのニーズを急増させている。このチップによりそれらの関連回路やソフトウェア部品が大幅に単純化されそうだ。

MITの開発チームは、IoT方面のユースケースをとくに強調している。音声対応を要するそれらのデバイスの電池寿命が、“数日”のレベルから一挙に“数か月”のレベルに向上することが期待される。教授のAnantha Chandrakasanはこう述べている:

ウェアラブルのアプリケーションやインテリジェントなデバイスにおいて、音声入力が自然なインタフェイスになるだろう。それらのデバイスは小型化が求められるから、タッチやキーボードなどとは違うインタフェイスが求められる。音声機能をクラウドではなくデバイス本体に埋め込む必要があるから、低電力消費は絶対的な条件である。

このチップには“音声活動を検出する(voice activity detection)”回路があり、音声と環境ノイズを区別する。そして自分に向けられた音声を認識したら、そのときにのみ、チップ上の音声認識ハードウェアに電源が入る。

チームの一員である院生のMichael Priceが、その音声検出の部分について、やや詳しく語ってくれた:

このチップの継続的な音声認識機能の部分は、隠れマルコフモデル(hidden Markov Models(HMMs))を使っている。それは、任意の長さの音声入力を文に書き起こす。その遷移モデルは、重み付き有限状態変換器(weighted finite-state transducer(WFST))だ。そしてアコースティックモデルはフィードフォワード型のニューラルネットワークだ。従来の、ソフトウェアによる音声認識でも、同様の一般的技術が使われている。

この認識システムのモデルを、オープンソースのツールキットKaldiを使って訓練した。訓練とテストには、複数の異なる音声データ集合を用いた。われわれがテストした最大の認識システムは、語彙が14万5000語で、リアルタイムのオペレーションで7.78mWを必要とした。最小のデジタル認識系(ゼロを”oh”で表す計11語)は172μWを要した。

このチップは、常時onの低電力モードで使われることを想定した設計になっている。音声を検知したときだけ本体部分が動き出すので、音声でコントロールするウェアラブルなどに向いている。一回の充電でスマホなどよりもはるかに長期間使える、という特性も重要だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

イーロン・マスク、「脳とコンピューターの直結」を主張

2017-02-14-elon-musk-471763092

最近、ITの世界では人工知能の改良に大量の資源が振り向けられている。こうしたトレンドの中で時代に取り残されないためにはどうしたらよいだろう? TeslaとSpaceXのCEO、イーロン・マスクによれば「コンピューターと人間がさらに一体化すること」だという。

マスクは以前にも脳とコンピューターのインターフェイスが持つ大きな可能性を論じ、 「ニューラル・レース」〔SF作家、イアン・M・バンクスの創作に登場する脳・コンピューター・インターフェイス〕についても触れている。今週月曜にUAE〔アラブ首長国連邦〕が主催するWorld Government Summitに登壇したマスクはこの点をさらにはっきり述べた。マスクによれば人類は近い将来コンピューターとの一体化をさらに進めることになるという。

デュバイでのマスクの講演は、昨年のRecodeのCodeカンファレンスでの発言を想起させる。マスクはここで「ニューラル・レース」について触れ、こうした脳に埋め込まれたデバイスがコンピューターと人間を直結させ、思考でコンピューターを操作できるようになるとした。これにより現在のキーボードやマウスを利用するインターフェイスに比べて脳とコンピューターを結ぶ帯域幅は大きく拡大し、逆にレイテンシーは減少するという。CNBCによれば、マスクはデュバイの講演で「われわれは人間と人工知能を共生させるこうしたインターフェイスを必要としている。このような方向で〔人工知能につきまとう〕コントロール問題、有用性問題を解決することができるかもしれない」と述べた。

AIの有用性は単に特定の問題を解決する能力だけでなく、その処理速度の速さにもある。この場合、AIがネットワークを通じて他のデバイスと相互作用するスピードが重要だ。人間がテキストを読み書きするのにに比べて、コンピューター間の情報転送速度は1兆倍も速い。

マスクは「AI全般が持つ可能性は別としても、自動運転テクノロジーだけでも社会を根本的に変革するような影響を与える」と強調した。マスクよれば、自動運転テクノロジーは「人間にとって最大の雇用者になる」という。つまり自動運転が普及することによってどんな職が新た生まれるか、既存の職にどんな影響を及ぼすかを検討することが当面最大の課題だとした。

この点で、脳とコンピューターを直結するニューラル・インターフェイスは一つの解決の方法を示唆する。人間の脳は、さまざまな面で、現在最大のコンピューター・システムの能力を上回っている。マスクは「脳とコンピューターの間にある溝を埋めるようなインターフェイスが実用化されれば人類とコンピューターの間に起こるかもしれない齟齬を食い止めるために役立つだろう」という。rニューラル・レース・テクノロジーを実用化するための研究を続けているとマスク自身が繰り返し述べてきたのは興味ある点だ。

画像: DAVID MCNEW/AFP/Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AmazonのRekognition APIがあなたの年齢を当てる、いや…、当たらない?!?!

screen-shot-2017-02-10-at-10-30-27-am

自分は(たぶん)自分の歳を知っている。友だちに、自分の歳を当てさせることもできる。それになんと、Microsoftも、あなたの歳を当てられる。でもいちばん重要なのは、毎日買い物をするAmazonに、自分の歳を知ってもらうことじゃないかな。

これまでのところ、Amazonが自分の歳を何歳だと思っているか、知るためには、リコメンデーションの品目を見るしかなかった。昨日(きのう)なんかぼくは、一日の大半が、大量の短編SFを調べることでつぶれた。Amazonが、ぼくがそれを必要としている、と固く信じているからだ。そう、Amazonは、ぼくがテクノロジーの好きなミレニアル世代であることを、見事に当てているのだ。

でもこれからは、こんな、過去の事象に頼るテクニックは要らなくなる。AmazonのRekognition APIを作っている連中が今日(米国時間2/10)公開した便利な機能は、そこへ自分の写真をアップロードすると、年齢を当ててくれる。今日はたまたま、友だちの誕生日なので、Amazonのそのツールと、MicrosoftのHow-Old.netと、人間によるクラウドソーシングに、当て比べをやらせてみた。

まずAmazonだ — このWebアプリケーションは、友だちの年齢を26歳から43歳のあいだ、と推定した(上図)。彼の本当の年齢は26歳よりもずっと若いから、嬉しい結果ではない。性別と幸福状態には“appears”(〜〜と見える、思われる)という留保が付いているが、正しい確率は99.9%になってる。ぼくも、自分が43歳と思われないためには、つねに作り笑いでスマイルしているべきだろう。

screen-shot-2017-02-10-at-10-30-50-am

Amazonは大失態だったが、それでもMicrosoftよりはましだ。MicrosoftのHow-Old.netツールは、友だちの年齢を30歳と言った。参ったね。

三者の中では、人間がベストだった。ランダムに選んだ人たちに聞いてみた結果では、答の平均値が“22歳の半ば”だった。本当は、今日22歳になったばかりだから、6か月の誤差がある。

参照データを得るために、今度は自分の、顔に光がよく当たった写真でテストしてみた。やはり、誤差は大きい〔John Mannes, 1995/11/14生; 昨年まで本誌インターン〕。Microsoftは、ぼくの年齢を27歳と言ったが、ぼくの本当の年齢は友だち〔22歳〕よりも若いんだけどね!。

ご自分の写真を、ここここで試してみよう。その結果、その後のあなたの生活に起きるであろうさまざまな危機も、ご遠慮無く共有してくださってけっこうだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MicrosoftのCortanaが、電子メールからリマインダを作成してくれるようになった

cortana-reminders

仮想アシスタントの戦いで、MicrosoftのCortanaが新たな得点を挙げた。本日(米国時間2月9日)、明示的な指示を行わなくても、Cortanaがリマインドを行うことを可能にする新しい機能が公開された。具体的には、今やCortanaは、電子メールの中であなたが行った約束について、リマインダーをポップアップすることで思い出させてくれるのだ。

今回提案されたリマインダ機能が、初めてアナウンスされたのは1年前だった、開発はMicrosoftの研究部門と連携して行われていた。動作には機械学習が用いられていて、Cortanaがタスクに対するタイムリーな助言を行うために電子メールのスキャンも行われる。もちろんこの動作のためには利用者の許可が必要だ。

コミットメント-1

Microsoftが以前述べていたところによれば、スキャン自体はローカルで実行される。一度ユーザーがリマインダーの設定に同意すれば、リマインダーの詳細がMicrosoftのサーバーに送られるようになる。

特定の時刻(例えば「午後6時」とか)を指定した文章だけを探すのではなく、Cortanaは私たちが約束を行う際に用いる言い回しも理解することができる。例えば、「その日の終わり」とか「EOW(週末)」といった略語も拾うことができるのだ。

この機能を使用するためには、ただいつも通りに電子メールを利用すれば良いとMicrosoftは言っている。あなたが何らかの約束をしたとみるや、Cortanaが自動的に対応する。もし期限を指定したならば、Cortanaが期日に先立って通知を行い、それをアクションセンターに保存する。他のリマインダーは、Cortanaホームにも表示される、とMicrosoftは指摘している。

コミットメント-2-1024x683

Windows Insiderプログラムのユーザーたちは、本日の公開に先立ち、この積極的なリマインダーをテストすることができていた。この試験期間中に、いくつかの拡張機能を追加したと、Microsoftは述べている。例えば、リマインダーの元になった電子メールへのリンクを張ったり、期日前に通知を行ったりするといったことだ。また、提案がより正確になるように、電子メール内容の理解能力も改良された。

このリマインダー機能は現在米国内のWindows10上で提供されていて、iOS版とAndroid版も「今後数週間で」提供される。Outlook.comおよび、Office 365の仕事と学校のメールアドレスが、現在サポートされているが、他のメールサービスも将来的に追加される。

[ 原文へ ]
(翻訳:Sako)

Rethink Roboticsから新しいロボット訓練プラットフォーム―誰でも簡単にSawyerに新しい仕事を教えられる

2017-02-08-schramberg-sawyer-rethink

職場でロボットは欠かせない戦力だ。しかし非常に簡単な作業以上のことをやらせようとすると、専門家の助けを借りなければならなかった。Rethink Roboticsは自社のSawyerロボットを誰でも簡単に再訓練できるプラットフォーム、Intera 5を発表した。

現在すでに多くのロボットは誰でもある程度の訓練が可能だ。たとえばロボットのアームを握ってやらせたい作業のとおりに動かすなどだ。するとロボットのコントロールソフトウェアがそのとおりにプログラミングされる。しかし多少でも複雑ないし精密な作業のプログラミングは一気に難しくなっていた。

たとえばこういった動作だ。まずロボットが部品をつかむ。定位置にセットする。ここでもし赤いエラーランプが点灯したら部品を定位置から外す。新しい部品を定位置にセットする。不良部品を1.5メートル離れた場所の箱に落とす。処理した部品の製造番号を記録する。さらに、もし部品のストックがなくなったらこれこれの動作、し組み立てコンベアベルトに何も流れてこないときはこれこれの動作をする。

このように何段にわたって複雑に条件分岐する動作を処理できるロボットシステムは少ない。できるとしてもロボティクスに詳しい専門家によるプログラミングが必要になるだろう。たとえば小規模なラインで1台のロボットにプロダクト別に異なる動作をさせたいといった場合があるだろう。しかし訓練の難しさはロボットの有用性に大きな制限を加えていた。

Intera 5はラインの作業員がロボットの動作を簡単に変更し、新しい新しい動作を追加できる。これには特に難しい訓練は必要ない。まして工学の学位などはいらない。

intera-5

このプラットフォームでは既存の部品を使って動作をツリー状に構成していけばよい。GUIは鮮やかな色で塗り分けられたシンプルなデザインで非常に分かりやすい。「もし…なら…する」、「スキャンする」、「動かす」、「つかむ」、「置く」、「素早く」、「そっと」などの動作部品が利用できる。ロボット自身にコンピューター・ビジョンが内蔵されているため、ロボットの腕の位置をいちいちミリメートル単位で設定する必要はない。ロボットはデスクトップ・パソコンの画面から同様のUIを利用して直感的にプログラミングできる。

intera-5-screen-cap

Intera 5を利用することでロボットに必要に応じてまったく新しい作業をさせたり、ワークフローの変更を即座に反映させ作業の一部を変更するなどが可能になった。これまでオートメーションがあまり進んでいなかったスモールビジネスの現場にもロボットが魅力的なツールとなるはずだ。

既存のSawyerロボットについても近くIntera 5が利用できるようアップデートが行われるという。今後出荷されるロボットにはIntera 5による訓練能力がデフォールトで備わる。

〔日本版〕Rethink RoboticsのSawyerロボットについては住友重機械工業株式会が日本での独占販売契約を締結しているという。SawyerロボットのGE Lightingにおける導入例。Sawyerロボットのディスプレイに大きな目が表示され、ロボットの動作を予告する動きをしているのが興味深い。

[原文へ]

(翻訳:滑川海彦@Facebook Google+