SlackがMissionsを買収してルーチン的なタスクの統合を支援

Slackは有料の企業ユーザーが増えているので、彼らの仕事に役に立つような他サービスの統合が、容易にできるための方法を模索している。

今日(米国時間7/17)同社は、Robots and PencilsのMissionsを買収したことを発表した。これによりSlackのユーザーは、コードを書かなくても、毎日の仕事の単純なルーチンを自動化できるようになる。買収の条件は、公表されていない。

有料ユーザーは、Slackにいろんなものを統合することが好きだ。Slackのアプリケーションディレクトリを見ると、今すでに1500あまりのアプリ/アプリケーションをSlackの中から使える。同社によると、企業ユーザーの94%がほかのアプリとそれらの統合を利用し、64%は独自のアプリを作っている。しかし、非技術系の部署にとって、統合は簡単な仕事ではない。そこでMissionsは、ビジュアルな流れによってその過程を単純化する。

これまでユーザーの多くは、Slackのチャットの中で「××を使って○○しよう」という会話をし、Slackをいったん終了してから××を立ち上げていた。Missionsを使うと、何度も同じことをやるプロセスをSlackの中からできるための、ワークフローを作れる。

よくやるタスクといえば、たとえば新人のオリエンテーションだ。新入社員に記入すべきフォームを教え、彼らが会うべき人を教え、彼らがその日その週内に完了すべき仕事を教える。また人事などでは、人の採否決定〜通知のプロセスを頻繁に繰り返すことが多い。頻繁に繰り返すといえば、社内的なチケット発行なんかもそうだ。

Missionsの現在のユーザーは向こう数か月は無料で利用できる。その後SlackはMissionsを本格的に統合する。では、Slackの中でMissionsを使えるようになるのはいつか? 同社によると、詳細がはっきりするのは“今年の終わりごろ”、という。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Appleが機械学習のチームとSiri/AIのチームを統一、AIの適用を全社一本化

Appleは、Core MLとSiriのチームをひとつのチームにまとめた新しいAI/MLチームを作り、それをJohn Giannandreaの統率下に置くことにした。

Appleの今朝(米国時間7/10)の確認によると、同社の人工知能と機械学習を合わせたチームは、引き続きSiriを担当するとともに、Googleに8年在籍して機械学習とリサーチと検索のチームを率い、今年Appleに来たGiannandreaがそのトップになる。Googleの前に彼は、 Metaweb TechnologiesとTellmeを創業した。

SiriとCore MLのチームの内部的構造は変わらないが、トップがGiannandreaになる。Apple全体の構造の中ではチームは全社横断型の組織として、開発ツールや地図、Core OSなど、さまざまなプロジェクトに奉仕する形になるだろう。基本的に今ML(およびAI)は、どの分野でも必要とされている。

その昔Giannandreaは、Appleのチームメンバーが1989年に作った伝説の企業General Magicのシニアエンジニアだった。創業者には、Andy Hertzfeld, Marc Porat, Bill Atkinsonらがいたが、会社は結局失敗し、そのあとに革新的な技術の数々を遺した。たとえば小型のタッチスクリーンや、ソフトウェアモデムなどだ。General Magicは天才たちのインキュベーターとしても機能し、Susan Kare, Tony Fadell, Andy Rubin, Megan Smith, そしてAppleの今の技術担当VP Kevin Lynchらはみなここから巣立った。

Giannandreaは、TechCrunch Disrupt 2017でスピーチした。結果的に、そのタイミングは完璧だった。下のビデオを、ご覧頂きたい:

AppleのSiriとMLのチームは、多くの共通の目標を共有しているが、出自は違う。しかし今やAppleのありとあらゆるプロジェクトでAIがメインの機能だから、一人の責任者の下に全体をまとめるのが理にかなっている。Siriのこれまでの、行きあたりばったりのようなやり方も、Appleが地図のときのような本格的な肩入れをしていけば、修正されるだろう。また、ユーザーデータのプライバシーの維持保全という問題も、これまでのようにアプリ別分野別に個別に取り組むより、全社的総合的なAI/MLチームの担当管理下に置く方が有利、という計算も働いただろう。Create MLのような最近のリリースは、AppleのMLチームが内部的にやっていることの対外的表現だが、それも現状ではあまりにも断片的だ。そして新たな総合的組織を作ることは、統一に向けてのメッセージだ。

地図のときと同じく、今度のAI/MLチームも、クラウド上の一般的なコンピューティングにフォーカスする側面と、ローカルなデバイス上のデータ中心型のコンピューティング、という二面性を持つことになるだろう。人びとの手の中には今、10億あまりのAppleデバイスがあって、それらがさまざまなデータ処理を行っている。そう考えると、Appleがこれから築くものは、未曾有の、そして世界最大の、AIをメインとするエッジコンピューティングネットワークだ。Giannandreaが関心を持つにふさわしいチャレンジ、と言えるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

この夏のDIYプロジェクトはAIが落書きを作りだすカメラがいいかも(コードはオープンソースだ)

長い夏の夜は、昔の回路基板などを取り出してきて埃を払い、何かを作り始めるのに適している。でもあまりアイデアが閃かない人は、アーチスト兼エンジニアのDan Macnishが作った、AIと感熱プリンターとRaspberry piと少々のPythonとGoogleのQuick Drawのデータセットを使う落書きカメラはどうだろう。

“ニューラルネットワークにオブジェクトを認識させて遊んでいたとき、これでポラロイドを作ってみたい、と思いついた。その‘ポラロイドふうカメラ’は、撮った画像を自分で解釈して、実物に忠実な写真ではなく漫画をプリントアウトするんだ”、とMacnishはブログに書いている。そのプロジェクトの名は、Draw This(これを描け)だ。

そのためにMacnishは、Googleのオブジェクト認識ニューラルネットワークと、ゲームGoogle Quick, Draw!のために作ったデータセット(落書き集)を利用した。この二つのシステムをPythonのコードで結びつけたMacnishの作品は、現実の画像をAIが認識し、Quick, Draw!のデータセットの中のそれにもっとも合う落書きをプリントアウトする。

しかし、出力の落書きはデータセットに限定されるので、カメラが“見た”ものと、その写真に基づいて生成されるものとの間に、不一致も生ずる。

Macnishは曰く、“写真を撮って、漫画を出力する。それは、カメラが実際に見たものの最良の解釈だ。でもその結果は、いつも意外だ。健康食のサラダの写真が、大きなホットドッグになることもある”。

実際に試してみたい人のために、Macnishはこのプロジェクトをビルドするために必要なコードとインストラクションをGitHubにアップロードしている。

画像クレジット: Dan Macnish

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

iOS上のAmazon Alexaアプリで音声コントロールが可能に

もう2年以上前にも思えるが、AmazonがAlexaのAndroidアプリに音声によるコントロールを持ち込んだのは実はやっと今年の初めだ。これによってサードパーティのモバイルデバイスにも、Amazonが進出していけるか、と思われた。そしてそのときは、同じ機能性を“もうすぐ”iPhoneにも導入する、と発表された。そして、そのもうすぐが今日(米国時間6/26)になった。

iOS上にAmazonのスマートアシスタントをダウンロードした者は今日から、そのアプリに訊いたり頼んだりできるようになる。もちろんそれはネイティブアプリではない(Appleは自分のスマートアシスタントをとても愛しているのだ)。そこで対話は、ボタンをタップしないと始まらない。

そしてそれ以降は、Alexaに質問をしたり、音楽を聴いたり、スキルにアクセスしたり、スマートデバイスをコントロールしたりなど、Alexaの‘芸’を楽しめる。天気予報やスポーツ、カレンダーなどの問い合わせに対しては、ビジュアルな表示も出る。このアップデートは“数日後から”、無料でダウンロードでき、利用できる。

スマートアシスタントの競争でAmazonには不利な一面がある。ビッグスリーの中でAmazonだけは、独自の、そしてメジャーな、モバイルOSを持っていない。MotorolaやHuaweiなどAndroidのハードウェア開発者とパートナーして、なんとか入り込んでいるが、でもGoogleとAppleは彼ら独自のスマートアシスタントのエコシステムを育てる気だ。

今後モバイル市場で何か大きな策を打ち出さないかぎり、Amazonにとってはアプリをできるだけ多くのiOSとAndroidハンドセットに載せていくことが、モバイル進出の最良の手だ。音声コントロールが加わったことによって、モバイル上のAlexaは突然、Echoデバイスをセットアップするだけのアプリではなくなったのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoftが強化学習のスタートアップBonsaiを買収して自律型システムの研究開発を推進

もしも、すべてのテクノロジー大企業が現時点で合意しているたったひとつのことがあるとするなら、それは、人工知能と機械学習が彼らの事業が今後進むべき道を指し示している、ということだ。いや、実際にMicrosoftは、バークリーのAIスタートアップBonsaiを買収しようとしている。大きなM社はこの小さなB社を、同社のAIへの取り組みの中心に据えるようだ。

Bonsaiは、強化学習(reinforcement learning)が専門だ。それは主にシミュレーションの分野で、一種の試行錯誤のようなやり方でシステムを教育する。この学習方法は、自律的なシステムを、特定のタスクが完全にできるまで訓練するために利用できる。Microsoftによると、この買収によって、同社がこれまでAzureのクラウドプラットホームでやっていた研究を、前進させることができる。

Microsoftの企業担当VP Gurdeep Pallが、発表声明の中で言っている: “AIを誰でも便利に利用できるようにするためには、開発の障害を取り除き、すべてのデベロッパーに力をつけ、機械学習のエキスパートでなくてもAIデベロッパーになることが重要だ。Bonsaiはそのために大きな進歩を成し遂げており、Microsoftはこの仕事をさらに前進させることに積極的に関わっていく”。

Microsoftは、この4歳のスタートアップを支援してきた複数の高名な企業のうちの一社だ。Crunchbaseによると、昨年はABB, Samsung, Siemensなどの助力で760万ドルのラウンドを調達し、総調達額が1360万ドルに達した。今回の買収事案は、Microsoftが最近演じた、コードホスティングツールGitHubの派手な買収劇別記事)に続くものだ。

Bonsaiの協同ファウンダー/CEO Mark Hammondは、ブログ記事でこう述べている: “私たちの前方には、インテリジェントで自律的なシステムを動かす人工知能を作って運用するために必要なツールと技術で、世界中の企業とデベロッパーに力をつけていく、大きな機会が開けている。そう感じるのは、私達だけではない。今日は、MicrosoftがBonsaiを買収して、この共通のビジョンの実現の加速に力を貸すことに、私たちは大いに勇気づけられている”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

人間の脳とロボットをつないで、失敗を未然に防ぐシステム

ロボットに壊滅的なことをしないよう教えるにはどうしたらよいか? 言葉やプログラムで命令を与えることもできるが、人間の脳を見て苦痛の兆候を感じ取り、自らを止めさせる方法もある。MITのロボティクス研究所が作った新しいシステムは、人間の脳とつないでロボットに作業の指示を出す。

初期のシステムは実にシンプルだ。作業ロボットのBaxterには頭皮上脳波計と筋電計がつながっていて、ロボットがやってはいけないことをすると、人間が手を振るなどの身振りでやめさせる。決められた仕事——ドリルで穴を開ける等——をこなすことのできるロボットが、慣れない状況に遭遇したとき、すべきことを人間が身振りで指示することもできる。

「筋肉と脳の信号を両方を見ることによって、人間の自然な身振りを解釈して、何がおかしくなったかをすばやく判断できる」と博士候補生のJoseph DelPretoは語った。「こうすることで、人間は人間に対するのと同じようにロボットとコミュニケーションがとれる」

このシステムでは、身振りや感情的反応などの微妙なニュアンスを用いるため、ロボットを訓練して障害のある人とやりとりをしたり、懸念や危険を言葉で言われる前に察知して、事故を防ぐこともできる。これによって作業員は、何かを壊す前にロボットを止めたり、作業が始まる前にわずかな変更をロボットに理解させたりできるようになる。

テストでは、Baxterに飛行機胴体にドリルで穴をあける訓練をした。作業内容はときどき変更され、近くにいる人間が穴の位置の変更を身振りでロボットに教える。こうすることで、現在の作業をしている最中に、新しい作業を教えることができる。しかも、ここで人間の側はプログラミング自体には関わることがなく、ロボットに右か左かを教えるだけだ。いちばん重要なことは何か? 機械とつきあうために人間が特別な考え方をしたり、自分を訓練したりする必要がないことだ。

「このアプローチがすばらしいのは、ユーザーに決められた考え方を教える必要がないことだ」とDelPretoは言った。「機械が人間に寄り添う。その反対ではない」

チームはこの成果を、Robotics: Science and Systems (RSS) カンファレンスで発表する。

[原文へ]

(翻訳:Nob Takahashi / facebook

サッカーのゲームをテーブルの上の拡張現実の3D映像で見る

ワールドカップのシーズンなので、機械学習の記事もフットボールを取り上げないわけにはいかない。その見事なゲームへの今日のオマージュは、試合の2Dビデオから3Dのコンテンツを作り、すでに拡張現実のセットアップのある人ならそれをコーヒーテーブルの上でも観戦できるシステムだ。まだそれほど‘リアル’ではないが、テレビよりはおもしろいだろう。

その“Soccer On Your Tabletop”(卓上サッカー)システムは、試合のビデオを入力とし、それを注意深く見ながら各選手の動きを追い、そして選手たちの像を3Dモデルへマップする。それらのモデルは、複数のサッカービデオゲームから抽出された動きを、フィールド上の3D表現に変換したものだ。基本的にそれは、PS4のFIFA 18と現実の映像を組み合わせたもので、一種のミニチュアの現実/人工ハイブリッドを作り出している。

[入力フレーム][選手分析][奥行きの推計]

ソースデータは二次元で解像度が低く、たえず動いているから、そんなものからリアルでほぼ正確な各選手の3D像を再構成するのは、たいへんな作業だ。

目下それは、完全にはほど遠い。これはまだ実用レベルではない、と感じる人もいるだろう。キャラクターの位置は推計だから、ちょっとジャンプするし、ボールはよく見えない。だから全員がフィールドで踊っているように見える。いや、フィールド上の歓喜のダンスも、今後の実装課題に含まれている。

でもそのアイデアはすごいし、まだ制約は大きいけどすでに実動システムだ。今後、複数のアングルから撮ったゲームを入力にすることができたら、それをテレビ放送のライブ中継から得るなどして、試合終了数分後には3Dのリプレイを提供できるだろう。

さらにもっと高度な技術を想像すれば、一箇所の中心的な位置からゲームを複数アングルで撮る/見ることも可能だろう。テレビのスポーツ放送でいちばんつまんないのは、必ず、ワンシーン==ワンアングルであることだ。ひとつのシーンを同時に複数のアングルから自由に見れたら、最高だろうな。

そのためには、完全なホログラムディスプレイが安く入手できるようになり、全アングルバージョンの実況中継が放送されるようになることが、必要だ。

この研究はソルトレイクシティで行われたComputer Vision and Pattern Recognitionカンファレンスでプレゼンされた、FacebookとGoogleとワシントン大学のコラボレーションだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleの翻訳結果が‘字義通りだけど無意味’なので警官の捜索が憲法違反に

外国語の機械翻訳がとても便利であることは確かだが、どこかへの行き方やおすすめのランチ以上の話題になると、その浅さが現実的な障害になる。そしてそれが、法律や基本的人権の問題になると、“まあまあの翻訳”では役に立たない、とある判事が裁定した。

その判決(PDF)にそれほど重大な意味があるわけではないが、翻訳アプリは今や法曹の世界でも使われ始めているので、その今後の正しい進化のためにも、気にする必要があるだろう。今は幸いにも多言語社会になっているが、しかし現在および短期的な未来においては、異なる言語間の橋渡しがどうしても必要だろう。

その裁判では、Omar Cruz-Zamoraという名前のメキシコ人がカンサス州で警官に、道路脇への停車を命じられた。警官たちが彼の同意のもとに車の中を調べると、大量の覚醒剤やコカインが見つかり、当然ながら彼は逮捕された。

でも、ここからが問題だ。Cruz-Zamoraは英語が話せなかったので、車の中を捜索する同意はGoogle Translateを介する会話によって得られた。法廷は、その会話が十分に正確ではないので、“当事者の自発的かつ了解のもとに”得られた同意を構成しない、と見なした。

アメリカの憲法修正第4条は、不合理な捜索や押収を禁じている。そして正当な理由がない場合公務員は、Cruz-Zamoraが、車内の捜索を断ってもよいことを理解していることを必要とする。会話からは、その理解が明確でなく、一貫して両者は、相手の言っていることの正しい理解に失敗している。

それだけでなく、アプリが提供した翻訳は、質問を十分に正しく伝えていない。たとえば警官は英語から翻訳されたスペイン語で“¿Puedo buscar el auto?”、と質問している。その文字通りの意味は、“車を見つけてもよいですか”に近く、“車を捜索してもよいですか”にはならない。Cruz-Zamoraがその“字義通りだが無意味な”(←裁判長の言葉)翻訳結果から、車の捜索に同意するかという本当の質問を類推できた、という証拠はない。彼自身に選択の権利があることすら、理解しなかったかもしれない。

同意が無効なので車の捜索は憲法違反となり、Cruz-Zamoraの告訴は取り下げられた。

Google Translateなどのアプリでは同意が不可能、という意味ではない。たとえばCruz-Zamoraが自分でトランクやドアを開けて捜索をさせたら、それはたぶん同意を構成しただろう。しかし、アプリを使った対話が正確でないことは、明らかである。これは、英語の話せない人を助けたり調べるためにパトロールしている警官だけの問題ではなく、法廷の問題でもある。

機械翻訳サービスのプロバイダーは、その翻訳がほとんどの場合に正確だ、数年後にはとても難しい場合をのぞき人間翻訳者をリプレースする、とわれわれに信じさせようとしているかもしれない。しかし今回の例が示すのは、機械翻訳がもっともベーシックなテストに失敗することもありえる、ということだ。その可能性があるかぎり、私たちは健全な懐疑主義を持ち続けるべきだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのTranslateアプリがインターネット版と同じく機械学習の使用へ(全59言語)

GoogleのTranslateアプリは、iOSでもAndroidでも、現状ではインターネットにアクセスした方がオフラインで使うより結果が断然よろしい。その理由は、オフラインの翻訳は機械翻訳の古いテクニックであるフレーズ(語句)ベースの翻訳であるのに対し、オンラインでは最新の機械学習によるシステムを利用しているからだ。しかしそれが今日(米国時間6/12)から変わり、TranslateアプリではオフラインのNeural Machine Translation(NMT)が59の言語をサポートする。

今日はまだ、少数のユーザーがそのアップデートを体験できるだけだが、数週間以内に全ユーザーに展開される予定だ。

サポートされる言語はとても多くて、自分の好きなのだけ挙げてもしょうがないから、ここではそのすべてをご紹介しよう:

Afrikaans, Albanian, Arabic, Belarusian, Bengali, Bulgarian, Catalan, Chinese, Croatian, Czech, Danish, Dutch, English, Esperanto, Estonian, Filipino, Finnish, French, Galician, Georgian, German, Greek, Gujarati, Haitian, Creole, Hebrew, Hindi, Hungarian, Icelandic, Indonesian, Irish, Italian, Japanese, Kannada, Korean, Latvian, Lithuanian, Macedonian, Malay, Maltese, Marathi, Norwegian, Persian, Polish, Portuguese, Romanian, Russian, Slovak, Slovenian, Spanish, Swahili, Swedish, Tamil, Telugu, Thai, Turkish, Ukrainian, Urdu, Vietnamese and Welsh(アフリカーンス語、アルバニア語、アラビア語、ベラルーシ語、ベンガル語、ブルガリア語、カタルーニャ語、中国語。クロアチア語、チェコ語、デンマーク語、オランダ語、英語、エスペラント語、エストニア語、フィリピン語、フィンランド語、フランス語、ガリシア語、ジョージア語、ドイツ語、ギリシャ語、グジャラート語、ハイチ語、クレオール語、ヘブライ語、ヒンズー語、ハンガリア語、アイスランド語、インドネシア語、アイルランド語 、イタリア語、日本語、カンナダ語、韓国語(朝鮮語)、ラトビア語、リトアニア語、マケドニア語、マレー語、マルタ語、マラーティー語、ノルウェー語、ペルシャ語、ポーランド語、ポルトガル語、ルーマニア語、ロシア語、スロバキア語、スロベニア語、スペイン語、スワヒリ語、スウェーデン語、タミール語、テルグ語、タイ語、トルコ語、ウクライナ語、ウルドゥー語、ベトナム語、ウェールズ語)。

これまでは、ハードウェアの能力の限界などにより、スマートフォンの上でディープラーニングのモデルを動かすことはできなかった。しかし最近のハードウェアとソフトウェアの進歩により、その問題は克服され、またGoogleやMicrosoftなどはモデルを小さく圧縮して使う方法を見つけた。Googleの場合、それは一言語につき30から40メガバイトになる。

なおMicrosoftも今年の初めに、同社のTranslatorアプリに同種の機能を発表した。ただし当面それは、対象言語が1ダースぐらいだ。

画像クレジット: TechCrunch

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ディープラーニング専用チップのHailoが$12.5Mを調達、従来型CPUの数倍の性能を達成

これまであまりにも長く、チップは退屈な話題だった。でもでディープラーニングというコンピューティングの革命のおかげで新しい市場が開け、スタートアップがディープラーニングとモデルの計算を加速する専用チップを作って、売ることができるようになった。イスラエルのHailoもそんなスタートアップのひとつで、同社は組み込みデバイス用のディープラーニングチップを作っている。同社は今日(米国時間6/5)、シリーズAで1200万ドルの資金を調達した。

投資家はイスラエルのクラウドファンディングプラットホームOurCrowdのほか, Maniv Mobility, Next Gear, それに複数のエンジェル投資家で、その中にはHailoの会長Zohar Zisapel, Delek MotorsのGil Agmonらがいる。

これでHailoの調達総額は1600万ドルになるが、資金はもっぱら今後のディープラーニングプロセッサーの開発に充てられる。同社の予測では、最初の製品のサンプルを市場に出せるのが2019年の前半だ。それらのチップは主に、ドローンや自動車、各種スマートホーム製品、カメラなど多様なデバイスの、組み込みAIアプリケーションを駆動する。

しかしHailoの主力市場は自動車産業だ。その意味では同社は、最近Intelが買収した同じくイスラエルのMobileyeの後を追う形だ。

HailoのCEO Orr Danonはこう述べる: “これまでのプロセッサーのアーキテクチャは70歳の老人で、今日のディープラーニングやAIの処理ニーズに適していない。Hailoはプロセッサーの革命的なアーキテクチャにより、ディープラーニングの処理を数倍速くする。われわれはコンピューターのアーキテクチャの基本要素であるメモリーとコントロールとコンピュートと、それらの間の関係を、完全に新しい設計にした”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、国民の反発を受け軍との契約を解除へ

議論を呼んでいるGoogleの米軍との契約は、内外からの反発を受け来年以降の更新はなくなりそうだ。Gizmodoが報じた。この契約自体はとりたてて嫌なものでも実入りのいいものでもなかったが、 同社にとって政府の仕事を増やすための大切な足掛かりだった。

Project Mavenとして知られるこのプログラムは、Googleが軍との共同作業によって、紛争地域をドローンで撮った極秘映像などの画像分析を行うものだ。

少数だが主張の強いある従業員グループは、事実上戦争に直接参加するこの行為はお馴染みの(しかし廃れる可能性もある)”Don’t be evil” のモットーに反すると繰り返し糾弾した。何千人もの従業員が、プロジェクトの終了を求めて署名し、抗議の退社をしたものも何人かいた。

Should AI researchers kill people?

しかし、それ以上に打撃だったのはGoogleに対する世論だ。かつて同社はこのプロジェクトについて、小規模であり実質的にはオープンソース・ソフトウェアの管理に協力しているだけだと言ったが、世間からの当然の反応は「それならなぜやめないのか?」だった。

明快な答は、これは小さなことではなく、些細なサポート作業だけではないということだ。事実、過去数カ月の報道によると、Mavenは政府との他の契約を獲得するきっかけとなるパイロットプロジェクトらしいことがわかった。

ゴールの一つは、機密取扱者の人物調査の手続きを早めてデータのアクセスを得ることで軍関連事業を改善することだ。ペンタゴン高官との約束は、ありふれたAI関連作業とはかけ離れている

Gizmodoの情報筋によると、Google CloudのCEO、Diane Greeneは今日のミーティングで、反発があまりにも大きいため同社の軍関連作業の優先度が変更されたことを社員に伝えた。

Project Mavenの終了によって、Googleの軍および政府との関わりが大きな影響を受けるかどうかは未だに不明だ。あの機密情報利用資格が無駄になるのはもったいない、と思っているマネジャーたちもいることだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

Nvidiaで生まれた怪獣HGX-2はHPCやAIのサーバーを単一アーキテクチャでまかなう

Nvidiaが昨日(米国時間5/29)発表したモンスターHGX-2は、ギークの夢の実現だ。それはクラウドサーバー専用機と称され、しかもハイパフォーマンスコンピューティングと人工知能の要件をひとつの強力なパッケージで満足させている。

まず、誰もが気になる仕様から。プロセッサーは16x NVIDIA Tesla V100 GPUsで、処理能力は低精度のAIで2ペタFLOPS、中精度なら250テラFLOPS、最高の精度では125テラFLOPSだ。標準メモリは1/2テラバイトで、12のNvidia NVSwitchesにより300GB/secのGPU間通信をサポートする。これらにより、総合性能は昨年リリースされたHGX-1のほぼ倍になる。

図提供: Nvidia

NvidiaのTeslaデータセンタープロダクトを担当するマーケティングマネージャーParesh Kharyaによると、これだけの通信スピードがあれば、複数のGPUを一つの巨大なGPUのように扱うことができる。“それによって得られるのは、膨大な処理能力だけでなく、1/2テラバイトのGPUメモリを単一のメモリブロックのようにアクセスできる能力だ”、と彼は説明する。

図提供: Nvidia

残念ながらこのボックスをエンドユーザーが直接買うことはできない。売り先はもっぱら、ハイパースケールなデータセンターやクラウド環境をエンドユーザーに提供する、インフラのプロバイダー、いわゆるリセラーたちだ。これによりリセラーは、ワンボックスでさまざまなレンジ(幅)の精度を実現/提供できる。

Kharyaはこう説明する: “プラットホームが統一されるので、企業やクラウドプロバイダーなどがインフラを構築するとき単一のアーキテクチャだけを相手にすればよく、しかもその単機がハイパフォーマンスワークロードの全レンジをサポートする。AIやハイパフォーマンスなシミュレーションなどで、各ワークロードが必要とするさまざまなレンジを単一のプラットホームで提供できる”。

彼によると、このことがとくに重要なのが大規模なデータセンターだ。“ハイパースケールな企業やクラウドプロバイダーでは、スケールメリットを確実に提供できることがきわめて重要だ。そのためにも、アーキテクチャがバラバラでないことが有利であり、アーキテクチャが統一されていればオペレーションの効率も最大化できる。HGXを使えば、そのような単一の統一的プラットホームへ標準化することが可能だ”、と彼は述べる。

そしてデベロッパーは、そういう低レベルの技術を有効利用するプログラムを書くことができ、必要とする高い精度を一つのボックスから得ることができる。

HGX-2が動くサーバーは、今年後半にLenovo, QCT, Supermicro, Wiwynnなどのリセラーパートナーから提供されるだろう。

画像クレジット: Nvidia

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

死亡事故を起こしたUberの自動運転車は歩行者検出から衝突まで6秒あったのに緊急ブレーキが無効にされていた

【抄訳】
Uberの自動運転車が三月に起こした死亡事故に関する、国の交通安全委員会(National Transportation Safety Board, NTSB)の最初の報告書が、車は衝突の6秒も前に歩行者を検出していたが、緊急ブレーキシステムが意図的に無効にされていたため、減速も停止もしなかったことを、確認している。

UberはNTSBにこう述べている: “緊急ブレーキ操作は、その車両がコンピューターのコントロール下にある間は有効になっていない。それは、車両の不安定な動きを未然に防止するためである”。言い換えると、強引にスムーズな走行を確保するためだ。

“介入して行動することは車両の運転者に任されていた。システムは運転者に警報するよう設計されていなかった”。運用時に無効にするのなら、なぜそんな緊急ブレーキ機能がそもそも存在するのだろう?

そのVolvoが内蔵している安全システム、たとえば衝突回避や緊急ブレーキ機能も、自動運転モードでは不能にされていた。

【後略】
〔以下は筆者のUberを非難する感想文(かなり長い)のみ。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ビジネスプロセスオートメーションのWorkFusionが$50Mを調達して買収に向け力をつける

ビジネスプロセスオートメーションのソフトウェアを作っているWorkFusionが、同社の4月の5000万ドルの資金調達ラウンドに新たな投資家を2社加えた。

これで同社の新たな戦略的投資家は、大手保険会社のGuardian、ヘルスケアサービスプロバイダーNew York-Presbyterian、商業銀行のPNC Bankとなる。主に人工知能企業に投資しているベンチャー投資家のAlpha Intelligence Capitalも、この新たな投資に参加した。

企業が手作業で、あのサービスを使ったり、このサービスを使ったりしてやっているビジネスプロセスを、WorkFusionは最初のうち、クラウドソーシングで獲得した労働者にアルゴリズムを教育訓練して、それらのワークフローの自動化*を行っていた。そのころからすでに10年近い年月が経っているが、Crunchbaseによれば、その間に約1億2100万ドルの資金を調達している。それが今では同社の評価に結びつくし、同社の中核的市場である金融サービスと保険業界には、本物のファン層が形成されている。〔*: SaaSインテグレーション、クラウドインテグレーションなどとも呼ばれる。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

人間が犯す言葉の聞き間違いをAIは正してくれるか?答はノーだ

昨日(きのう)(米国時間5/17)までの二日間、ヤニー/ローレル(yanny/laurel)論争に加わらなかった人は、本当に幸せ者だ。でも、それもそろそろ時間切れ。口コミで広まった合成音声がAIへの誇大な過信にぶつかり、そしてその結果は、この俗世のすべてがそうであるように、幻滅だった。

AIによる音声認識ソフトウェアを作っているSonixが、その曖昧な音の断片を、GoogleとAmazonとIBM Watsonと、そしてもちろん自社の、文字書き起こしツールに与えてみた

GoogleとSonixは最初からうまくいった。ちなみに、正解は“laurel”だ。yannyではない。 Laurelだよ。

しかしAmazonは、そのロボット的な声に対して、何度やっても“year old”を出力した。IBMのWatsonは、驚いたことに、半分正解…“yeah role”と“laurel”をかわるがわる繰り返した。だからある意味では、Watson氏がいちばん人間的だ。

上: Amazon; 下: IBM。

SonixのCEO Jamie Sutherlandは、各社の機械学習モデルを実際に調べたわけではないから、その不均一な結果に対してコメントはできない、と言った。

“ご存知のように人間の声はとても複雑で、声量や抑揚、アクセント、周波数などがそれぞれ違う。おそらく各社が最適化のターゲットとしているユースケースが異なるから、結果も違うのだろう。音声認識のモデルをすべての声に対応させることは、難題だ”、と彼は言う。

無知な傍観者としてのぼくの推察は、声の周波数に対するプライオリティの取り方/与え方が、各モデルで違うのだろう。そんな気がするね。

明らかに欠陥がある人間の聴覚と認識能力に基づいて作られているシステムに、権威ある正しい判断を求めるのはそもそもおかしいのだが、でもだからこそ、おもしろい実験だった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AIでお利口になったGoogle NewsアプリがiOSとAndroidに登場

Googleは先週のI/Oイベントで、AIで強化したNewsアプリの新バージョンを披露したが、今日(米国時間5/15)ついにその新装アプリのiOSバージョンAndroidバージョンが127か国でローンチされた。この、設計もデザインも一新されたアプリは、これまでGoogle PlayにあったNewsstandアプリをリプレースする。

ニュースの発見や消費が前よりも容易になり、ユーザー体験を読者がカスタマイズでき、そして各種のメディア刊行物をこのアプリからサポートする。AIが読者の嗜好から学んでその人向けのコンテンツを提供するが、アプリ全体のデザインとレイアウトはきわめてすっきりしている。

アプリを開くと‘For You’(おすすめ)タブがあり、現時点の上位5つの記事や、あなたに向いていると思われるオピニオン、その下の長い読み物などがある。

‘Headlines’(ヘッドライン)というタグは最新のニュース集で、国際、国内、ビジネス、テクノロジー、エンタメ、スポーツ、科学、健康などに分かれている。記事タイトルをクリックすると、関連記事や社説、オピニオン、ツイート、ビデオ、イベントのタイムラインなどのリストが表示される。

  1. google-news-3

  2. google-news-1

  3. google-news-2

ユーザーが設定するカスタマイズには、AIが介入しない。だから好きなトピックやニュースソース、位置などを自由に指定できる。これは良い! 検索や記事を保存しておけるし、それらを一発で呼び出せる。

‘Newsstand’(ニューススタンド)というセクションでは、好きなメディアを指定できる。雑誌は1000種以上に対応しているそうだから、その中から好きなやつをタップして選ぶ。ただしこのセクションは、まだ建設途上のようだ。完成していない。

これもまだ未来形の機能である“Subscribe with Google”(Googleから購読する)では、各種メディアをGoogleのアカウントで有料購読できる。決済情報は、Google上のそれが使われる。それらのコンテンツは、NewsだけでなくGoogle Search(検索)や発行者のWebサイトでも閲読できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Clipsがハグやキスなど貴重な瞬間を認識してばっちり撮影する

【抄訳】
AIを山盛りにした“スマートカメラ”Clipsがさらにスマートになったことを今日(米国時間5/11)、Googleが発表した。とくにそれの、‘特別な瞬間’を捉える能力が進化した。たとえば、ハグとかキスなんかだ。ジャンプやダンスなんかも捉える。プライベートな特別な瞬間をすべて、苦労せずに撮っておきたければ、ぜひ利用しよう。

でも、すこし、説明をしたい。

Google Clipsは、画期的な消費者製品というよりも、今の人工知能の能力を写真撮影に使ったらこんなことができる、という概念実証のような製品だ。

両親も犬もいる私なんか、まさにこのカメラのターゲットだ(かわいい犬だよん)。でも私は、撮るのが難しい瞬間を捉えることのできるスマートカメラを欲しいとは思わない。うちの子や犬が、カメラの前でじっとしててくれるとしてもね。

なぜ欲しくないのか、その説明は難しい。写真が自動的にクラウドにアップロードされて公開されるからではない。というか、勝手に自動的にアップロードされることはない。寫眞はカメラ本体の16GBのストレージに保存され、あとで見たりシェアしたり消したりできる。お値段は、最近50ドル値下げされても199ドルとお高いが、欲しくないのは値段のせいでもない。

問題はたぶん、このカメラの‘思想’だ。

ある瞬間を完全にエンジョイするためには、それをカメラで捉えなければならない、という思想。しかしそのためには、生活や仕事をそっちのけにして、カメラやスマートフォンを手に持ち、その瞬間を逃さないようにしなければならない。子どもと遊んでるときも、犬にボールを投げてやっているときも。そしてこの問題への唯一の解が、テクノロジーの屋上屋を架すこと(テクノロジーの過剰)であること。カメラ(やスマートフォン)のことを忘れてもよい、ことであってほしいね。

もうひとつ、いらつくのは、すべての貴重な瞬間を写真やビデオに撮る、というClipsの思想。実際には、一瞬で過ぎ去ってほしい瞬間もある。記憶に残るだけでよいものもある。いろんな瞬間が積み重なって絆(きずな)や愛になるけど、その全部を撮らなくてもいい。

何もかもを写真で残す必要はない。

どうしても撮りたい瞬間、赤ちゃんが初めて歩くときとか、忙しすぎてパーティーのスナップ写真を撮れないときなどは、スマートフォンのカメラを“Google Clips”モードにすればよい。そう考えると、199ドルは高い。

【後略】

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AIでロゴを自動的にデザインしてくれるTailor Brandsが$15.5Mを調達

中小企業にブランド戦略とマーケティングサービスを提供するTailor Brandsが今朝(米国時間5/9)、シリーズBで1550万ドルを調達したことを発表した。

CEOのYali Saarによると、同社はデザインと機械学習が交わるところに位置している。というのは同社が、ロゴのデザインとコピーライティングとソーシャルメディア戦略を理解する技術を作っている、という意味だ。

同社の自動的に作られるロゴデザインは、すぐに人の目を引く。Tailor BrandsのWebサイトで、それを体験できる。有料で高品質な画像ファイルにもアクセスできるが、文字だけのロゴなら、あなたの会社に関する情報をいくつか入力すると、1分足らずで無料で作ってくれる。〔日本語文字はまだサポートされていない。〕

下図は、そうやって作ってもらった本誌TechCrunchの新しいロゴだけど、どうかな?

techcrunch tailor brands

Tailor Brandsは2014年の本誌TechCrunchのStartup Battlefieldでローンチし、これまでにロゴを4500万個作った、という。昨年の顧客数は386万で、毎月50万社ずつ増えているそうだ。

今回の投資ラウンドをリードしたのはPitango Venture CapitalのGrowth FundとBritish Armat Group、これにDisruptive TechnologiesとMangrove Capital Partnersが参加した。これで同社の調達総額は2060万ドルになる。今度の資金の主な用途は、グローバル展開と、多言語化、そしてブランド戦略のためのツールをもっと増やすことだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、Assistantのおなら対応に即興演芸の技を利用

Google I/Oの2日目も後半に入りみんなが少し疲れてきた。午後遅くのAssistantのデザインに関するセッションで、Googleの主任デザイナー、Ryan Germickは、AIの個性を作るために即興演芸のスキルを活用していることを話した。そして、人生でも難しい質問のひとつに答えた。

Assitantが「みんなが思うよりずっと多く」受ける質問のが、「おならした?」だ。まず、おならはいつも笑える。そして、人間の発する様々な臭いの責任を押しつけられなければスマートアシスタントを使う意味はない。

Germickは、Googleが体験した、おなら質問に対する色々な答を紹介した。たとえば、「もちろん私ではありません。私には体がありません」というのはあまり満足のいく答ではない。代りにGoogleは「巧みにはぐらかす」やり方として、improv[即興演芸]の入門コースを受けた人が必ず教えられる(”yes, but”ではなく) “yes, and”話法を採用した。

というわけで、Google Assitantにおならをしたかと聞いてみよう。おそらく「私のせいにしたいなら、すればいいですよ」といった感じの25種類ほどの答が返ってくるだろう。

もうひとつ、アイザック・アシモフのロボット工学第4の原則を忘れてはならない:くさいと言いだした人が、おならをした人だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google I/Oについて会話をした(誰と?)

〔*印のある記事は、日本語訳です。〕

やあ、Google、今日のGoogle I/Oは何があった?

人工知能。

そうか、あまり具体的じゃないね。今日はAndroid Pがリリースされたそうだけど、何が新しいの?

人工知能

ふーん。Androidの電池寿命を長くする機能を、何か加えたのかな?

人工知能

じゃ、次行こう。明るさの設定はどうなの? それにも新しいものがあるらしいけど?

人工知能

明るさと人工知能とどんな関係があるんだい? なぜ、一つのことしか言わないの? 別のアプリの話をしよう。Google Mapsは何が新しくなった?

人工知能

Photosは?

人工知能

Lensは?

人工知能

Newsは?

人工知能

Gmailは?

人工知能

Gboardは?。

人工知能

きみはこれまでで最悪のアシスタントだね。そもそもGoogleはAssistantをアップデートしたの?

人工知能

ひぇーっ! Googleは今日、開発ツールをたくさんリリースしたそうだね。ML Kitはどうなの?

*人工知能

Duplexは?

人工知能

それにテンソルの処理は…おっと、もういいよ。だいたい分かったから。ところでGoogle Researchは今でもGoogle Researchだよね?

人工知能

違うよ、Google Researchだろ。

人工知能

なんだ、名前が変わったの。きみはまるで、PR用のおしゃべりロボットだね。

人工知能。

ちょっと待って、きみは人間じゃないよね?

人工知能。

きみは、チューリングテストに合格だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa