問題のある継続的デリバリーのビルドを自動的にロールバックするHarnessの新しいツール

CI/CD(継続的インテグレーション/継続的デリバリー, continuous integration/continuous delivery)に移行すると、デプロイしたビルドのモニタリングや問題解決が忙しくなる。次のデリバリーマイルストーンに行ったあとに問題に対応するには、どうしたらいいのか?。昨年、AppDynamicsのファウンダーJyoti Bansalが立ち上げたスタートアップHarnessはそれを、24×7 Service Guardと呼ばれるツールで解決しようとする。

このツールは、すべてのビルドを、それらがいつローンチされたものであってもモニタすることによって、継続的デリバリーの工程を支える。そのためにはAIと機械学習を利用して、問題のあるビルドを自動化でうまくいっていたビルドに遡及(後戻り)させ、デベロッパーとオペレーションが心配なく仕事を続けられるようにする。

同社は昨年、継続的デリバリーのビルドがデプロイされたことを検証(verify)するContinuous Verificationというツールをローンチした。今日(米国時間12/13)の発表でBansalは、同社はそれをレベルアップすることによって、デプロイ後に何が起きたのかを理解するためのツールに仕立てた、と言っている。

そのツールは毎回のビルドを、デプロイから数日経ったものであってもウォッチし、そしてAppDynamicsやNew Relic, Elastic, Splunkなどのツールからのデータを利用、さらにAIと機械学習を使って問題を特定し、人間の介入なしでそれらを実動状態に戻す。さらにまた、ユーザーのチームは、さまざまなモニタリングツールやロギングツールのデータから得られた、各回のビルドのパフォーマンスとクォリティの統一的なビューを取得できる。

Bansalはこう説明する: “みんな継続的デリバリーで苦戦している。これまでも彼らは、AIを使ったOpsツールでプロダクションに入ったものをウォッチし、問題を究明しようとしてきた。でもうちのやり方では、CD段階のウォッチにAIを使うことによって、プロダクションの段階には問題がないようにする”。

24×7 Service Guardのコンソール。スクリーンショット提供: Harness

彼によると、このプロダクトを商用化したのは、CI/CDで苦戦している企業をたくさん見てきたからだ。彼は言う: 速く動くことによって問題の露呈を早くする、というCI/CDの初期の教えはエンタープライズに通用しない。彼らに必要なのは、ミッションクリティカルなアプリケーションが継続的ビルド(その定義はさておき)でも動き続けることだ。

“デベロッパーは速く動いてしかも会社の業務がその影響を受けないようにしたいのだ。だから、あの初期の教えでは不十分なんだよ”、と彼は語る。

どんなプロダクトにもアップタイムの絶対的な保証はできないがこのツールは、CI/CDに価値を見出しているがアプリケーションは動かし続けたい、という企業の役に立つ。デプロイしてから修復するというワンパターンを、繰り返したくない。このツールが本当に役に立てば、CI/CDを前進させるだろう。とくにそれは、開発工程を迅速化したいけど、アプリケーションが壊れないという確証がほしい、問題の修復は自動化したい、という大企業に向いている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleアシスタント、オーストラリア英語とイギリス英語を米国内でも利用可能に

本日(米国時間12/13)Googleは、Assistantが米国在住ユーザーのために新たなアクセントでしゃべるようになったと発表した。

対応する端末の設定タブに行き、標準のアメリカ英語をオーストラリアまたはイギリスのアクセントに切り替えられる(オーストラリアは”Sydney Harbour Blue”、イギリスは “British Racing Green”を選択)。

Googleのブログ記事に詳細が、必然的にフィッシュ・アンド・チップスの店の例と共に書かれている。なぜアメリカにこの機能がやってきたのかの説明はないが、ポンドの為替レートが正しいアクセントで発音されるのを聞くのは悪くない。

「これらの声はDeepMindの音声合成モデルWaveNetで作られている。層の深いニューラルネットワークを使って原始的な音声波形を作ることで、Assistantの声がいっそうリアルで自然に聞こえるようになった」」とGoogleは言っている。

海外居住者だけでなく米国アクセント全般を耳障りに感じている人たちにとっては癒やしになるだろう。実際、私は生涯このように話してきた。 この人たちは、自分のデバイスが暗黙のうちにアメリカ英語に切り替わることに苛立っていたに違いない。音声はそれぞれの母国のものと同じだが、米国市場向けにローカライズされているとGoogleは言っている。

この機能がやってきたタイミングが、GalaxyのBixbyが英国アクセントを覚えた直後だというのも興味深い。これで二人のスマートアシスタントがいい感じにチャットできそうだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Amazon、Alexaの難しい質問への答えをクラウドソーシングで募集

Echoスピーカーを持っている人なら、Alexaに難しい質問をして、困惑した応答をさせようとする「Alexaいじめ」の経験があるに違いない。おそらく、AIを困らせるのがさほど難しないことがわかっただろう。つまるところAmazonはGoogleのように大がかりな知識グラフを持っているわけではない。

簡単な解決方法のひとつは、Wikipediaのように、ユーザーの知識を引き出し知識ベースを充実させることだ。Amazonはそのドアを開いた。ユーザーにAlexaの難しい質問への答えを投稿してもらう招待制プログラムを開始した。

Amazonは以前から Alexa Answersを社内でテストしており、先月だけで10万件以上の応答が集まった。今回このプログラムを、メールで招待した少人数のグループにも公開する。参加を依頼された人は、専用ウェブサイトでAlexaのさまざまな話題に関する質問に答えることができる。

たとえば、Amazonは次のような(あきらかに奇妙な)提示している。「バーバラ・ブッシュはどこに埋められているか?」「指輪物語の音楽を作ったのは誰?」「コルクは何からできているか?」「コウモリは冬どこにいるのか?」など。個人的には全部同じ変人が続けて聞いた質問だと思っている。

応答が追加されるとAlexaはそれを利用できるようになり、「Amazonユーザーから」と注記される。これでデジタルアシスタントへのプレッシャーが少し軽減されるはずだ。ただし、間違った方向に進む可能性もある

[原文へ]

(翻訳:Nob Takahashi / facebook

QualcommがSnapdragon 855と新しいアンダーディスプレイ指紋センサーを発表

今週Qualcommは、マウイで今年のSnapdragon Summitを開催して、プレスやアナリストたちももてなしている。残念ながら行けなかったわれわれにも、Qualcommは2週間前にそのニュースのプレビューをくれている。その三日間を同社は、5Gへのフォーカスで幕開けすることに決め、また新製品Snapdragon 855モバイルプラットホームのプレビューもあった。そのほか同社は、ディスプレイの裏に実装する超音波利用の指紋判読センサーの発表も行った。

おたくのご近所に5Gのタワーが出現するのはまだ先の話だと思うが、その話題は数年前から過熱しているから、そろそろ5Gが現実になる、と言っても過言ではないだろう。AT&TとVerizonは今週マウイで5Gのネットワークをデモしている。Qualcommによるとそのイベントは、“5Gのお披露目パーティー”だそうだ。今後数か月間はたくさんの参入企業が、これと同じ言葉を使うだろうね。

短期的にそれよりおもしろいと思われるのは、同社が同じく今日(米国時間12/3)発表した新たなフラグシップ、855モバイルプラットホームだ。記者やアナリストたちに詳細は提供されなかったが、同社は855が“世界初のマルチギガビット5Gをサポートする商用のモバイルプラットホームだ”、と強調した。

また855は新しいマルチコアAIエンジンも目玉で、前のモバイルプラットホームに比べ3倍のAIパフォーマンスを提供、さらにまた、コンピュータービジョン専用シリコンにより、高性能なコンピューテーショナルフォトグラフィー(GoogleのNight Light的なもの)やビデオキャプチャーがサポートされる。

この新しいプラットホームはゲーム用に最適化されている、と同社は言う。そのプロダクト名
は“Snapdragon Elite Gaming,”だが、詳細は不明。さらにARの追究も継続し、Qualcommはそれを“extended reality”という独自のブランドで呼んでいる。

でも今回いちばんおもしろいのは、ニュースの最後に登場した脇役かもしれない。すなわち指紋センサーが今やスタンダードになり、中級機のスマートフォンにも載る。その新しい3D Sonic SensorsでQualcommは、ディスプレイの裏に鎮座する高性能超音波指紋ソリューションを約束する。ある意味でこれは、Qualcommの既存のディスプレイ直下型センサーの新しいブランド名だが、新しい技術もある。そこで今回の売りは、指紋スキャナーが、汚れたディスプレイや、ユーザーが画面保護膜を使っていても、十分に機能するという点だ。目の前に迫っているMobile World Congressには、この新しい指紋スキャナーを搭載した新しいフラグシップスマートフォンが、かなりの数、登場するのかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleが日本のAI/ML企業ABEJAに投資

GoogleがAIと機械学習を手がける日本のABEJAに出資した。Googleが直接、しかも日本で投資をすることは、とても珍しい。

投資額は公表されていないが、数百万ドルぐらいらしい。創業6年になるABEJAによると、同社のこれまでの調達総額は60億円(5300万ドル)だ、という。そしてCrunchbaseによると、同社が公開しているこれまでの調達額が4500万ドルだから、53-45=800万ドルになる。ただしこれには、Googleからの投資以外に2014年のシリーズA(これも非公開)も含まれているはずだ。

数字はともかくとして、この投資が注目に値するのは、Googleの日本における投資であるだけでなく、戦略的投資でもあるからだ。

ABEJAはこう声明している: “今後ABEJAとGoogleは、リテールや製造業など、さまざまな分野のAIとMLによるソリューションでコラボレーションして、AIソリューションのアプリケーションをより一層振興し、日本のAI産業の成長に貢献したい”。

同社の主製品は機械学習を利用する‘platform as a service, PaaS’で、現在150社あまりの企業顧客が、ABEJAを使って彼らのデータ集積から事業分析やさまざまな識見(インサイト)を開発している。同社によると、リテール向けの専用製品は顧客データと売上データに的を絞り、およそ100社に利用されている。

Google Cloud Japanの代表取締役(マネージングディレクター)Shinichi Abe(阿部伸一)は、次のように声明している: “ABEJAには強力な技術力とMLの専門的技能があり、そのコラボレーションの実績と、技術的ソリューションの効果的なデプロイメントで業界全般から高く評価されている。この投資は、リテールと製造業、およびその他の分野における革新的なソリューションで、ABEJAとのコラボレーションの道を拓くものである”。

Googleは、中国でAIと機械学習に大きく注力しており、昨年は北京に研究開発部門を開設した。しかし同社の研究とフォーカスの大半は、アメリカとヨーロッパが主力だ。Deep Mindの本社もヨーロッパにある。Googleは、インドシンガポールでもAI/ML関連の買収をしているが、それらの主な目的は、今後の成長市場における、Google製品のローカライゼーションだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

紙の帳票のデジタル化に今でも使われているOCRをやや賢くするAmazon Textract

ほとんどの企業が困ってることのひとつが、各種の伝票をはじめ、いろんな書式(フォーム, form)をデジタル情報に変えて、保存したりソフトウェアで処理したりすることだ。よくあるやり方は、人間の事務職員がコンピューターにデータ入力すること。最新技術を使う方法としては、OCRに書式を自動的に読ませるやり方がある。

しかしAWSのCEO Andy Jassyに言わせると、OCRは要するに無能な読み取り機にすぎない。それはテキストのタイプなどを認識しない。それを変えたいAmazonは今日(米国時間11/28)、Amazon Textractという、ややお利口なOCRツールを発表した。これなら書式上のデータを、もっと使いやすい形でデジタル化してくれそうだ。

Jassyが例として見せたのは、表のある書式だ。通常のOCRは表を認識しないから、表の各欄の枠を超えて、ひとつのテキストとして読み出す。Textractは、表などの、よく使われる成分を認識して、妥当な形でデータを取り出す。

Jassyによると、書式はよく形が変わるので、OCRの無能を補うためにテンプレートを使っていても、形が変わるとテンプレートは役に立たない。一方Textractは、よく使われるデータタイプ、たとえば社会保障番号、誕生日、住所などなどを知っているので、それらがどんな形で収まっていても正しく解釈できる。

“Textractには、この形の文字集合なら誕生日、これなら社会保障番号、等々と教えてあるので、書式が変わってもそれらを見逃さない”、とJassyは説明した。

more AWS re:Invent 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon Forecastは時系列データから予測を作りだす機械学習ツール

AmazonのAWSが今日(米国時間11/28)、時系列データに基づいて予測を生成する機械学習ツールAmazon Forecastをローンチした。予測は機械学習のかなりふつうの使い方だが、そのスキルのないデベロッパーが一からそれを作るのは難しい。しかしAmazonは当然ながら、自社のニーズのためにすでに多くのモデルを作っているので、今回はそれらをデベロッパー向けのプロダクトにまとめたのだ。

AWSのCEO Andy Jassyが今日のAWS re:Inventのキーノートでこう述べた: “わずか三クリックで、このツールにデータを与え、予測を得ることができる。超簡単でしかも、非公開ベータでベンチマークした結果としては、正確度は人びとがふつうにやるよりも50%高い。また費用は、どこかからソフトウェアを買う場合の1/10程度だ”。

Amazonはそのリテールビジネスの中で、自社のデータを扱うモデルをたくさん作ってきた。それは、Amazonがそのリテールサイトの需要予測に使ったりするものと基本的には同じ技術だ。ユーザーは同社に、彼らのサプライチェーンのデータのすべてを提供し、それによりそのサービスに、予測に影響を及ぼす変数を与える。

その楽屋裏では、AWSがそのデータとシグナルを見て、あらかじめ構築されている8種のアルゴリズムからどれかを選び、モデルを訓練し、それを微調整して予測を提供する。

AWSのこのサービスは、SAPやOracleのサプライチェーンツールと容易に統合できるし、Amazonの新しいデータベースサービスTimestreamのデータも使える。

このサービスは必ずしも安くはないが、デベロッパーの時間を大幅に節約できるだろう。

more AWS re:Invent 2018 coverage

画像クレジット: Ron Miller

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon Comprehendでは機械学習の技術とは無縁なデベロッパーでも専門用語で自然言語処理モデルを訓練できる

昨年Amazonは、自然言語処理のツールComprehendを発表した。それは情報のコーパスから、よく使われている語や語句を取り出し、ドキュメントを分類する。今日Amazonは同社のデベロッパーカンファレンスRe:inventに一週間先駆けて、Comprehendの機能向上を発表した。それにより機械学習の専門知識のないデベロッパーでも、専門用語や語句のリストを作るだけで機械学習のモデルを構築できる。

その機能アップを発表するブログ記事で、AmazonのディープラーニングとAIのゼネラルマネージャーMatt Woodがこう書いている: “本日Comprehendに新しいカスタム化機能を導入することを嬉しく思う。これによってデベロッパーは、Comprehendを拡張して自然言語で書かれている用語を見つけ、チームや企業や業界にとって専門的なテキストを分類できる”。

重要なのは、すべての複雑な処理をAmazonが面倒見るので、機械学習や自然言語処理の素養のないデベロッパーでも言葉のリストをシステムに与えるだけで、テキストからそれらの語を検出/取り出しできるようになることだ。Woodは書いている: “カスタマイズされた機械学習のモデルを構築、訓練、そしてホストする重労働はすべてComprehendが行い、これらのモデルをプライベートなAPIでデベロッパーが利用できるようにする”。

これには、二つの部分がある。まず、デベロッパーは専門用語などのリストを作る。それは、たとえば法律事務所なら法律用語、自動車会社なら部品番号のリストだったりするだろう。デベロッパーがすることは、これらの用語のリストを公開するだけだ。Comprehendがカスタマイズされた言葉を見つけることを学習し、そのリストに基づくプライベートでカスタマイズされたモデルを作る。

第二の部分は、分類のカスタマイズだ。言葉のリストを作ったら、次は、それらの用語が現れる論理(ロジック)のリストを作る。それについてWoodは、こう書いている:

“言葉の用例がわずか50件でも、Comprehendはカスタムの分類モデルを自動的に訓練し、それを使ってユーザーのドキュメントを各カテゴリーに分類する。たとえばカスタマーサポートのメールを、担当部門ごとにグループ化したり、ソーシャルメディアのポストを製品別に分類、あるいはアナリストの報告書を事業部別に分類したりできるだろう”。

これらの雑多で大量のドキュメントは、カテゴリー分けして初めて役に立つし、適切な担当者にそれを渡したり、あるいはアプリケーションがプログラムの一環として利用したりできるようになる。

Comprehendはユーザーに、カスタマイズされた機械学習のモデルを作る方法を、上述のようなごく単純な方法として提供し、楽屋裏の細部は自分でやる。一般的に言っても、クラウド企業は複雑難解なものを単純化して、専門的な知識や技能のないデベロッパーでも一連のサービスを利用できるようにする。Comprehendの場合は、機械学習の知識のない者がカスタマイズされたモデルを作れる方法を提供する。

Comprehendのこの新しい機能は、今日(米国時間11/19)から利用できる。

〔参考記事
Amazon Comprehend日本語ドキュメンテーション(1)
Amazon Comprehend日本語ドキュメンテーション(2)
Amazon Comprehend用例解説(1)
Amazon Comprehend用例解説(2)
「amazon comprehend 日本語」でググると、さまざまな日本語ドキュメンテーションが出てきます。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

企業のデータ保護とコンプライアンス充足をAIと機械学習で自動化するCognigoが$8.5Mを調達

AIと機械学習を利用して企業のデータ保護とGDPRなどの規制へのコンプライアンスを助けるCognigoが今日(米国時間11/13)、シリーズAのラウンドで850万ドルを調達したことを発表した。このラウンドをリードしたのはイスラエルのクラウドファンディングプラットホームOurCrowdで、これにプライバシー保護企業のProsegurState of Mind Venturesが参加した。

同社は、重要なデータ資産を護り、個人を同定できる情報が自社のネットワークの外に漏れることを防ごうとしている企業を支援できる、と約束している。そして同社によると、そのやり方は、専用システムのセットアップやそれらの長年の管理を必要とするような手作業の管理ではない。たとえばCognitoによれば、同社は企業のGDPRコンプライアンスの達成を、数か月ではなく数日で完了する。

そのために同社は、事前に訓練したデータ分類用の言語モデルを使用する。そのモデルは、給与明細や特許、NDA、契約書など、よくあるカテゴリーを検出するよう訓練されている。企業は独自のデータサンプルでモデルをさらに訓練し、その独自のニーズのためにモデルをカスタマイズできる。同社のスポークスパーソンは曰く、“唯一必要な人間による介入は構成だが、それは一日で済む作業だ。それ以外では、システムは完全に人手要らずだ”。

同社によると、新たな資金はR&Dとマーケティングと営業のチーム拡大に充てられ、目標は市場プレゼンスの拡張と製品知名度の向上だ。“弊社のビジョンは、顧客が自分のデータを利用して確実にスマートな意思決定ができ、同時にそのデータが継続的に保護されコンプライアンスを維持することだ”、と同社は言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

中国では生体認証による決済が当たり前になった…11月11日のショッピングフィーバーがそれを証明

中国の消費者はデジタル決済を採用するのが早くて、最近のショッピングブームを見るとその次のステップへの用意ができているようだ。それは、生体認証(バイオメトリックス, biometrics)による決済だ。

11月11日にAlibabaは、世界最大のショッピングイベント「独身の日」に大勝利し、308億ドルの売上を記録した。それはCyber MondayBlack Fridayを合わせたよりも大きい、驚異的な売上高だ。

中国のユーザーたちは、特売を逃すまいとあせってパスワードを入力する代わりに、一瞬で買い物が完了する新しい技術に飛びついた。今年、独身の日の顧客の60.3%が、指紋または自撮り写真の撮影で決済を行った。

そのデータを見せてくれたAlipayにとっても、そんな集計をするのは今回が初めてだった。同社はAlibaba系列のデジタルウォレット企業だが、全世界で8億7000万人のユーザーのオンラインおよびオフラインの商取引を処理し、ライバルのWeChat Payと肩を並べている。後者はTencentの人気の高いチャットアプリWeChatの決済方式で、ユーザー数(MAU)は同じく8億を超えている

そしてこの二社は共に、シームレスな決済に向かって競走している。Alipayは2014年9月に指紋認証による決済を開始した。それから1年足らずで、WeChat Payがそれに続いた。中国の買い物客は徐々にバイオメトリックな自己証明に慣れて、それによりスマートフォンをアンロックしたり、オフィスビルへ入館したりするようになった。2016年にもなると、Chinese Payment and Clearing Association(中国決済手形交換協会, CPCA)がアンケート調査をした人たちの約95%が、指紋認証を“知っている”と答えた。

次に来たのが、自撮りというやや高度な方法だ。昨年Alipayは、AlibabaとAlipayの本拠地杭州のKFCのお店で、にっこりお支払い(smile-to-pay)と名付けた決済方式を展開し、その後、配達の受け取りなどもっと多方面で顔認識による認証をローンチした。

alipay alibaba face recognition

Alipayの親会社Ant Financialは、配達された荷物をユーザーが受け取るとき顔をスキャンして認証する。/出典: Alibaba

政府はいち早く、顔認識の別の用途に目をつけた。そのよく知られている例は、世界で時価総額がいちばん大きいAI企業SenseTimeとの提携により、国民監視システムを開発していることだ。それによりたとえば、路上の犯罪者を追うことができる。

中国人は、身体的特徴による認証に、急速に慣れつつある。前出CPCAの調査によると、2016年には、70%よりやや多い人びとが、自分のバイオメトリックな情報による決済を平気と答えたが、2017年にはその比率が85%に急増した。

この急速な普及には、問題もある。2016年には調査回答者の半分が、生体認証による決済はセキュリティが心配だ、と答えた。しかし翌2017年には、70%が心配だと答えた。その同じ年に77.1%が、もうひとつの心配としてプライバシーを挙げたが、それは前年には70%弱だった。

画像クレジット: Alibaba

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

データサイエンティストたちのモデルの活用度を高めるGoogle CloudのKubeflowパイプラインとAI Hub

今日(米国時間11/8)Google Cloudが、KubeflowパイプラインとAI Hubを発表した。この二つのツールは、データサイエンティストが、自分の作ったモデルをいろんな組織や企業で共通的に利用できるようにすることが主な目的だ。

Google CloudでAIとML製品を担当しているプロダクトマネージメントのディレクターRajen Shethによると、同社は、データサイエンティストたちが、モデルを作るけどそれが一度も使われない、という経験をしょっちゅうしていることを知っている。Googleによると、機械学習を団体競技にたとえるなら、モデルはデータサイエンティストから、それらを使ってアプリケーションを作るデータエンジニアとデベロッパーにパスされなければならない。

対策としてGoogleが発表したのが、Kubeflowパイプラインだ。それはKubeflowのエクステンションで、KubeflowはKubernetesをベースとするオープンソースの機械学習用フレームワークだ。パイプラインは要するにコンテナ化されたビルディングブロックのことで、機械学習のエコシステムに属する人たちを連係させて機械学習のワークフローを作り、管理する。

そうやってモデルをコンテナに入れたら、その後データサイエンティストは必要に応じてその中のモデルを単純に調整し、継続的デリバリのようなやり方で再ローンチできる。Shethによると、これによって企業内のモデルの利用の可能性がさらに広がる。

“Kubeflowパイプラインはユーザーに、いろんなパイプラインで実験する方法を提供し、信頼性があって再現可能な環境の中で最良の結果を作りだすものはどれか、を決められる”、とShethは、この新しい機械学習機能を発表するブログ記事に書いている。

同じく今日発表されたAI Hubは、その名のとおり、データサイエンティストがそこでいろんなMLコンテンツを見つけられる場所だ。そこには、KubeflowパイプラインやJupyterノートブック、TensorFlowモジュールなどなどがあるだろう。それは一種の公開リポジトリになり、Google Cloud AIやGoogle ResearchなどGoogleのさまざまなチームが素材を提供し、研究開発に関わるGoogleの専門的知識技能をデータサイエンティストが利用できる場になる。

しかしGoogleはこのハブに、公開ライブラリ以上のものを求めている。同社の見方では、そこはチームが自分たちの企業内で情報をプライベートに共有できる場にもなって、二重の目的に奉仕する。これによって、重要なビルディングブロックが中央的なリポジトリで可利用になるから、モデルの利用の拡大に大きく貢献するだろう。

AI Hubは今日からアルファで利用でき、Googleからの初期的コンポーネントの一部や、内部的リソースを共有するためのツールが提供される。そして今後は徐々に、提供物と能力の拡大が定常的に行われる予定だ。

Googleによると、これによってモデルが汎用のビルディングブロックになり、それによりモデルを容易に共有できる方法が提供され、モデルがさまざまに実用される機会が増えるだろう。これらのツールは、それを達成するための第一歩だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

このアプリを使うとiPhone XRで撮ったペットの写真の背景をぼかすことができる

新しいiPhoneには優れた写真技術がいくつかあるが、でもカメラが一つしかないXRでは人以外の被写体をポートレートモードで撮れないなど、省かれている機能がいくつかある。でもついに、サードパーティのカメラアプリHalideによって、人工的なボケは作れるようになった。あなたの愛犬が眠っている顔や姿も、背景をぼかすと可愛さが一層際立つだろう。

これは、カメラが一つしかないことだけの問題ではない。でもぼくの前の記事を読んだ方はご存知と思うが、ハードウェアやチップやセンサーなど物理的な条件に依存している機能でも、ソフトウェアによって実現できる場合がある。何でも、ではないけど。

関連記事: コードが写真の未来を創る

iPhone XRの場合は、カメラが一つしかないから、十分な奥行きデータが得られない。だからピンぼけ効果はプログラムのコードで作りだすしかない。問題は、Appleの機械学習システムが、人の画像の高品質な奥行き情報を認識し作りだすよう、訓練されていることにある。犬や猫や植物やおもちゃのロボットの画像では、訓練されていないのだ。

でも、被写体が人間以外のとき、背景がきれいにボケてくれないのは、誰でもいやだろう。

そこで、Appleの気まぐれを無視しても平気なHalideのチームは、XRの“Focus Pixels”〔iPhone 6からの機能〕から深さデータを作り出し、それをもとに、不自然でないボケ効果を作った。メインの被写体と背景がはっきり分かれている画像なら、ペットでもロボットでもなんでもOKだ。人間の顔だけで訓練された機械学習、ではないのだから。

彼らの長くて詳しいブログ記事によると、それはまだ完全ではない。カメラからOSに送られてくる深さデータにアプリからアクセスできないので、プレビュー機能もない。でも、何もないよりましだし、Instagramで写真を見た人は、あなたがXRでなくXSを持ってると思うだろう。XRは、正しい選択だとぼくは思うけどね。

このアプリは、アップデート(1.11)の承認を待っている。もうすぐダウンロードできるだろう。まだHalideを持ってない人は、6ドルで買える。あなたのチンチラの写真の背景が、ベルベットのようになめらかになるんだから、6ドルは安いよ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、画像検索にLensを適用し、画像の公告活用を推進

Googleのアナウンスによれば、AIを活用したLens技術を画像検索で利用できるようにしたそうだ。検索したイメージ写っている物の情報を入手して、買い物の際に役立てることができるようになるとのこと。たとえば格好良いリビングルームの写真には、おそらく素敵なソファも写っていることだろう。そのソファに関する情報(購入できる場所など)を教えてくれるようになるのだ。

Pinterestを使っている人には、Google検索がPinterest風の機能ももつようになったのだといえばわかりやすいかもしれない。

Google Lensが生成した写真上の「dot」や、あるいは気になるものを手動で囲んで指定したエリアをタップすれば、Google検索が、指定したアイテムの関連情報を検索してくれるようになている。類似の画像、特定アイテムのウェブページ、ないし指定アイテムが写っている映像などを検索してくれるようになる

利用範囲はショッピングにとどまらない。写真に写ったランドマークや動物、あるいは旅行予定地についての詳細情報を得たりするのにも役立つはずだ。

さまざまな活用シーンが考えられるとは言っても、もちろんGoogleの主目的はグッズについての情報を提供することだろう。Googleの公告主のページへ閲覧者を誘導できる可能性も増えるわけだ。Pinterestの成功にあやかろうと考えているのだろう。

Pinterestは先月、月間アクティブユーザーが25%増加した旨をアナウンスしている。上場に向けて加速中ともいえる状況だ。Pinterestの利用者は、ファッションや家庭用品、旅行プランなどの情報を得て、Pinterestから商品やサービスを購入をする頻度を高めているらしい。公告主のプロダクトに、興味をもってもらえる仕組みも強化しているところだ。たとえば今年になってからは、公告製品のプロモーションビデオなども流すようになっている。

さらにPinterestは、1週間前に製品購入を便利にするための機能を増強した旨をアナウンスしている。テスト段階において、Pinterestからの製品ホームページへのアクセスが40%も増加したのだそうだ。

FacebookおよびInstagramは、次々にクライアントを販売店のサイトに送り込みつつある。またAmazonも広告ビジネスへの参入度合いを深めつつある。Googleもまた、公告主サイトへのクリックスルーレートを高めるなどの企業努力が期待される時期となっているわけだ。

画像検索でのLens活用は、まずアメリカにおける英語を利用するモバイルユーザー向けに公開したとのこと。他の国および言語へのサポートも広げていく予定であるとのことだ。

原文へ

(翻訳:Maeda, H

Facebookは新しい機械学習技術で870万件の児童搾取ポストを削除したと主張

Facebookが今日(米国時間10/24)、前四半期には新しい技術により、児童搾取の規則に違反している870万件のコンテンツを削除した、と発表した。同社が昨年来開発してきた新しいAIおよび機械学習の技術は、それらのポストの99%を、誰かがそれを報告する前に削除した、とFacebookの安全性担当のトップAntigone Davisがブログ記事で述べている。

その新しい技術は、児童のヌードなどの搾取的コンテンツをそれらがアップロードされた時点で見つけ、そして必要ならば、写真と説明文書をNational Center for Missing and Exploited Children(失踪および搾取された児童のための全国センター)に報告する。Facebookはすでに、写真マッチング技術を使って、新たにアップロードされた写真を児童搾取やリベンジポルノの既知の画像と比較していたが、新しいツールは、それまで特定されていなかったコンテンツ(既知でないコンテンツ)がFacebookのプラットホームから広まることを防げる。

その技術は完全ではなく、多くの親たちが、自分たちの子どもの無害な写真が削除された、と不平を言っている。Davisはブログ記事の中でそのことを認め、“虐待‘かもしれない’ものでも排除する方針なので、子どもがお風呂に入っているような一見無害で性的でないコンテンツも対象にしている”、と書いている。そしてこの“幅広いアプローチ”のために、前四半期には大量のコンテンツが削除された、という。

しかしFacebookのコンテンツ調整が完全には程遠くて、多くの人たちが、それは悉皆的でも正確でもないと思っている。家族のスナップ写真だけでなくFacebookは、ベトナム戦争の悲惨さの象徴となった1972年のPhan Thi Kim Phucの、“Napalm Girl”(ナパームの少女)と呼ばれている写真まで削除した。最重症のやけど第三度熱傷を負った少女は、村を南ベトナムのナパーム弾で焼かれ、裸で走って逃げていた。FacebookのCOO Sheryl Sandbergは、後日、その写真を削除したことを謝罪した

昨年、同社のコンテンツ調整ポリシーは、イギリスの国の機関である児童虐待防止協会から批判された。その団体は、Facebookは独立の調整機関の下に置かれるべきであり、ポリシーへの違反には罰金が課せられるべきだ、と主張した。Facebook Liveのローンチもときには同社とその調整者たち(人間とソフトウェアによるモデレーター)にとって逆風となり、性的暴行や自殺、殺人などのビデオが批判された。生後11か月の赤ちゃんが父親に殺されるビデオすら、放送されてしまった。

しかしソーシャルメディアのコンテンツの調整は、AIによる自動化が人間労働者の福利に貢献しうることの顕著な好例である。先月、FacebookのコンテンツモデレーターだったSelena Scolaは、何千もの暴力的な画像を調べさせられたために心的外傷後ストレス障害(post-traumatic stress disorder, PTSD)に陥ったとして同社を告訴した。モデレーターの多くは契約社員だが、その多くが、彼らの仕事の精神的重荷について語り、Facebookは十分な教育訓練とサポートや金銭的補償を提供しない、と言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Alexa for Businessをサードパーティのデバイスメーカーが自社製品に利用できる

昨年Amazonは、‘企業用のAlexa’、Alexa for Businessを発表した。Amazonの音声アシスタントの技術を、企業がEchoなどのデバイスで利用できるためのシステムだ。そして今日(米国時間10/24)同社は、そのプラットホームを大きくアップグレードして、デバイスのメーカーが独自の企業用Alexaデバイスを作れるようにした。

Amazonによるとそれは、Alexa for Businessをすでに利用している企業からのフィードバックに応えての変化だ。同社によると、今すでに数千もの企業がAmazon Echoをオフィス器具の仲間に加えている。有名企業としては、Express Trucking, Fender, Propel Insuranceなどが挙げられる。

でも彼らによると、既存のデバイスにAlexaを組み込めた方が、管理すべき備品が増えなくてよい、ということだ。

これからは、デバイスメーカーが自由に、Alexa for Businessに登録でき、全社的に共有できるデバイスを作れる。そのためには、Alexa Voice Service(AVS) SDKを使用する。

デバイスの管理機能としては、各種の構成(使用する部屋、場所、デバイスの健康監視など)のほかに、スキルをパブリックかプライベートかのどちらかに指定できる。

もちろん企業が独自のスキルを作ることもできる。たとえば、社員名簿やSalesforceのデータを音声で検索する、企業独自のカレンダー情報を作る、など。

Amazonが最近Alexa for Businessに加えた機能としては、会議室の予約がある。

Amazonは現在すでにPlantronics, iHome, BlackBerryなどと協働して彼らのデバイスにAlexaを組み込もうとしている。また、LinkplayやExtronのようなソリューションプロバイダーとも協働している。Citrixも、AfBの統合に着手した。

Plantronicsの提携マーケティング担当VP Laura Marxが、同社のAlexa内蔵製品に関する声明の中でこう述べている: “Alexa for Businessはそのローンチの時点から利用しており、既存のビデオ会議デバイスPolycomとEchoデバイスをペアにしている。そういう体験をEchoデバイスを使わずにPolycom Trioなどの製品に組み込めれば、ユーザーにとってとても便利で使いやすい製品になるだろう”。

Plantronicsは今年の初めにAlexa体験を顧客に提供し、iHomeは既存のデバイスiAVS16にAlexaを内蔵させた。しかし両社とも、これまではAlexa for Businessを組み込んだ製品の発表はなかった。

Alexaの企業分野への進出が吉か凶か、まだそれを言うのは早すぎる。Echoデバイスは確かに、音楽をかける、ニュースや情報を知る、キッチンタイマーをセットする、ショッピングリストを作る、などなど消費者指向の目的で多く使われるようになっている。しかしAmazonがEchoスピーカーやそのほかのAlexa内蔵ビジネス器具で企業にも浸透できたら、同社の音声製品の市場は一挙に拡大し、スマートホームよりも大きな利益を得ることができるだろう。

Alexaを職場に持ち込むのはだめだ、という意見もある。某ハッカーの説では、デバイスが産業スパイに利用される、という。また、企業秘密のある企業は“聴く能力のあるデバイス”をオフィスに置くべきではない、とも。

それでもAmazonは前進する。この前はMicrosoftのCortanaさえも統合して、Cortanaが持つMicrosoft Office的な機能…カレンダーの管理、その日の予定、顧客からのメール通知…などをAlexaから利用できるようにした。

Alexa for BusinessはAVS Device SDKのエクステンションとして提供され、バージョン1.10をGitHubからダウンロードできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

CommonSense Robotics、最初の超小型自動出荷センターを開設

イスラエルのスタートアップ、CommonSense Roboticsは、初めての全自動マイクロ出荷センターをテルアビブに開設した。6000平方フィート(557平米)の小さな倉庫には床から天井まで製品が積まれている。製品の配送が決まったらあとはロボットが重労働を引き受ける。。

TechCrunchはCommonSense Roboticsのテスト用配送センターのビデオを撮影した。今日の新しい倉庫はこれよりもずっと大きいが、Amazonの倉庫よりはずっと小さい。同社初の顧客はイスラエル最大の薬局チェーン、Superpharmだ。

CommonSense Roboticsは、都市部の食料雑貨小売業者に対して、注文から1時間以内で配送できると売り込んでいる。現在の小売業者は、店舗を活用するか、郊外に巨大な倉庫を持つかのどちらかだ。

CommonSense Roboticsを利用すれば、都市内のそう遠くない場所に小さな配送センターを複数配置することが考えられる。注文が入るとロボットがすぐに倉庫内の棚を移動して商品を取り出す。中央サーバーが全ロボットをリアルタイムに制御して経路を最適化する。こうすることで人間はスキャニングステーションに居て、自分は移動することなく注文をさばくことができる。

CommonSense Roboticsは出荷センターの仕事を受け持つ。Eコマース小売業者は同社に料金を払って出荷センターの開設と管理を依頼する。こうして小売業者は在庫管理と配送のラストワンマイル(最終区間)に集中することができる。

すでに同社は、イスラエルの食料雑貨小売業者、Rami Levyと12箇所の配送センターを作る契約を結んでいる。さらに、2019年には米国でも複数のセンター設立を計画している。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google Home Hub vs. Amazon Echo Show 2 vs. Facebook Portal、それぞれの特長

カウンタートップを争う戦いが始まった。Google、Amazon、Facebookの3社がみな今月、スマートディスプレイの新製品を発表した。いずれも、IoT化される未来の家庭の中心に座ることをねらい、家族のコミュニケーションを担おうとしている。

149ドルのGoogle Home Hubは、安くてプライバシーが保てるスマートホームコントローラーだ。

229ドルのAmazon Echo Show 2は、Alexaを視覚化する。

そして199ドルのFacebook Portalと349ドルのPortal+は、Smart Lensによる自動的なズームイン/アウトでチャットの話者を画面中央に捉える。

消費者の最大の検討項目は、プライバシーの安全、ビデオチャット機能、今後のスマートホーム構想との相性、そしてお値段だ。

  • プライバシーが気になる人にとっては、GoogleのHome Hubが唯一、カメラがなくて149ドルとめちゃ安い。
  • プライバシーが気にならない人なら、FacebookのPortal+が画面がきれいでビデオチャットもできる。
  • チャット大好き人間なら、Amazon Echo Show 2がAlexaによるメッセージングとビデオチャットを提供している。電話もかけられるし、Skypeもできる。

ブランドを選り好みしないなら、Lenovo Smart Displayはどうだろう。そのスタイリッシュなハードウェアは、10インチ1080pバージョンが249ドル、8インチ720pバージョンが199ドルだ。

そしてオーディオファン向けには、199ドルのJBL Link Viewがある。

これら二つはGoogleの技術を利用し、本家Googleの製品よりも早く発売された。でも私見では、今後の製品改良のピッチは、本家の方が積極的ではないだろうか。それはAmazonやFacebookの、今後のサードパーティ製品についても言える。

下の表は、Google、Amazon、Facebookの計4製品(Facebookが2製品)の特長を詳細に比較している:

more Google Event 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Dropboxにユーザーのすべての画像とPDFを自動的にOCRする機能が登場

Enterprise Dropboxに、一部のユーザーが待ち焦がれていたと思われる便利な機能がやってきた。それは画像やPDFファイル中の文字を自動的にテキストデータへ書き起こす光学式文字認識(optical character recognition/reader, OCR)機能だ。これからは、セーブした写真をかき回してレシートを探さなくてもよいし、目的の情報を探してたくさんのファイルを開かなくてもよい。単純に、テキストで検索できるのだ。

Dropboxのテキスト認識エンジンは今後数か月で、DropboxのPro, Business Advanced, そしてEnterpriseアカウントに実装されるが、アーリーアクセスがあるかもしれないから、ときどきチェックしてみよう。

このOCR機能は、ユーザーのすべての画像やPDFをスキャンしてテキストを取り出し、それらをメタデータに加えるので、ユーザーはそれを検索できる。もちろんそのデータは、正規のドキュメントとして安全に保存される。便利だが、問題は書き起こしの精度だ。OCRはときどき、気難しいからね。

Dropboxに永久につきまとう、もっと簡潔な名前のコンペティターBoxは昨年、多機能なOCRを導入した。多機能というのは、文字だけでなくオブジェクト(物)も認識するからだ。これに比べてDropboxのは、機能的にやや劣るかもしれないが、でも日常のOCRニーズには十分だろう。

これまで、指定したドキュメントをOCRすることはできたが、もちろんこっちの方が便利だ。Dropboxの技術情報のブログには、この自動化OCR機能の開発史が語られている。Boxは、GoogleのOCR機能を下敷きにしたらしい。〔訳注: Google Drive -> Google DocsにもOCRがある(全自動ではない)。〕

Dropbox Enterpriseのようなグループアカウントのメンバーは、全員がこの機能を利用でき、しかもこの機能が有効になったときは自動的に、既存のドキュメントもすべてOCRされる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

コードよりもデータが重要なSoftware 2.0の時代に向けて企業を助けるMachinifyが$10Mを調達

データは価値を生み出す。ただしそれは、データへのアクセスの仕方と、その正しい読み方を知ってる企業に限る。そしてその両方をお助けするのが、Machinifyだ。人工知能企業である同社は今日(米国時間10/8)、Battery VenturesがリードするシリーズAのラウンドで、1000万ドルを調達した。これには、GV(元Google Ventures)とMatrix Partnersが参加した。

MachinifyのファウンダーでCEOのPrasanna Ganesanはこう語る: “われわれの基本的な考え方として、今日の企業は大量のデータを集めているが、それを経営の意思決定に活かして効率を上げているところはきわめて少ない、という認識を持っている”。

Machinifyを利用する企業は、そのシステムにローデータを放り込み、データを何に利用したいのか(例:売上のアップ)を指定する。するとマシンが、では何をどうすべきかを示唆する。また、過去の意思決定に基づいて、今後の方向性を決める。

Machinifyを利用する好例が、ヘルスケアの分野にある。そこでは医療機関や保険企業などがMachinifyのツールを利用して請求処理の精度とスピードを上げている。そしてその結果もちろん、売上の増加やコスト削減を実現している。

GVのゼネラルパートナーAdam Ghoborahは、声明でこう述べている: “企業がいわゆるSoftware 2.0の時代に対応していくためには、解決しなければならない重要な問題がいくつかある。Machinifyはそれらのひとつひとつに的(まと)を絞って最適解を見つける。Software 2.0は、もはや人間が書く従来的なソフトウェアではなくて、AIのモデルと企業の大きなデータセットによって動的に駆動される。だからSoftware 2.0は、これまでとは完全に違うアプローチを要求するが、Machinifyには、そこから価値を取り出すための鍵がある”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Slidesの解説ナレーションがリアルタイムで自動的に字幕表示される

GoogleのプレゼンテーションツールSlidesに、プレゼン中のリアルタイムの自動字幕というおもしろい機能が加わる。耳の不自由な人や、聴くより読んだ方がよく分かるという人には、とても便利だろう。

この新しい機能は、画面読み上げツールの改良や、Braille、Google Docs/Sheets/Slidesの拡大表示などを作った同社のアクセシビリティーチームの作品だ。この自動化字幕は社内のハッカソンで生まれ、それが今回からは、デフォルトの言語がアメリカ英語である人がChromeブラウザーを使ってる場合に利用できる。対応言語は今後徐々に増やしていく予定だ。

この機能はSlidesのナビゲーションボックスの“CC”ボタンを押すと使えるようになる。あとは、コンピューターのマイクロフォンに向かって、ふつうに話すだけだ。

これはアクセシビリティーの機能であるだけでなく、プレゼンのナレーションの書き起こしを作って、それを後で何かに利用するためにも使える。

なお、最近MicrosoftのTeamsにも、同様の字幕/書き起こし機能が加わった。GoogleとAWSとMicrosoftは、その音声書き起こし技術をAPIとして提供しているので、自分のアプリケーションにこの機能を組み込むデベロッパーも徐々に増えている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa