この利口なAIは課せられたタスクをやり遂げるずるい方法を人の目から隠した

スタンフォード大学とGoogleのこの共同体研究は、見る人によって怖かったり、素晴らしかったりするだろう。航空写真から街路地図を作ったり、その逆もやる機械学習のエージェントが、“人間にはほとんど感知できない高周波の信号”を画像中に隠しておくことによって、ある種の騙し技(だましわざ)ができるようになるのだ。すごく賢い子に!

この現象は、コンピューターに最初からつきまとっている問題をあらためて思い出させる。コンピューターは、やれと言われたことを、そのとおりにやってしまうのだ。

研究者たちの意図は、読者にもすでにお分かりだろう。衛星画像をGoogleの正確なことで有名な地図に換える処理を、彼らはもっと速くしたいのだ。そのためにチームが作ったニューラルネットワークCycleGANは、大量の実験を経て、タイプXの画像(例: 航空写真)をタイプYの画像(例: 街路地図)に、正確かつ効率的に変換する。

初期の結果は、良好だったが、どこかがおかしかった。気になったのは、街路地図から元の航空写真を再構築するとき、前者(街路地図)にはない細部が大量に再現されてしまうことだ。たとえば、屋根からの太陽光の反射は街路地図を作るとき排除されるが、再構築された航空写真には魔法のように再現されている。

左が最初の航空写真、中央がそれから生成された街路地図、右は街路地図だけから生成された航空写真。どちらの航空写真にもあるドットが、街路地図にはない。

ニューラルネットワークが行なう処理の内部を覗き見することはきわめて困難だが、それが生成するデータを調べることは容易にできる。そしてささやかな実験から分かったのは、CycleGANが実は、人を騙していることだった。

エージェントに期待されているのは、各タイプのマップの特徴を正しく解釈して、それらを他方のマップの正しい特徴へマッチさせることだ。しかしエージェントの実際の評価では、再構築された航空写真がオリジナルに近いことと、街路地図の明確さが重視される。その重視のもとに、ニューラルネットワークの訓練も行われる。

そこでエージェントが学習したのは、XからY、YからXを作ることではなく、元の画像の特徴を変換後の画像のノイズパターンへと秘かにエンコードすることだった。航空地図の細部が、街路地図の視覚的データの中へこっそりと書き込まれた。それらは、人間の目には気づかない何千もの小さな色の変化として書き込まれたが、コンピューターはそれらを容易に見分けることができる。

そういう細部情報を街路地図の中へ忍ばせることはコンピューターの得意技のひとつだから、それは、“航空地図を街路マップの中へエンコードする”ことを学習した!。もはや、“リアルな”街路地図を作ることなど、彼の念頭にはない。航空地図の再構築に必要なすべてのデータを、完全に別の街路地図の上にも無害に書き込めることを、研究者たちは確認した:〔下図の下が“完全に別の街路地図”〕

右の航空写真が、変更や加工なしで左の地図の中へエンコードされた。

上の’c’のカラフルなマップは、コンピューターが意図的に導入したわずかな違いを視覚化している。どちらも航空地図の形を維持していることが分かるが、それは誇張や強調など、特殊な視覚化処理をしたから人間の目にも見えるだけである。

データを画像中にエンコードする技術は、ステガノグラフィ(steganography)と呼ばれ、画像の透かしや写真のメタデータ(撮影データ)として前から利用されている。しかし、コンピューターが自分に課せられた学習から逃れるために自分でステガノグラフィ作るのは、これが初めてではないか。この研究が発表されたのは昨年(2017)だから、‘最新’とは言えないかもしれないが、相当新しいことは確かだ。

これを、“機械が自力で賢くなった”として、もてはやす人もいるかもしれないが、実態はむしろその逆だ。機械は、高度な画像の各種タイプを互いに変換する難しい仕事ができるほど賢くはないから、人間にばれないような騙し技を見つけたのだ。エージェントの結果を、もっと厳しく評価していたら、それは避けられたかもしれない。研究者たちは、その方向へ進んだ。

例によって、コンピューターは求められたことを正確に行なう。だから、コンピューターへの指示は、きわめて詳細でなければならない。今回の場合、コンピューターが見つけたソリューションは、このタイプのニューラルネットワークの弱点に光を当てたという意味で、興味深い。コンピューターは、明示的に禁止されていないかぎり、詳細情報を自分に伝える方法を見つけて、与えられた問題を迅速簡単に解こうとするのだ。

実はこれは、コンピューティングの古い格言、PEBKACが教えていることでもある。“Problem Exists Between Keyboard And Computer”…問題はキーボードとコンピューターの中間にある*。人間に反逆するコンピューターHALも、“問題はすべて人間のエラーが原因だ”と言っている。〔*: 正しくは、Problem Exists Between Keyboard and Chair, キーボードと椅子の間、すなわち人間。〕

彼らのペーパー“CycleGAN, a Master of Steganography,”(ステガノグラフィの達人CycleGAN)は、2017年のNeural Information Processing Systemsカンファレンスで発表された。Fiora EsotericaとRedditのおかげで、このちょっと古いけどおもしろいペーパーを知ることができた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

人間の爪のミクロン単位のゆがみから症状の治癒や悪化を判定する超小型センサーをIBM Researchが開発

IBMが今日(米国時間12/20)、人間の手の指の爪につけて、パーキンソン病なやそのほかの疾病の治療薬の効果をモニターする、小さなセンサーを開発した、と発表した。そのデータを分析する専用のソフトウェアと共にセンサーは、ユーザーが物を握ったときの爪の歪(ゆが)みを測定する。ほとんどどんな活動にも、物を握る行為があるので、そのソフトウェアが分析すべき大量のデータが生成される。

センサーを爪ではなく肌につけて運動をモニターし、筋肉や神経の健康を調べる方法もあるが、IBMのチームによると、皮膚を使う方法には感染など多くの問題があるので、爪の曲がりから得られるデータを使う方法を選んだ。

ただし、多くの場合に、爪はわずかしか曲がらないので、感度の高いセンサーが必要になる。研究者たちはこう説明している: “分かってきたのは、人間の指が、それらで物を握ったり掴んだり、曲げたり伸ばしたりするとき、一定のパターンで変形することだ。この変形の大きさは通常、ひと桁の数ミクロンのオーダーで、肉眼では見えない。しかし、ひずみゲージを使えば容易に検出できる。ご参考までに、人間の毛髪の太さは50から100ミクロン、赤血球の径は10ミクロン未満だ”。

現在のプロトタイプバージョンでは、センサーを爪に接着している。爪はけっこう丈夫なので、そのやり方でもリスクはほとんどない。肌につけるセンサーよりは、ずっと安全だ。センサーのデータはスマートウォッチへ行き、そこで機械学習のモデルを動かして、震(ふる)えなどのパーキンソン病の症状を検出する。モデルは、装着者が今何をしているかも検出できる(ドアノブを回している、ドライバーを使っている、など)。装着者が自分の指で数字を書くと、それも正確に判読できる。

今後は、このセンサーのプロトタイプとモデルの改良により、そのほかの疾病も認識し分析できるようにしたい、とチームは望んでいる。このセンサーが市販される時期については、まだ発表の段階ではないようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

紙の帳票のデジタル化に今でも使われているOCRをやや賢くするAmazon Textract

ほとんどの企業が困ってることのひとつが、各種の伝票をはじめ、いろんな書式(フォーム, form)をデジタル情報に変えて、保存したりソフトウェアで処理したりすることだ。よくあるやり方は、人間の事務職員がコンピューターにデータ入力すること。最新技術を使う方法としては、OCRに書式を自動的に読ませるやり方がある。

しかしAWSのCEO Andy Jassyに言わせると、OCRは要するに無能な読み取り機にすぎない。それはテキストのタイプなどを認識しない。それを変えたいAmazonは今日(米国時間11/28)、Amazon Textractという、ややお利口なOCRツールを発表した。これなら書式上のデータを、もっと使いやすい形でデジタル化してくれそうだ。

Jassyが例として見せたのは、表のある書式だ。通常のOCRは表を認識しないから、表の各欄の枠を超えて、ひとつのテキストとして読み出す。Textractは、表などの、よく使われる成分を認識して、妥当な形でデータを取り出す。

Jassyによると、書式はよく形が変わるので、OCRの無能を補うためにテンプレートを使っていても、形が変わるとテンプレートは役に立たない。一方Textractは、よく使われるデータタイプ、たとえば社会保障番号、誕生日、住所などなどを知っているので、それらがどんな形で収まっていても正しく解釈できる。

“Textractには、この形の文字集合なら誕生日、これなら社会保障番号、等々と教えてあるので、書式が変わってもそれらを見逃さない”、とJassyは説明した。

more AWS re:Invent 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon、社内エンジニア教育に使っている機械学習コースを無料提供

サイバーマンデーの今日(米国時間11/26)、Amazonからちょっと意外なプレゼントがある。同社は自社エンジニアの教育に使っているものと同じ機械学習コースを無料で提供する。

学ぶべき内容は膨大だ——プログラミングの視点から見て。Amazon在籍8年のベテランでディープラーニングおよびAIのゼネラルマネージャーMatt Woodによると、コースは30種類延べ45時間にわたり、開発者、データサイエンティスト、データプラットフォームエンジニア、ビジネスプロフェッショナルなどが無料で受けられる。

同氏の説明によると、それぞれ「基本から始まり、Amazonで解決しなければならなかった楽しい問題を通して機械学習あ体験する。たとえば、ギフトラッピング資格の予測や配送ルートの最適化、IMDb(Amazonの子会社)のデータを使った映画の賞のノミネート予想などを行う。学習コースはベストプラクティスの確立に役立つほか、Amazon SageMaker、AWS DeepLens、Amazon Rekognition、Amazon Lex、Amazon Polly、Amazon ComprehendなどさまざまなAWS機械学習サービスの使い方を紹介する意味もある。

Amazonは、雇用者が効率よく採用する手助けをするために、同社独自の機械学習認定を導入しており、顧客は現在半額で利用できると言っている。

おそらく、狙いはAmazonの販売ページを強化することに加え、多くの社員を採用して自社の成長を加速することだろう。

もしこれでAmazonが切望する信頼を得ることができるならそれは良いことだろう。すでにご存じかもしれないが、同社にとってたった今深刻な問題は、ドイツ、スペイン、フランス各国の配送センターで金曜日に起きたストライキだ。中には”we are not robots“[私たちはロボットじゃない]というスローガンを掲げていた人々もいる。

Woodの声明の全文はここで読める。

[原文へ]

(翻訳:Nob Takahashi / facebook

Amazon Comprehendでは機械学習の技術とは無縁なデベロッパーでも専門用語で自然言語処理モデルを訓練できる

昨年Amazonは、自然言語処理のツールComprehendを発表した。それは情報のコーパスから、よく使われている語や語句を取り出し、ドキュメントを分類する。今日Amazonは同社のデベロッパーカンファレンスRe:inventに一週間先駆けて、Comprehendの機能向上を発表した。それにより機械学習の専門知識のないデベロッパーでも、専門用語や語句のリストを作るだけで機械学習のモデルを構築できる。

その機能アップを発表するブログ記事で、AmazonのディープラーニングとAIのゼネラルマネージャーMatt Woodがこう書いている: “本日Comprehendに新しいカスタム化機能を導入することを嬉しく思う。これによってデベロッパーは、Comprehendを拡張して自然言語で書かれている用語を見つけ、チームや企業や業界にとって専門的なテキストを分類できる”。

重要なのは、すべての複雑な処理をAmazonが面倒見るので、機械学習や自然言語処理の素養のないデベロッパーでも言葉のリストをシステムに与えるだけで、テキストからそれらの語を検出/取り出しできるようになることだ。Woodは書いている: “カスタマイズされた機械学習のモデルを構築、訓練、そしてホストする重労働はすべてComprehendが行い、これらのモデルをプライベートなAPIでデベロッパーが利用できるようにする”。

これには、二つの部分がある。まず、デベロッパーは専門用語などのリストを作る。それは、たとえば法律事務所なら法律用語、自動車会社なら部品番号のリストだったりするだろう。デベロッパーがすることは、これらの用語のリストを公開するだけだ。Comprehendがカスタマイズされた言葉を見つけることを学習し、そのリストに基づくプライベートでカスタマイズされたモデルを作る。

第二の部分は、分類のカスタマイズだ。言葉のリストを作ったら、次は、それらの用語が現れる論理(ロジック)のリストを作る。それについてWoodは、こう書いている:

“言葉の用例がわずか50件でも、Comprehendはカスタムの分類モデルを自動的に訓練し、それを使ってユーザーのドキュメントを各カテゴリーに分類する。たとえばカスタマーサポートのメールを、担当部門ごとにグループ化したり、ソーシャルメディアのポストを製品別に分類、あるいはアナリストの報告書を事業部別に分類したりできるだろう”。

これらの雑多で大量のドキュメントは、カテゴリー分けして初めて役に立つし、適切な担当者にそれを渡したり、あるいはアプリケーションがプログラムの一環として利用したりできるようになる。

Comprehendはユーザーに、カスタマイズされた機械学習のモデルを作る方法を、上述のようなごく単純な方法として提供し、楽屋裏の細部は自分でやる。一般的に言っても、クラウド企業は複雑難解なものを単純化して、専門的な知識や技能のないデベロッパーでも一連のサービスを利用できるようにする。Comprehendの場合は、機械学習の知識のない者がカスタマイズされたモデルを作れる方法を提供する。

Comprehendのこの新しい機能は、今日(米国時間11/19)から利用できる。

〔参考記事
Amazon Comprehend日本語ドキュメンテーション(1)
Amazon Comprehend日本語ドキュメンテーション(2)
Amazon Comprehend用例解説(1)
Amazon Comprehend用例解説(2)
「amazon comprehend 日本語」でググると、さまざまな日本語ドキュメンテーションが出てきます。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

RFIDステッカーからの信号で食品の汚染が分かる

安全でない食べ物は、それを食べる前に見つけたい。でも最近のベビーフード事件のように、瓶詰めや缶詰の場合はいちいち開けて調べることもできない。そこでMITの研究者たちは、食品に触れることなく、ある程度の距離から、一瞬でチェックできる方法を見つけた。それは、多くの製品にすでについているRFIDタグを利用する方法だ。

RFID(radio frequency identification, 無線周波数認識)は、小さなアンテナをステッカーやラベルに忍ばせておいて、それに特定の周波数の電波が当たると作動する。トランシーバーが950Mhzの信号を送ると、RFIDタグが起動して、自分を同定するやや異なった信号を送出する。それで製品の種別が分かるから、在庫管理にはとても便利だ。

研究者たちが見つけたのは、その返信信号の情報のない部分が、製品の内容の影響を受けることだ。電波は、瓶などの中身を通ってやってくる。そこで、瓶にいっぱい詰まったパスタソースやオリーブは、それぞれ違った特徴の信号を作りだす。だれも触ってないベビーフードの瓶でも、メラミンで汚染されたフードとそうでないフードを比較できる。

[水の入ったボトルと空のボトル]

この新しいシステムを記述するペーパーを書いた研究者の一人Fadel Adibが、MITのニュースリリースで言っている: “安価なRFIDが小さな電波分光器に変身したみたいだ”。

問題は信号の違いがきわめて微妙で、どこにもドキュメントされていないことだ。彼らが初めてやることだから。そこで当然ながらチームは、機械学習に着目した。彼らはモデルを訓練して、それぞれの信号の特徴が何を表しているかを学習させた。信号は、やって来る方向やガラスの厚さなどによっても、微妙に異なるのだ。

現在その、RFIQと彼らが呼ぶシステムは、乳児用ミルクのメラミンによる汚染や、酒類などの中のエチルアルコールの濃度を識別できる。それではぼくのショッピングリストにとって役に立ちそうもないけど、でもチームはもっと多くの製品への応用を考えている。方法の有効性は証明されたから、あとは応用の拡大が課題だ。

棚などの環境条件や、電波に対するさまざまな障害物によっても信号は変わるから、難しい仕事だ。でも機械学習のアルゴリズムは、ノイズから信号を選りだすのが得意だから、この技術は、今後意外とうまくいくかもしれない。

このRFIQシステムに関するペーパーの全文(PDF)はここにある

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

機械学習のシステムはときどき人間をびっくりさせる…学習内容に忠実なだけで

機械学習の弱点や奇癖をまとめた、このシンプルなスプレッドシートは、それほど膨大ではないが、‘機械’の考え方を知るための楽しい資料だ。研究者のVictoria Krakovnaが作ったこのリストは、ロボットが法の精神と文字の両方に同時に従おうとしたときの、さまざまな状況を記述している。

たとえば下のビデオでは、機械学習のアルゴリズムが、ボートレースにただ参加するのではなく、円を描いてぐるっと回ったら高い得点が得られる、と学習した結果だ。

別のシミュレーションでは、“生きるためにはエネルギーが必要だが出産のエネルギー消費量はゼロ”、と学習した種族が、じっと座って動かない〔エネルギー消費量最小〕ライフスタイルを発達させ、もっぱら生殖行為〔エネルギー消費量ゼロ〕だけをして子孫を生産し、それを食べたり、それらにも生殖をさせて食料としての子孫を作らせる。Krakovnaはそれを、“怠け者の共食い種族”と呼んでいる。

もちろんこれらの‘機械’は本当の意味で“考えて”いるわけではないが、いくつかのパラメーターと、進化という能力と目標を与えられたロボットが、そのアルゴリズムに忠実に従って、おかしなことをしてしまう例だ。

あるテストでは、ロボットが自分の腕でテーブルを殴ることによってブロックを動かすことを学習したり、ある種の遺伝的アルゴリズムによってオシレーターの回路を作るはずのロボットが、隣接するコンピューターからの信号を拾うラジオを作ったりする。あるいは癌を検出するシステムが、悪性腫瘍の画像には目盛りがある、と学習して、大量の擬陽性を作りだしてしまう。

これらの例はどれも、‘機械’は正しく学習すると信じたために生じた、意図せざる結果だ。彼らは学習するけど、人間を当惑させることもある。機械学習とは、所詮、そんなものだ。機械が理解できるものだけを、学習しているのだから。

最後にもうひとつ例を: “絶対負けてはならない”、と学習したテトリスをプレイするロボットが、“負けないために無限に長時間ポーズする”。そいつに、負けて癇癪(かんしゃく)を起こすことを学習させたら、やっと彼は三歳児のレベルに達するだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

データサイエンティストたちのモデルの活用度を高めるGoogle CloudのKubeflowパイプラインとAI Hub

今日(米国時間11/8)Google Cloudが、KubeflowパイプラインとAI Hubを発表した。この二つのツールは、データサイエンティストが、自分の作ったモデルをいろんな組織や企業で共通的に利用できるようにすることが主な目的だ。

Google CloudでAIとML製品を担当しているプロダクトマネージメントのディレクターRajen Shethによると、同社は、データサイエンティストたちが、モデルを作るけどそれが一度も使われない、という経験をしょっちゅうしていることを知っている。Googleによると、機械学習を団体競技にたとえるなら、モデルはデータサイエンティストから、それらを使ってアプリケーションを作るデータエンジニアとデベロッパーにパスされなければならない。

対策としてGoogleが発表したのが、Kubeflowパイプラインだ。それはKubeflowのエクステンションで、KubeflowはKubernetesをベースとするオープンソースの機械学習用フレームワークだ。パイプラインは要するにコンテナ化されたビルディングブロックのことで、機械学習のエコシステムに属する人たちを連係させて機械学習のワークフローを作り、管理する。

そうやってモデルをコンテナに入れたら、その後データサイエンティストは必要に応じてその中のモデルを単純に調整し、継続的デリバリのようなやり方で再ローンチできる。Shethによると、これによって企業内のモデルの利用の可能性がさらに広がる。

“Kubeflowパイプラインはユーザーに、いろんなパイプラインで実験する方法を提供し、信頼性があって再現可能な環境の中で最良の結果を作りだすものはどれか、を決められる”、とShethは、この新しい機械学習機能を発表するブログ記事に書いている。

同じく今日発表されたAI Hubは、その名のとおり、データサイエンティストがそこでいろんなMLコンテンツを見つけられる場所だ。そこには、KubeflowパイプラインやJupyterノートブック、TensorFlowモジュールなどなどがあるだろう。それは一種の公開リポジトリになり、Google Cloud AIやGoogle ResearchなどGoogleのさまざまなチームが素材を提供し、研究開発に関わるGoogleの専門的知識技能をデータサイエンティストが利用できる場になる。

しかしGoogleはこのハブに、公開ライブラリ以上のものを求めている。同社の見方では、そこはチームが自分たちの企業内で情報をプライベートに共有できる場にもなって、二重の目的に奉仕する。これによって、重要なビルディングブロックが中央的なリポジトリで可利用になるから、モデルの利用の拡大に大きく貢献するだろう。

AI Hubは今日からアルファで利用でき、Googleからの初期的コンポーネントの一部や、内部的リソースを共有するためのツールが提供される。そして今後は徐々に、提供物と能力の拡大が定常的に行われる予定だ。

Googleによると、これによってモデルが汎用のビルディングブロックになり、それによりモデルを容易に共有できる方法が提供され、モデルがさまざまに実用される機会が増えるだろう。これらのツールは、それを達成するための第一歩だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Facebookは新しい機械学習技術で870万件の児童搾取ポストを削除したと主張

Facebookが今日(米国時間10/24)、前四半期には新しい技術により、児童搾取の規則に違反している870万件のコンテンツを削除した、と発表した。同社が昨年来開発してきた新しいAIおよび機械学習の技術は、それらのポストの99%を、誰かがそれを報告する前に削除した、とFacebookの安全性担当のトップAntigone Davisがブログ記事で述べている。

その新しい技術は、児童のヌードなどの搾取的コンテンツをそれらがアップロードされた時点で見つけ、そして必要ならば、写真と説明文書をNational Center for Missing and Exploited Children(失踪および搾取された児童のための全国センター)に報告する。Facebookはすでに、写真マッチング技術を使って、新たにアップロードされた写真を児童搾取やリベンジポルノの既知の画像と比較していたが、新しいツールは、それまで特定されていなかったコンテンツ(既知でないコンテンツ)がFacebookのプラットホームから広まることを防げる。

その技術は完全ではなく、多くの親たちが、自分たちの子どもの無害な写真が削除された、と不平を言っている。Davisはブログ記事の中でそのことを認め、“虐待‘かもしれない’ものでも排除する方針なので、子どもがお風呂に入っているような一見無害で性的でないコンテンツも対象にしている”、と書いている。そしてこの“幅広いアプローチ”のために、前四半期には大量のコンテンツが削除された、という。

しかしFacebookのコンテンツ調整が完全には程遠くて、多くの人たちが、それは悉皆的でも正確でもないと思っている。家族のスナップ写真だけでなくFacebookは、ベトナム戦争の悲惨さの象徴となった1972年のPhan Thi Kim Phucの、“Napalm Girl”(ナパームの少女)と呼ばれている写真まで削除した。最重症のやけど第三度熱傷を負った少女は、村を南ベトナムのナパーム弾で焼かれ、裸で走って逃げていた。FacebookのCOO Sheryl Sandbergは、後日、その写真を削除したことを謝罪した

昨年、同社のコンテンツ調整ポリシーは、イギリスの国の機関である児童虐待防止協会から批判された。その団体は、Facebookは独立の調整機関の下に置かれるべきであり、ポリシーへの違反には罰金が課せられるべきだ、と主張した。Facebook Liveのローンチもときには同社とその調整者たち(人間とソフトウェアによるモデレーター)にとって逆風となり、性的暴行や自殺、殺人などのビデオが批判された。生後11か月の赤ちゃんが父親に殺されるビデオすら、放送されてしまった。

しかしソーシャルメディアのコンテンツの調整は、AIによる自動化が人間労働者の福利に貢献しうることの顕著な好例である。先月、FacebookのコンテンツモデレーターだったSelena Scolaは、何千もの暴力的な画像を調べさせられたために心的外傷後ストレス障害(post-traumatic stress disorder, PTSD)に陥ったとして同社を告訴した。モデレーターの多くは契約社員だが、その多くが、彼らの仕事の精神的重荷について語り、Facebookは十分な教育訓練とサポートや金銭的補償を提供しない、と言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleが日本で複数のAI関連事業を立ち上げ、UNIQLOとパートナーシップ

Googleが今日(米国時間9/18)東京で行われたCloud Next 2018イベントの場を利用して、日本市場にフォーカスした二つのイニシアチブを発表したのは、当然のことだ。このイベントはメインのカンファレンスがサンフランシスコで行われ、複数の国際的イベントが東京など各地で行われる。

発表には、ベーシックなアップデートとしていくつかの日本語ローカライゼーションも含まれ、その中には、CourseraのコースMachine Learning with TensorFlow on Google Cloud Platformの日本語化や、クラウド技術者の資格検定Associate Cloud Engineerの日本語化、50種のクラウド実践演習(各30分)Qwiklabsの日本語化などがある〔日本語化の例はここで〕。

さらにGoogleは、東京にAdvanced Solutions Labを立ち上げる。同様のラボは、アイルランドのダブリンとカリフォルニアのサニーベール、そしてニューヨークにもある。それらはGoogleのエキスパートたちによる4週間の機械学習教育訓練コースを軸として、機械学習のさまざまな学習オプションとコラボレーションによる演習経験を提供する。

(写真: Hitoshi Yamada/NurPhoto via Getty Images)

Googleは今日、新しいテクノロジーの採用をめぐって、ユニクロの親会社Fast Retailingとのパートナーシップを発表した。社名が示すように同社は小売業の高速化に関心があり、成長の加速化のためにGoogleのG Suiteや機械学習ツールを利用していきたいようだ。このパートナーシップ事業の名前は、’Ariake’である。

Fast RetailingのCEO Tadashi Yanaiはこう言っている: “全社員が情報にアクセスできるようにすることが、Ariakeプロジェクトの基盤のひとつだ。それによって社員たちは、論理や判断、共感といった人間の特性を生かした意思決定ができるようになる。毎シーズン、事業計画を書いているが、G Suiteのような共同作業ツールを使えば、それらを全社員が共有できる。Google Cloudとのパートナーシップは、需要予測のようなものをとっくに超えて、全社員の協働的な仕事のやり方を抜本的に変えた”。

画像クレジット: Tomohiro Ohsumi / Getty Images

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Adobe Photoshopの‘コンテンツに応じた塗りつぶし’が性能アップ、おかしな失敗が減少

Adobe Photoshopの“コンテンツに応じた塗りつぶし”(content-aware fill)が登場したときは、誰もが感激した。退屈な名前だけど、すばらしく便利な機能で、画像のセレクトした範囲内にAIが選んだ画像の破片をリプレースして、そのまわりと同じ本物らしく見せかける。しかしAIは万能ではないから、ときどき、おかしな、笑えるような結果になった。でも今度の新しいツールでは、AIの失敗がほどんどなくなるそうだ。

今日(米国時間9/10)発表された予告編ビデオでは、コンテンツに応じた塗りつぶしの設定項目が大量に増えたから、修正作業が楽しくなるかもしれない。フォトグラファーは元々、加工や修正が好きな人種だが、修正のメニューが増えればそれだけ結果も良くなる。

以前は、どうだったか…

…ときどき、こんな結果になった…

[コンテンツ対応の失敗]

…今度からは右側に大量のオプションが並ぶのでそこから選ぶ。

いちばん重要な違いは、ユーザーが範囲指定をした領域内でどの部分を塗りつぶすべきかを、AIが選べることだ。上の失敗例では、馬の部分を塗りつぶそうとして、ほんの一筆(ひとふで)か二筆(ふたふで)ぶん、除外している。しかし正確である必要はない。人間の手とマウスによる指定が1ピクセルの精度で間違っていても、今度のアルゴリズムは正しく判断する。

改良されたアルゴリズムはさらにお利口になり、使用する成分の回転や縮小拡大も臨機応変に行なう。その方が良い、と判断したら、コンテンツの鏡像も使う。

塗りつぶしを、別のレイヤ(層)に出力できるので、アーチストにとって重要な「非破壊的編集」ができる。これは、前からあるべきだった、とぼくなどは思うね。

ここまで強力な修正をやると、純粋な人はしらけるかもしれない。でも、実際に手元にある写真を使うしかない場合もあるし、ちょっと牛の数が多すぎる、ということもあるだろう。手作業による写真修正の名人ではない人が、大きな修正をしなければならないときには、使ってもいいことにしておこう。

今回の新しいアップデートは“もうすぐ提供”ということだから、アップデートの通知によく注意していよう。

画像クレジット: Adobe

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Adobeのマーケティングツールはメールを送るベストのタイミングをAIが教えてくれる

Adobeの機械学習ツールAdobe Senseiが、マーケティングのためのメールを送る最良のタイミングを教えてくれるようになる。Adobe自身のの研究開発部門Adobe Researchから生まれたこの新しい技術は、近い将来に実用化されるようだ。

マーケターは、AdobeのメールマーケティングツールAdobe Campaignに、キャンペーンの開始日と終了日を教えると、Senseiが、メールが相手の受信箱に到着すべき最良の日時を見つける。そういうメールは消されたり無視されることが多いので、ツールは開封率の最大化を目指して最適化される。

Adobe Researchはさらに、メールの受信者がメッセージにどのように反応したかに基づいて、彼らを自動的に分類分割する技術にも取り組んでいる。これによりマーケターは、コミュニケーションの正しい頻度を判断できる、という。

これら二つのツールはどちらもまだ研究開発の段階だが、今日(米国時間8/22)ローンチしたいくつかの機能は、ユーザーが即利用できる。まず、ドラッグ&ドロップでメールのメッセージをデザインできる機能。そしてAdobe Campaignの動的レポーティング機能。さらに、Adobe Campaignのプッシュ通知の多言語化と高速化により、マーケターは短い時間により多くのメッセージを送ることができるようになった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

機械学習のモデルのデプロイを標準化するツールGraphpipeをOracleがオープンソース化

オープンソースのコミュニティと仲が良いとは必ずしも言えないOracleが今日、Graphpipeと呼ばれる新しいオープンソースのツールをリリースした。それは、機械学習のモデルのデプロイを単純化し標準化するツールだ。

そのツールは、ライブラリの集合と、スタンダードに従うためのツールを合わせたものだ。

このプロジェクトは、NASAでOpenStackの開発に関わり、その後2011年にOpenStackのスタートアップNebulaの創業に加わったVish Abramsがリードした。彼によると、彼のチームが機械学習のワークフローを手がけたとき、あるギャップに気づいた。一般的に機械学習のチームはモデルの開発には大量のエネルギーを注ぎ込むが、そのモデルを顧客が使えるようにデプロイすることが苦手だ。そのことが、Graphpipe誕生のきっかけになった。

彼曰く、機械学習のような新しい技術は、誇大宣伝に踊らされてしまう部分がある。開発プロセスは改良を続けていても、デプロイに頭が向かわない人が多い。

“Graphpipeは、機械学習のモデルのデプロイを改良する努力の中から生まれた。また、この機械学習の分野全体を改良するためには、デプロイのためのオープンなスタンダードがぜひ必要だ、と考えた”、そうAbramsは語る。

これがOracleのプロジェクトになったとき、彼らは三つの問題に気づいた。まず最初に、機械学習のAPIをサーブするための標準的な方法がない。各フレームワークが提供しているものを、そのまま使うしかない。次に、デプロイのメカニズムにもスタンダードがないので、デベロッパーは毎度カスタムでそれを作らなければならない。そして第三に、既存の方法はパフォーマンスの向上に真剣に取り組んでいない。パフォーマンスが、‘ついでの問題’でしかない。機械学習にとっては、それは重大な問題だ。

“Graphpipeを作ったのは、これら三つの課題を解決するためだ。それは、ネットワーク上でテンソルデータを送信するための標準的でパフォーマンスの高いスタンダードを提供する。またどんなフレームワークを使っても、機械学習のモデルのデプロイとクエリーが簡単にできるための、クライアントとサーバーのシンプルな実装も作った”、…AbramsはGraphpipeのリリースを発表するブログ記事で、そう書いている。

同社は、これをスタンダードとしてオープンソースにすることによって、機械学習のモデルのデプロイを前進させたい、と決意した。“Graphpipeは、ビジネスの問題解決と、技術の高度化の推進という、二つの方向性が交差するところに座っている。そしてそれを進めていくためのベストの方法が、オープンソース化だと考えている。何かを標準化しようとするとき、それをオープンソースで進めなかったら、最終的にはいろんな競合技術の混乱状態になってしまう”、と彼は語る。

Oracleとオープンソースのコミュニティの間には長年の緊張があることをAbramsも認めるが、最近ではKuberenetesや、オープンソースのサーバーレス・ファンクション・プラットホームOracle FNへのコントリビューションなどを通じて、そんなイメージを変える努力をしてきた。そして彼によると究極的には、技術が十分におもしろいものであれば、誰がそれを提出したかとは関係なく、人びとはそれにチャンスを与えるだろう。そしてそのまわりにコミュニティができれば、オープンソースのプロジェクトとして自然に適応されたり、変えられたりしていく。それを、Abramsは望んでいる。

“このスタンダードが、今後幅広く採用されてほしい。実装は誰がやっても易しいから、Oracle独自の実装を広めたいとは思わない。人気の実装は、そのうちコミュニティが決めるだろう”。

GraphpipeはOracleのGitHubアカウントのGraphpipeのページで入手できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

この2足歩行ロボットは頭がドローンでできている

2足ロボットを作るのは難しい。常に絶妙なバランスを保っている必要があり、驚くべき技をこなすATLASのようなロボットでさえ、時には転んでその電子の頭を強打してしまう。しかし、もしその頭がクワッドコプターならどうだろう?

東京大学で作られた意欲的ロボット、Aerial-Bipedはまさにそれだ。ロボットは完全な二本足ではないが、真に2本足で歩くための面倒な問題を回避しつつ、2足歩行ロボットのように行動する。歩く真似をしながら実際には歩かない操り人形の足を想像するとよいかもしれない。

目標は、2足歩行のように見せながら動的な移動能力をもつ、新しいビジュアル体験をあたえるロボットを作ることだ。このロボットはフラミンゴのような非常に細い足を使いながらも、移動能力を損なうことなく歩くことができる。このアプローチによって、専門知識がなくても二足ロボットの歩行を演出できるようになる。しかも、通常の二足歩行ロボットよりずっと安価に作れる、と研究チームはIEEEに語った。

このロボットは、 Balluという、浮遊する頭部とヒョロ長い足をもつ異様な外見の風船ロボットに似ている。もっともらしい歩き方は機械学習を通じて会得し、その結果実際には飛行システムでありながら、リアルな歩き方の印象を与えている。気の利いた小さなプロジェクトだが、巨大な2足歩行ロボットが倒れてくると危険なテーマパークのような環境で面白い使い方ができそうだ。

原文へ
 
(翻訳:Nob Takahashi / facebook

FirefoxがユーザーのWeb世界を拡張する提案機能‘Advance’エクステンションをテスト中

MozillaのFirefox Webブラウザーが今日(米国時間8/7)、Advanceと呼ばれる実験的なエクステンションを発表した。それは機械学習を利用して、ユーザーがもっと文脈的かつ直感的な広がりのあるWebサーフィンをできるようにする。このエクステンションは、Firefoxが今行っているTest Pilotプログラムの一環で(ユーザーはこれにいつでも オプトインできる)、Laserlikeの機械学習バックボーンを利用して、ユーザーのWeb閲覧習慣を理解しようとする。

その仕組みはこうだ: Test PilotでAdvanceを有効にすると、Webの閲覧はふつうにできるが、Advanceはユーザーが閲覧するサイトの種類について記録と学習を開始する。そしてその学習に基づいて、その人のWeb閲覧を補完するようなページや、その人が好きになりそうなページをサイドバーで推奨する。そしてユーザーは、Advanceが正しくないと感じたら、推奨されたページに「退屈」「的外れ」「スパム」などのフラグをつけて、エクステンションの推奨能力を鍛えていく。

この機能は同社のContext Graphイニシアチブの一部で、それは“インターネット上の次世代のWeb発見”を探求し、ユーザーのWeb世界をこれまでの日常よりも広くしようとする。そしてもちろん、Firefoxブラウザーの上で彼/彼女が過ごす時間を長くしたい。このイニシアチブの最初の機能Activity Streamは、ユーザーの閲覧履歴やブックマークの情報をより有効利用する試みで、今ではTest Pilotを卒業してFirefoxブラウザー本体に装備されている。

Advanceの導入は、最近閉鎖したStumbleUponが遺したギャップを填める試みでもある。インターネットという広大な大陸の上で途方に暮れているユーザーに16年間も、珍しいサイトやおもしろいページを紹介し続けてきたStumbleUponの仕事を、Advanceが引き継ごうというのだ。“偶然の出会い”という要素が大きかったStumbleUponと違って、Advanceにはユーザー履歴の学習に基づくお利口なオプションもあるが、インターネット上をさまようユーザーのための案内役、という点では共通している。

しかし、人生を楽にすると称する機械学習の技術が、インターネット上のWeb閲覧を助けられるためには、Advanceも、そしてバックボーンのLaserlikeも、ユーザーの閲覧履歴を大量に知る必要がある。AIが学習するためには大量のデータが必要だが、Mozillaも認めるように、個人情報の悪用や誤用への懸念も、最近のFacebookEquifaxの事故を契機として高まっている。

この不安に応えるためにAdvanceには、閲覧履歴の収集をさせないオプションや、見たら消すことをLaserlikeに求めるオプションがある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google CloudがNvidiaのTesla P4推論アクセラレーターをサポート

今やクラウドプラットホームは、GPUのサポートなくして完全とは言えない。今日のハイパフォーマンスワークロードや機械学習のタスクは、それなくしてサポートできないからだ。それらは多くの場合、機械学習のモデルの構築に使われることが多いが、しかし今日(米国時間8/6)Googleは、Nvidia P4アクセラレーターのサポートをローンチし、既存のモデルをより高速に走らせることによる推論の性能アップにフォーカスしようとしている。

また、これらの機械学習のワークロードのほかに、Google Cloudのユーザーは、高速なグラフィクスカードを必要とするリモートディスプレイのアプリケーションを、GPUを使って動かすことができる。そのためにGPUは、リモートデスクトップにログインするユーザーのためにサーバーサイドのグラフィクスの応答性を高めるシステム、Nvidia Gridをサポートする。

P4には8GBのDDR5メモリがあり、最大で毎秒22テラの整数演算ができるから、ほとんど何でもできるカードだ。しかも買うと2200ドル以上はするから、時間制で借りる方が賢明だろう。

Google Cloud上でP4を使うと、標準料金では1時間60セント、プリエンプティブルでよければ21セントだ。Googleの料金としてはP100やV100 GPUより安いが、ただし両者はユースケースがまったく違う。

この新しいGPUは最初、us-central1(Iowa), us-east4(N. Virginia), Montreal(northamerica-northeast1), europe-west4(Netherlands)の各リージョンで提供され、徐々にそのほかのリージョンでも提供される予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Calendarで会議の予定変更が楽になった

ほとんどの人が、会議は嫌いだ。そして、ごく少数の、会議が好きな人たちは、あなたが、あの人たちとは会議したくない、と願う人びとだ。でも、会議に疲れてすこし楽をしたいときでも、次に開いてる日や時間を探すことしかできない。そんなあなたの嘆きに応えてGoogle Calendarのチームは、もっと楽に会議の予定変更ができるツールを作った。

二週間後の8月13日からは、会議のゲスト(主催者以外の人たち)の誰もが会議の新しい時間を提案でき、その提案に説明のメッセージをつけられる。主催者はその提案を検討して、OKしたり断ったりする。そのとき主催者は、新しい時間を提案している全員の提案を一つの画面上で見比べることができる(下図)。

ただしちょっとおかしいのは、全員の時間変更の提案を、手作業で比較検討することだ。Googleはすでに、会議の最適時間を見つけるために機械学習のアルゴリズムを使っている。しかし会議のスケジュールの変更のためには、なぜかその新しいアルゴリズムを使わないようだ。

でも、この新しい機能はG Suiteのドメインだけでなく、Microsoft Exchangeとも併用できる。ただし要注意: 会議の出席者が200名を超えたり、終日の会議だったりすると、この機能は使えない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのBigQueryの中で機械学習のモデルを作れるBigQuery ML…データの移動が要らない

機械学習のモデルの構築にはまだ多くの障害があり、その一つが、データのあるところからモデルを構築するところへ、大量のデータを移動することだ。Googleはその工程を少しでも容易にするために、データウェアハウスBigQueryの中でモデルを作れる機能、 BigQuery MLを立ち上げた。

BigQuery MLを使うと、モデルをファインチューニングするためにデータを行ったり来たりさせることなく、データウェアハウスの中で線形回帰やロジスティック回帰を使ってモデルを構築できる。しかも、モデルを構築して予測を得るためにやるべきことは、少量のSQLを書くことだけだ。

データの移動がそんなに大きな問題だとは、ふつうの人には思えないかもしれないが、単なる物理的な移動ではなくて選択や整形などの処理が必要だから、かなりの時間を要する。そのぶん、モデルの構築に投じるべき時間がしわ寄せされる。

BigQuery MLでは、機械学習の経験の浅い者でも、容易にモデルを構築できる。まず、SQLの変種のようなもので、作りたいモデルの種類と、入力データを指定する。するとBigQueryMLがモデルの構築を開始し、そこから直ちに予測が得られるようになる。 RやPythonでコードを書く必要はない。

BigQuery MLは、今ベータを利用できる。

[若者の失業の解決、アルツハイマー病の検出、ほか]

画像クレジット: TechCrunch

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google CloudのAutoMLサービスはFigure Eightとパートナーして訓練データの充実を目指す

機械学習のモデルの訓練やテスト、微調整などを支援するプラットホームFigure Eightが今日(米国時間7/24)、Googleとの重要なコラボレーションを発表した。それによると、今後Google CloudのAutoMLサービスでは、Figure Eightが機械学習のデータの作成やアノテーションを行なうときのデファクトスタンダードのパートナーになる。

Figure EightのCEO Robin Bordoliによると、Googleは前から顧客だったが、AutoMLがベータになり、そのプロダクトポートフォリオを拡大している現状では、両社がもっと密接に協働すべき、との結論に達した。Bordoliの主張では、デベロッパーが機械学習のモデルを構築するときの今だに最大の難関が、データの訓練だ。Googleも、そのことをよく認識している。“彼らの認識では、データ訓練の欠如がAutoMLの採用を阻む基本的な障害だ”、と彼は述べる。

AutoMLの最初のプロダクトは機械視覚がメインだったから、Figure EightとGoogleのパートナーシップも、ビジュアルデータによるモデルの訓練が多かった。Figure Eightのサービスを利用することによって、比較的経験の浅いデベロッパーでも、データの収集やAutoML向けの準備、それによる実験などができていた。

Figure Eightが類似のプラットホームと違うのは、その工程に人間が関与することだ。Bordoliの主張では、訓練データのアノテーションを完全にAIツールにまかせることなんて、できない。それは、人間にだけまかせるわけにはいかないのと、同じだ(世界中の人びとを集めてタグ付けをやらせないかぎり)。

GoogleのGoogle Cloud AutoMLのプロダクトマネージャーFrancisco Uribeはこう語る: “うちの顧客の重要なニーズが、人間によるラベル付けだ。Figure Eightとのパートナーシップによって、そのニーズのサポートが強化される”。

このパートナーシップに基づいてFigure EightはAutoML専用のテンプレートと、データをアップロードするプロセスをたくさん作った。同社はまた、顧客がデータを作って訓練する際の お手伝いも提供する(それにより、公平なAI(AI fairness)の担保を目指す)。Google CloudのユーザーはFigure Eightのプラットホームを使って最大1000までの画像にラベルを付け、また同社のアノテーターを利用することもできる(アノテーションを自分でやらない場合)。

今日の発表に至るまでにFigure Eightはすでに、100億以上のデータラベルを生成しており、Googleとの公式パートナーシップにより、それはさらに加速されるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Datadogが立ち上げたWatchdogは機械学習でクラウドアプリケーションの健康をチェックし続ける

あなたが今使っている典型的なクラウドモニタリングサービスは、数ダースのサービスを統合し、きれいなダッシュボードを表示し、何らかの自動化により、アプリケーションの現況を監視する手助けをするだろう。Datadogも長年そんなことをやっていたがしかし今日(米国時間7/12)、Watchdogという新しいサービスを導入した。それは、機械学習を使って自動的に異状を見つけるのだ。

同社によると従来のモニタリングのセットアップでは、アプリケーションの動きをチェックするためのパラメータをユーザーが定義して、それらをモニタするためのダッシュボードやアラートをセットアップしていた。しかし今日の複雑なクラウドアプリケーションでは、そのやり方には限界がある。そこで、オートメーションの層がもうひとつ必要になる。

そしてそれが、Watchdogの役目だ。このサービスは、捉えられるかぎりのパフォーマンスデータをすべて観察し、それらの正常値を学習し、そして何か異状が起きたらアラートを発して、できるかぎり、何が起きたのかのインサイトをユーザーに与える。

Datadogのデータサイエンスの長、Homin Leeが、Watchdogの発表声明で述べている: “私たちの顧客の長年にわたるデータセットを使って、アルゴリズムの研究と訓練を行った。プログラムが問題を見つける点ではこの技術はユニークだが、それだけではなく、ユーザーが調査を始めるために必要な、おおよそのルートコーズ(根本原因)を指摘できる”。

このサービスは、DatadogのEnterprise APMプランの顧客が今日から利用できる。

関連記事: デベロッパーとオペレーションの文化を融合するDatadog(未訳)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa