日本財団らが手話習得ゲーム「手話タウン」正式版をローンチ、スマホ対応や音声からの手話作成などの目標も


公益事業をサポートする社会貢献財団「日本財団」は、「手話言語の国際デー」(9月23日)を目前に控えた9月22日に、手話学習オンラインゲーム「手話タウン」を正式公開し、発表会を開催した。同アプリは、香港中文大学関西学院大学Googleの協力を得て、ベータ版を公開していたもの。

香港中文大学と関西学院大学は、各国の手話データの収集やろう者に関する知見の提供を、またGoogleは、プロジェクトのコンセプト立案と機械学習用オープンソースライブラリー「TensorFlow」を活用し、人のポーズとジェスチャーを認識する「PoseNet」、口と顔の表情を認識する「Facemesh」、手の形と指の検出をするハンドトラッキング(Hands)といった3つの機械学習モデルを組み合わせた手話動作の検出技術を開発するといった役割を担った。

発表会では、日本財団会長の笹川陽平氏、開発チームの中心となった日本財団特定事業部True Colorsの川俣郁美氏、自身もろう者で「聞こえない人あるある」など耳の聞こえない人の日常を「ユリマガール」として発信しているYouTuber くろえ氏が登壇。手話言語を取り巻く日本の環境や、手話タウンにかける思いなどを語った。

日本では手話が言語認定されていない?

まず笹川氏は、国連総会で決議された「手話言語の国際デー」について触れ、「日本は障害者権利条約を批准しているにもかかわらず手話を言語として認めていない」という現状を語った。

日本財団会長の笹川陽平氏

「手話言語法制定がなかなか進まず、手話を言語として認めない状態では、障害者雇用も一向に進まない」とのことで、民間の大企業に関心を持ってもらうよう日本財団が働きかけてきたという笹川氏。

「世界には約15億人の障害者がいるという。働く能力も情熱もある彼らは、ビッグマーケットでもある。健常者には汲み取れないニーズを理解できる障害者を雇い入れることで、障害者が本当に必要とするような製品開発も進む。

すでにGoogleやMicrosoft、SONYや日立など大企業500社がタッグを組んで障害者雇用を率先して行っている。アフターコロナはこのようなダイバーシティ&インクルージョンが一気に進むだろう」(笹川氏)

「その取り組みのひとつが『手話タウン』。誰もが共に働ける社会の実現に向け、手話に気軽に触れてもらいたい」とあいさつをした。

手話タウンは手話への入り口

続いて登壇した川俣氏は、手話で手話タウンが生まれた背景、概要、目指すところについて説明した。

日本財団特定事業部True Colorsチーム 川俣郁美氏

聴覚障害者は世界で4億6600万人。会話はできるけれど聞き取りづらい、飛行機の轟音さえ聞こえないなどレベルは様々だが、20人に1人が聞こえで課題を持っていることになる。

そのうち、手話を日常的に使うろう者は20%。つまり、世界人口の100人に1人が手話でコミュニケーションをとっている。

ここでひとつ思い出したいことがある。私たちが「物心ついた時」というのは、言葉を覚え始めた頃ではないだろうか。つまり、言語と思考には密接な関連があるということだ。

音のない世界で生活するろう者(ここでは、手話の未習得者で耳の聞こえない人のこと)は、手話という言語を習得することにより、自分の意志を相手に伝え、相手のことを理解し、学習し、思考することができるようになる。このことから手話がコミュニケーションというものを超越した“生きることの基盤である”、ということが理解できるだろう。

しかし、「国内では手話を言語として認めないだけでなく、手話への理解も少ない」と川俣氏。「米国では手話を第2言語として教える手話クラスのある公立高校が1100校あるが、国内で手話を授業に総合学習のような形でも取り入れたことのある学校がある市区は38.3%(230市区)、に過ぎない。大学など高等教育機関に至っては、手話を語学として講義を行っているのが9校であるのに対し、米国では第2言語として792校がコースを開講している。西語、仏語に続き3番目に多く履修されている言語だ」と解説した。

「自治体で手話の講習会を開いているところもあるが、教育機関として学べる米国のように、体系的かつ若い時から学んで触れる機会がない日本では、ろう者が生活していく上で難しい場面も多い。

少しでも手話を身近なものと感じてもらいたい、手話に触れる入り口にしてもらいたい、という想いで手話タウンを開発した」(川俣氏)

公式版は、よりフレンドリーなユーザーインターフェースに

5月24日にリリースした手話タウンベータ版の体験者約8500人(延べ)から得たフィードバックにより、公式版では次のような改良が加えられた。

  • チュートリアルの追加
  • 見本動画の拡大・スロー再生機能追加
  • 見本動画と自分の手話の比較表示機能追加

手話は、顔だけでなく肘を含む手の動きで表現する。そのため、一般的なビデオ会議のとき以上にPCのカメラから離れる必要がある。どれほど離れる必要があるのか、正しく認識されているかをチェックするために、チュートリアルが追加された。

遊び方の説明も追加された。どのようにプレイするかが一目瞭然

チュートリアルではカメラの位置(実際には自分の位置)調整、認識するのに体のどの部分が必要なのかが、よりわかりやすくなった

スロー再生(0.25倍速再生)で細かい動きをしっかり把握しやすく

また、ベータ版では見本となる動画が小さく、動きも早かった。また、2つの窓で同時に表現するため、目がさまよってしまい、選んで表現したいと思う側に注目できないという課題も合った。実際、筆者も「これは指を何本立てているのか」「右下? 真下?」と戸惑うことが多かった(ダンスなどの振り付けを覚えにくいという特性も関係しているが……)。それが正式版では、拡大表示することで1ウィンドウで大きく見られるようになり、その状態でスロー再生(0.25倍速再生)して、しっかり動きを把握できるようになった。

以前の見本動画の一例。並べて表示するため小さく、目がさまよってしまう

正式版ではそれぞれの見本動画を拡大表示できるようになった。また「0.25x」をクリックすればスロー再生も可能。細かなところまで確認できる

地味な追加要素ながら、文字のわからない子どもや外国語話者でも理解できるよう、それぞれの見本動画の左上に、表現したいものを表すアイコンが添えられるようになった

見本動画と自分の手話表現の動画を見比べて、客観的に違いを確認できるように

最後は、自分の手話表現が「間違い」だったときに、見本動画と自分の手話表現の動画を横に並べることで、どこが違うのかを見比べられるよう比較表示機能が追加された。自分では完璧に真似をしているつもりでも、客観的に「そうじゃない」ということがわかるというわけだ。

手話タウンは「プロジェクト手話」の一環、音声からの手話作成や手話から音声への翻訳などの目標も

公式版になった手話タウンをプレイした くろえ氏は、「キャラクターがかわいらしいので、小さな妹と一緒にプレイできる。今、日本語手話だけでなく外国語手話に興味があるので、香港手話を学べるのはありがたい。今後、ほかの国の手話も学べるとうれしい。友人と一緒に遊んでみたい」と感想を語った。

「ユリマガール」YouTuber くろえ氏

川俣氏は、「手話タウンは、『プロジェクト手話』の一環に過ぎない。将来的には音声から手話を自動的に作成したり、手話から音声へ翻訳したりするという大きな目標がある。今は3場面、36単語しか学べない、またPCのウェブブラウザーからしかアクセスできない手話タウンだが、今後は単語数を増やし、スマホやタブレットでも遊べるようにしていきたい」と今後の抱負を述べた。

また、発表会後、個別取材に対応したTrue Colorsチーム チームリーダー青木透氏は「手話タウンは、手話に触れる門戸を広げることが第一の目的なので、今はアカウントの作成や登録なしにプレイしてもらえる仕様になっている。しかし、場面や単語数が増えた将来には、習熟度をチェックしたいというニーズも増えてくるだろう。協力者である香港中文大学、Google、関西学院大学と共に、アカウント方式にするかしないかを検討するようになるかもしれない」と話していた。

Googleが手話認識技術開発で協力、ゲーム感覚で手話を学びろう者への理解を深める「手話タウン」をプレイしてみた

9月23日は「手話言語の国際デー」だ。これは、手話言語(以下、手話)が音声の言語と対等であることを認め、ろう者の人権が保証されることを目的に、国際連合が2017年12月19日に決議したもの。手話について意識を新たにする日となる。

とはいえ、「手話はよくわからない」「やったことがない」「学んだものの試す機会がない」という人も少なくないだろう。

そのような人たちにぜひとも試してもらいたいのが手話学習オンラインゲーム「手話タウン」だ。

手話タウンとは?―日本財団が香港中文大学・関西学院大学・Googleの協力によって開発

手話タウンとは、公益事業をサポートする社会貢献財団「日本財団」が、香港中文大学、関西学院大学、Googleの協力によって開発したウェブブラウザー上でプレイできるゲーム。現在はベータ版だが、手話言語の国際デーに正式公開することを目指してテストや開発が進められている

香港中文大学はプロジェクト全体の日本財団との共同統括、手話言語学における学術的見地からの監修、手話データの収集、ろう者に関する知見の提供を、関西学院大学は日本手話の学習データ収集とろう者に関する知見の提供、Googleはプロジェクトのコンセプト立案、AIによる手話認識技術の研究開発をするといった役割を担う。日本財団は、手話・ろう者についての知見の提供ならびに開発に必要な資金の提供を行っている。

また手話タウンプロジェクトでは、2Dしか認識できない一般的なカメラでも立体的な手話の動きを、上半身、頭、顔、口も含めて認識できる機械学習モデルを開発。日本と香港で手話を日常的に使用しているろう者の手話映像データを収集し、学習させることで、手話学習者が正しく手話を表現できているかの判断を可能にしているという。基盤となっている手話認識技術はTensorFlowを活用し3つの機械学習モデル(PoseNet、Facemesh、ハンドトラッキング)を組み合わせており、ソースコードについてはオープンソースとして公開している。

ウェブカメラ、PCとウェブブラウザー、そして手話を学びたい心があればすぐに始められる

ゲームに必要なのは、ウェブカメラを搭載してネットに接続されているPCとウェブブラウザー、そして手話を学びたいという心だ。アカウントの登録も、課金も必要ない。また、あらかじめ手話を覚えておく必要もない。

手話タウンにAndroidおよびiOSのウェブブラウザーでアクセスしたところ、PC用ブラウザーを利用するようメッセージが表示された

手話タウンにAndroidおよびiOSのウェブブラウザーでアクセスしたところ、PC用ブラウザーを利用するようメッセージが表示された

プレイヤーは手話タウンと呼ばれる架空の町を旅行しながら、少しずつ手話のアイテムを集めていく。例えば、色や服飾小物、食べ物などだ。

学べる手話は、日本手話と香港手話のいずれか。小学生の頃に手話に親しんだ筆者が、ベータ版手話タウンに挑戦してみた。選んだ手話言語は日本語手話だ。

荷づくりからチェックインまで体験

手話タウンにアクセスしたら、まずは表示する言語を選ぼう。日本語、英語、中国語(繁体字)から選べる。

ついで、手話言語を日本語手話と香港手話のいずれかを選ぶ。

ゲームは、出発前の荷づくりからスタートする。アイテムをどんどん選んでいき、荷造りを完成させる。なお、始めると、2つのアイテムを示す「お手本動画」が流れる。どちらかを手話で表現することで、アイテムを「選んで」いける。

2つのお手本動画が同時に流れるので、最初は自分にとってわかりやすいものを選ぼう。「できた」という達成感が重要なのだ

正しく手話を表現できると「手話で表そうとしたのは……?○○?」と表示され、その手話が表すアイテムの“バッジ”を集められる。表現が不明瞭だと「ごめんなさい!どの手話単語か分かりませんでした。」と表示される。スキップすることも、やり直すことも可能だ。

正しく表現できると「手話で表そうとしたのは……?○○?」と表示される。意図したものであれば「はい」を選んで次へ進もう

「腕時計」「ハイヒール」をなかなか表現できず、心が折れそうになる場面も

ゲームは、アイテムのバッジを集めていくことで進んでいくが、途中で次の場面に移動することも可能。もっとも、挑戦中のステップを完成させたほうが達成感を味わえるのは言うまでもない。

荷づくりのステップで集められるアイテムは6つだが、何回もチャレンジすれば、覚えられる手話単語はその倍の12に増やせる

ゲーム内では、手話タウンにあるレストランで食事をし、ホテルにチェックインするところまで体験する。レストランではメイン料理名、食材、飲み物などの手話単語を、ホテルでは喫煙・禁煙室、現地払い、カード払いといった、実際に宿泊する際に必要になる手話単語を覚えられる。

ゲームが進むにつれ、表現が複雑になってくるのだが、何度もお手本動画を確認したり、カメラに向かって表現することでクリアできるようになる。

また、何度もプレイしているうちに、「なぜワインは『3』を表す指で表現するのだろう」「なぜレモンは……」などと疑問が浮かんでくることだろう。能動的に調べることで、「そういうことか」と謎が解け、もっと手話を学びたいと思うようになるかもしれない。

ろう者についてもっと知ることができる工夫も

手話タウンでは、手話単語だけでなく、ろう者の文化を学べる工夫もなされている。場面が進んだときに現れる白いキャラクターをクリックすると、目覚ましのアラームはどうしているのか、ろう者がいたらどのように声がけすればいいかといったプチ情報が表示され、ろう者への理解を深めるのに一役買っている。

白いキャラクターのうち、線が赤く点滅しているものをクリックしてプチ情報を表示できる

ノックの代わりに電気を点けたり消したりする、という目からうろこの情報

各場面でのプチ達成感が、手話を学びたいという意欲をかきたてる

まだベータ版ということもあり、「荷づくり」「食事」「宿泊」の3場面だけだが、各場面をコンプリートしたときに得られるプチ達成感が、手話を学びたいという意欲をかきたてる。

なお、手話は手だけでなく、顔の表情や上半身も使う。そのため上半身全体が収まるよう、カメラとの距離が必要になる。また、AIが表現した手話を認識しやすいよう、プレイするときには柄物より無地に近い服を選んだほうがよいだろう。さらに、手話を表現するときに、それが表す単語を口にすると、口の形も読み取れるため認識率がアップする。

手話タウンにチャレンジする人が増えることで、ろう者への理解が深まり、手話への抵抗感が少ない社会の醸成されることが期待したい。

ガイアックスが日本初の「スマートシティ実現に向けたLiDARデータ活用アイデアソン&ハッカソン」を9月30日開催

ガイアックスが日本初の「スマートシティ実現に向けたLiDARデータ活用アイデアソン&ハッカソン」を9月30日開催

ガイアックスと芝浦工業大学は8月5日、LiDARをテーマとした「スマートシティ実現に向けたLiDARデータ活用アイデアソン&ハッカソン」を9月30日に開催すると発表、参加者の募集を開始した。

LiDARとは、光を使って検知や測距を行うシステムのこと。電波を使うレーダーに対して「ライダー」と呼ばれる。このイベントでは、京都市内の10地点で数カ月間にわたりLiDARで取得した交差点、幹線道路、駐車場の3Dデータを使ってアイデアを競い合う。内容は、「新規事業のアイデアを創出することを目的としたアイデアソン」と、「ディープラーニングによる分析により新たなナレッジを創出することを目的としたハッカソン」に分かれている。その結果は、京都市の交通混雑、交通事故、路上犯罪の対策に役立てられることが期待されている。LiDARで実際に取得した画像「動的LiDARデータ」を使ったアイデアソンやハッカソンは、ガイアックスによれば日本初の取り組みとのこと。

共催者には、エクサウィザーズ、京都リサーチパーク、京都高度技術研究所(ASTEM)が参加。後援者には、エースコード、データサイエンティストの古屋俊和氏 (エクサウィザーズ創業者およびQuantum Analytics CEO)、京都大学桂図書館が参加している。

LiDARの開発の競争は100社以上に激化しており、応用についても2021年2月Google TensorFlow 3Dの発表、2021年6月の「3D-LiDAR活用ビジネスを創出するスマートセンシングアライアンス」の設立に代表されるとおり、今後急速な活発化が予想されるという。エンジニアや学生が同イベントに参加することで、今後のキャリアパスやキャリアアップにつながると考えているという。

概要

  • 開催日時:2021年9月30日9:00〜18:30
  • 対象者:学生、社会人で下記の参加要件を満たす方
  • 参加要件
    ・LinuxのCUI操作に関する基礎的知識とスキルを有すること
    ・プログラミング言語の基礎的知識とスキルを有すること
    ・機械学習プログラミングに関する基礎的知識とスキルを有すること
    ・Dockerに関する基礎的知識を有すること
    ※3DデータやAI未経験者歓迎
  • 参加費:無料
  • 募集人数:最大30チーム
  • 収容人数:京都会場10名、東京会場10名、オンライン会場50名
  • 開催形態:オンラインと会場のハイブリッド
  • 会場
    ・京都会場 京都リサーチパーク KRP1号館4階 G会議室(京都市下京区中堂寺南町134)
    ・東京会場 芝浦工業大学豊洲キャンパス研究棟14階 新熊研究室(東京都江東区豊洲3丁目7-5)
    (新型コロナウイルスの感染拡大状況によっては完全オンラインになる可能性もある)
  • 参加形態:最大3名のチーム。1名で参加も可能だが、複数チームを兼ねての参加は不可
  • 入賞特典:入賞したチームには下記の特典を付与
    ・最優秀賞 / 賞金20万円 1件
    ・ガイアックス特別賞 / ガイアックスでのエンジニアインターンの権利 最大1件
    ・データサイエンティスト古屋俊和 特別賞 最大1件など

ガイアックスの技術開発部マネージャー、日本ブロックチェーン協会理事の峯荒夢氏は、こう話している。
「人間は道具を使うことより食料調達を効率化し、節約できた時間でさらなる進化をしてきました。スマートシティはデータを使った効率化による人間の進化を引き起こすものだと私は考えています。本アイデアソン・ハッカソンでは、LiDARを軸にその新たな効率化そして人間の進化の一歩となることを期待しています」。

関連記事

iOSアプリ開発者に訊く:LiDARで空間を演出するアプリ「Effectron」 (アフェクション)
Proxima Technologyが単眼・ステレオカメラ対応の深層学習を用いた高精度visual SLAM技術「DVF SLAM」開発
テスラのライバルNIOにLiDARを供給する中国Innovusionがシンガポール政府系ファンド主導で69.5億円調達
エアバスとLuminarが提携を発表、LiDARを使い航空機の自動操縦や安全向上を目指す
ガイアックスが完全オンラインの起業支援開始、地方在住スタートアップを募集
NASAやJAXAが5月末に新型コロナ対策ハッカソンを共同開催

カテゴリー:イベント情報
タグ:ガイアックス(企業)機械学習 / ML(用語)芝浦工業大学(組織)3D / 3Dモデル(用語)3D-LiDAR(用語)TensorFlowDocker(企業・サービス)ハッカソン(用語)プログラミング(用語)LiDAR(用語)Linux(製品・サービス)日本(国・地域)

GoogleのCloud TPU Podsの最新世代はMLモデルの訓練を短時間化

Googleは米国時間5月7日、Cloud TPU Podsの第2世代と第3世代を発表した。このクラウドベースのスケーラブルなスーパーコンピューターは、最大1000基の同社特製のプロセッサ、Tensor Processing UnitsTPU)を使用する。それを本日からは公開ベータで一般に利用できる。

最新世代のv3は特に強力で、プロセッサーは水冷されている。一つ一つのポッドが最大で100ペタFLOPSの演算能力を持ち、Googleによれば、世界のスーパーコンピューターの5位以内に入るそうだ。ただし、このTPUポッドはあまり高い演算精度を望めないだろう。

TPU Podは、その全体を使わなくてもいい。Googleはこれらのマシンのスライスをレンタルで提供している。しかし、いずれにしても極めて強力なマシンであり、ResNet-50の標準的な画像分類モデルをImageNetの(100万を超える)画像データセットで訓練する処理を2分で終える。

TPU v2のポッドはコア数が最大512で、v3よりやや遅い。例えば、265基のTPUを使用した場合、v2のポッドはResNet-50のモデルを11.3分で訓練するが、v3ならわずか7.1分だ。ちなみにTPUを1個だけ使うと302分かかるだろう。

当然だが、Googleによればポッドは(料金がどんなに高くても)モデルを早く訓練したいときや、ラベル付きの標本が数百万という大きなデータセットで高い正確性が必要、あるいは新しいモデルのプロトタイプを素早く作りたい、といったユースケースに向いている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Googleのセマンティック体験(Semantic Experiences)でAIと言葉遊びをしよう

Googleは自然言語の処理や合成で大量の研究開発をしているが、それらはアシスタント機能や音声認識/合成だけが目的ではない。その中には、AIの機能でできる範囲内での楽しいものもあり、そして今日(米国時間4/13)同社は、Webの閲覧者が言葉の連想システムで遊べる実験を発表した。

最初の実験は、膨大すぎて言及される機会も少ない本のデータベースGoogle Booksの、おもしろい検索方法だ。それは、言葉そのものでテキストやタイトルを探すのではなく、データベースに質問をする。たとえば、“なぜナポレオンは流刑になったのか?”(Why was Napoleon exiled?)とか、“意識の本質は何か?”(What is the nature of consciousness?)など。

すると、その質問の言葉と密接に結びついている文節が返される。結果はヒットもあれば空振りもあるが、でも良くできているし、柔軟性もある。ぼくの質問に答えるセンテンスは、必ずしもキーワードに直接関連していないし、とくにそれら〔物理的な言葉そのもの〕を探した結果でもない。

でも、それが人間と知識の内容が対話するとても分かりやすい方法か、というと、それは違うようだ。質問をするのは、答が欲しいからであり、質問と関係があったりなかったりするいろんな、互いに相反するような、引用を見たいのではない。だからぼくがこれを日常的に使うとは思えないけど、ここで使われているセマンティックエンジンの柔軟性を示す、おもしろいやり方ではある。しかもそれによって、今まで自分が知らなかった著作家に触れることができるが、ただし、データベースの収蔵書籍数は10万もあるから、当然、結果は玉石混交だ。

Googleが紹介している二つめの実験プロジェクトは、Semantrisというゲームだ。“なんとかトリス”というゲームは昔からどれも難しいが、これは超簡単だ。言葉のリストが表示されて、一つが高輝度になっている(下図)。それと関連があると思われる言葉〔連想した言葉〕をタイプすると、GoogleのAIが、関連性の強いと思う順に言葉を並べ替える。ターゲットの言葉を下に移動すると、一部の言葉が爆発して、新たな言葉がいくつか加わる。

これは、暇つぶしには良いかもしれないが、やってるうちに自分が、Googleの連想エージェントの訓練に使われるモルモットになったような気がしてくる。遊び方は、とてもやさしい。でも、水(water)からボート(boat)を連想しても、誰もすごいとは思わないね。でも、やってるうちに、だんだん難しくなるのかもしれない。ユーザーの応答がAIの訓練用データとして使われるのか、今Googleに問い合わせている。

プログラマーや機械学習のマニアのためには、Googleは訓練済みのTensorFlowモジュールをいくつか提供している。そしてそのドキュメンテーションは、このブログ記事の中のリンク先の二つのペーパーにある。

〔訳注: Googleはセマンティック検索の実現を目指して、これまで多くの企業〜スタートアップの買収を繰り返している。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleがTensorFlow Liteのデベロッパープレビューを共有、画像や自然言語処理で試用可

5月のGoogle I/Oで、TensorFlowのモバイルデバイス用のバージョンが発表されたとき、会場のデベロッパーたちはざわめいた。そして今日Googleは、その期待に応えて、TensorFlow Liteのデベロッパープレビューをリリースした。

このライブラリは、スマートフォンや組み込みデバイスで使う軽量級の機械学習ソリューションを作ることがねらいだ。Googleはそれを、TensorFlowのモバイルに向けての進化と呼び、今日からそれを、AndroidとiOS両方のアプリデベロッパーが利用できる。

開発の主眼はモデルの訓練よりもむしろ、非力なデバイス上での、モデルからの推論の短時間化におかれている。ふつうの言葉で言えばTensorFlow Liteは、モデルにすでにある(学習済みの)能力を、与えられた新しいデータに適用することがその主な目的であり、データから新しい能力を学習することは、多くのモバイルデバイスにとって、荷が重すぎるのだ。

TF LiteをTFの部分改作ではなくスクラッチから作ったのは、その軽量性を徹底すること、そして素早く初期化され、さまざまなモバイルデバイス上でモデルのロードも素早いことをねらったからだ。TensorFlow Liteは、Android Neural Networks APIをサポートする。

今回は完全なリリースではないから、今後まだ、いろんなものが加わってくる。現状のTensorFlow Liteは、Googleによると、視覚処理と自然言語処理のいくつかのモデル、MobileNet, Inception v3, Smart Replyなどを使える状態だ。

TensorFlowのチームは、こう書いている: “このデベロッパープレビューでは、われわれは意図的に限られたプラットホームでスタートし、もっとも重要でよく使われる一部のモデルでのパフォーマンスを、確実にしたいと考えた。われわれの計画では、将来の機能拡張はユーザーのニーズに基づくものにしたい。われわれの開発の目標は終始一貫してデベロッパー体験の単純化にあり、さまざまなモバイルおよび組み込みデバイスでモデルをデプロイできるようにしたい”。

関心を持たれたデベロッパーは、TensorFlow Liteのドキュメンテーション読んで、その霊に取り憑かれてしまおう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

モバイル向けに痩身の機械学習/ディープラーニングモデルを作るTensorFlow LiteがGoogle I/Oで発表

今日(米国時間5/17)のGoogle I/OでAndroidの将来について話す中で、エンジニアリング担当VP Dave Burkeは、モバイル向けに最適化されたTensorFlow、TensorFlow Liteを発表した。デベロッパーはこのライブラリを使って、Androidスマートフォンで動く痩身のディープラーニングモデルを作れる。

Googleはこのところますます多くの、Android上で動くAIを使ったサービスを展開しているから、それ専用の小さくて速いモデルを作れるフレームワークを使うのも当然だ。このAPIも年内にはオープンソースでリリースされる予定だ。

昨年はFacebookが、Caffe2Goを発表した。それもやはり、同社のディープラーニングフレームワークCaffeのモバイル用バージョンで、モバイルデバイスに合ったモデルを作れることがねらいだ。Facebookはこれを使ってリアルタイムの写真整形ツールStyle Transferを作り、それはまた、今後のプロダクトやサービスの基盤にもなるものだ。

ただし、モデルを作るための教育訓練は、あまりにも計算集約的な処理なのでスマートフォン上でやるのはまだ無理だ。いや、訓練済みのモデルですら、従来のものはモバイルには重すぎた。でもモデルがデバイス上で使えれば、状況によってはクラウドとインターネットがまったく要らなくなる。スマートフォン上のディープラーニングのパフォーマンスが、より安定するだろう。

TensorFlow Liteは、AIとモバイルデバイスの結合というGoogleのビジョンをさらに前進させる。そしてその次の段階としては、TensorFlow Liteが活躍する場を増やすための、さまざまな専用ハードウェアの開発ではないだろうか。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBMの機械学習フレームワークPower AIがGoogleのTensorflowをサポート、Intelより一歩遅れて

shutterstock_157995017

IBMには、同社のPowerプロセッサーとNVIDIAのNVLinkをベースとするサーバーを使っている企業のための機械学習フレームワークPowerAIがある。NVLinkはGPUとCPUを結ぶ高速リンクで、ディープラーニングの計算はその多くをGPUが担当する。今日(米国時間1/26)同社は、そのPower AIが、機械学習ライブラリの中ではとくに人気のあるGoogleのTensorflowをサポートする、と発表した。

TensorFlowは公開されてまだ1年とちょっとだが、短期間でGitHub上の一番人気のオープンソース機械学習ライブラリになった。IBMのPowerAIはすでに、CAFFETheano, Torch, cuDNN, NVIDIA DIGITSなどのフレームワークをサポートしていたが、Tensorflowのサポートがないことが、まるで欠陥のように感じられていた。

IBMはPowerAIのNvidia NVLinkインタフェイスとPascal P100 GPUアクセラレータの組み合わせを、強力な差別化要因とみなしていた。その際、競合他社としていちばん意識しているのがIntelだが、そのIntelが最近Googleと組み、同社のCPUでTensorFlowのパフォーマンスを上げようとしている。

IBMはもちろん安物のサーバーを売っている企業ではないので、Power AIをサポートするマシン、Power System S822LC for high-performance computingは、プライスリストにすら載っていない。その一般商用バージョンの価格は、1万ドル弱から上だ。

IBMの今日の発表の中には、TensorFlowのサポートに加えて、ニューラルネットワークを作るためのフレームワークChainerのサポートがあった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleの機械学習ライブラリTensorFlowがv 0.8から分散並列処理をサポート、訓練の高速化が期待

tensorflow_-_an_open_source_software_library_for_machine_intelligence

Googleが今日、機械学習のためのオープンソースのライブラリTensorFlowの、0.8をリリースした。こういう、小数桁のアップデートは、それほど重要でない場合が多いけど、TensorFlowはこのバージョンから、機械学習のさまざまなモデルを構築するための訓練プロセスを数百台のマシン上で並列に動かせるようになる。

これまで、TensorFlowを使って数日〜数週間を要していた複雑なモデルの訓練が、数時間でできるようになる。

同社によると、TensorFlowでかねてからいちばん多い要望が、分散コンピューティングだった。今回のアップデートにより、基本的には、最近発表したばかりの、クラウド上でホストされるGoogle Cloud Machine Learningを、すべてのデベロッパーが利用できることになる。

Googleによると、並列処理を担う全マシンをgRPCライブラリを使って管理する。また、画像を分類するニューラルネットワークInceptionのための分散トレーナーもローンチする。これはコンテナ管理サービスKubernetes使って、処理を数百台のマシンやGPUへスケールアップする。このリリースの一環として、これらの分散モデルを作るライブラリが、新たにTensorFlowに加わる。

TensorFlowを面倒なセットアッププロセスなしで試したい、という人たちのためにはブラウザー上のシミュレーターがあり、そこでTensorFlowのセットアップや深層学習の基礎を実験できる。

A_Neural_Network_Playground

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))