軌道上で設定変更可能で機械学習に最適化されたXilinxの宇宙規格チップ

宇宙に特化した半導体メーカーのXilinx(ザイリンクス)が開発した、宇宙空間や人工衛星で利用可能な新型プロセッサーは、いくつもの点で世界一を誇っている。宇宙向けとしては初めての20nmプロセスを実現し、演算能力と省電力性を高めている。そして、ニューラルネットワークをベースにした推論アクセラレーションによる高度な機械学習に対応する性能を備えたのも初めてだ。

このプロセッサーはFPGA、つまり基本的にユーザーが設定を変更できるハードウェアなので、必要に応じて調整が行える。機械学習の面では、演算命令実行回数が「深層学習に最適化したINT8のピーク性能」で最大5.7TOPS。これは、ひとつ前の世代と比較して25倍もの性能アップだ。

Xilinxの新しいチップは、いくつかの理由で人工衛星市場で多大なポテンシャルを発揮できる。ひとつには、プロセッサーのサイズが格段に小さくなったことだ。同社がこれまで作ってきた耐放射線チップは65nmプロセスのみの提供だった。つまりこれはサイズ、重量、電力消費量における大幅な改善を意味する。このどれもが、宇宙での使用を語る際に非常に大切な要素となる。何故なら人工衛星は、打ち上げコストと宇宙空間で使用する推進剤の必要量を減らすために、できるだけ小さく軽く作る必要があるからだ。

もうひとつは、書き換え可能であるため軌道を周回するアセットは、必要に応じてプログラム変更をして別の仕事にあたらせられることだ。その仕事に今回、機械学習アルゴリズムのローカルでの処理が加わった。つまり理論的には、例えば雲の密度と気候パターンを追跡するよう設定された地球観測衛星を、森林破壊や鉱物の露天採掘を推論させる衛星に変更することが可能だ。また、市場の需要が大きい地域に衛星を集合させたい衛星コンステレーションの運用にも、大きな柔軟性をもたらす。

Xilinxのチップはどれも、地上で使うものといろいろな点で異なっている。前述の耐放射線性能もそのひとつだ。また、パッケージは分厚いセラミックでできており、激しい振動といった外部からのストレスが加わる打ち上げ時にも、空気がないために放射線や温度の点で過酷な環境にさらされる軌道上でも、確かな耐久性を確保できるように作られている。

[原文へ]
(翻訳:金井哲夫)

日本発のPaintsChainerはAIで線画を自動着色―ニューラルネットワークが驚異の能力

2017-02-03-paintschainer

スケッチが趣味という人は多いだろう。しかし線画を着色するという作業にはあまり魅力を感じないかもしれない。それなら最新のデジタルアート・テクノロジーが助けになる。

Chainerというのは非常に汎用性の高いニューラルネットワークのフレームワークだ。PaintsChainerはこのChainerフレーワークをベースにスケッチを自動的に着色してくれるプロジェクトだ。コンテンツが線画でさえあれば作成したツールは問わない。各種のフォーマットがサポートされている。JPG、PNG、GIFはもちろんTIFFでもよい〔ただしαチャンネルはサポートしていない〕。

ユーザーが線画を選んでウェブページにドラグ・アンド・ドロップするだけでシステムは水彩画ないし色鉛筆スタイルで着色を実行する。

Left to its own devices, the tool comes up with interesting color choices.

ヒントなしで作業させるとこのAIツールは自分の趣味で着色を行う。

もちろんユーザーはどの部分をどんな色で着色すべきかツールに正確に指示することができる。しかしブラウザ内に表示されるツールバーのカラーパレットから色を選んで希望の場所に点を打つことでAdventure Timeの登場人物とピカチュウの例のようにヒントの入力ができる。ヒントを細かく指定するほど仕上がりもよくなるようだ。いずれにしても自分で着色するのに比べればはるかにシンプルだ。

ofy8l1hn8utva2l4k1x7odgrmehec9mw_0

特に驚きなのはこのシステムがいっさいのヒントなしでも着色を実行できることだ。ガイダンス・システムを通じてわずかなヒントを与えるだけで出来栄えは大きく改善される。現在PaintsChainerを利用した多数の画像が公開されている。下に貼ったような非常によく描けたオリジナル線画も多い。Twitterで#PaintsChainerというハッシュタグで検索できる。

〔日本版〕ベースとなるAIフレームワークのChainerのサイト。PaintsChainer開発者tai2an氏の「自動着色デモ公開」のツイート。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Magic Ponyは既存データからニューラルネットワークで全く新しい画像をリアルタイムで生成する

2016-04-15-magicpony
The source image on the left was used to generate the one on the right.

(左側がオリジナルのしっくいが剥がれてかけたレンガ壁の画像。右側はニューラルネットワークを用いて新たに生成された画像)

イギリスのスタートアップは畳み込みニューラルネットワーク(convolutional neural network=CNN)を利用したユニークなソフトウェアを開発した。機能はAdobeの画像ソフトのコピースタンプや修復ブラシに似ているが、画像の隙間を単純に既存画像で埋めるのではなく、まったく新しい画像データを生成する点が異なる。

新しい画像は既存画像よりサイズが大きくなり、描写も詳細になる。そう聞いただけではにわかに信じがたい。まるで魔法のような機能だ。おそらくそれがこのスタートアップがMagic Ponyと名乗る理由なのだろう。

このスタートアップは半ステルス状態からわずかに脱したところだ。 Magic Ponyの開発者はシステムに同一の画像やビデオを異なる精細度で供給し、両者の差異を学習させたという。MIT Tech ReviewにMagic Ponyのテクノロジーの最初の成果が掲載されている。

われわれは人間の顔がどのようなものであるかよく知っている。そこで荒い画像からでも顔の細部を補うことができる。Magic Ponyの人工知能はこれと同様本来はどのような情報が含まれていたはずであるかをピクセルごとに推測する。この外挿法によって画像の細部が補われる。

たとえば、ひどくブレたビデオ画像を、元画像を推測することによって見やすい画像に置き換える。システムは画像が「本来どのようなものであったか」を判断できるので、どんなにひどくノイズが混入していても、それらを取り除いて文字なら文字を正確に復元できる。ピクセルのパターンが人間の顔を示していればシステムは人間の顔のあるべき状態に基いてシャープネスを高め、見やすくする。

screen_compare

クリックすると拡大されるので画像を比較しやすくなる。

当面きわめて有望な応用は、クライアント側で標準的なGPUだけを使って低品質なストリーミング・ビデオをリアルタイムで高品質に改善するようなアプリだろう。各種の高機能なビデオ・フィルターは市場に出回っているものの人工知能を高度に利用したMagic Ponyのテクノロジーはそれらを大きく上回る可能性がある。

画質の改良に加えて、Magic Ponyのシステムはそれまで存在しなかった新しい画像を生成することもできる。システムは輪郭線の検出といった低レベルの機能だけでなく、画像の全体的構造や何を意味しているかといった高レベルの認識も可能だ。人工知能はこれに基いて、既存の画像に統計的に類似した画像やオリジナル画像を拡大した画像を創りだすことができる。

記事のトップのしっくいとレンガ壁の画像をもう一度見ていただきたい。右側の画像は高い精度で同じ壁の異なった箇所を描写しているように見える。しっくいやレンガの色彩、質感はきわめて自然だ。システムは左側のオリジナル画像からしっくいやレンガが描写される規則を発見し、それらを用いてより大きい画像を創り出している。

ゲームや対話的CGビデオで、少数のテクスチャー・データからユーザーのコマンドや登場キャラクターの動きに応じてダイナミックにリアルな画像が生成されるところが想像できる。角を曲がった先の建物の蔦がはった壁面や鞘から抜かれた剣のきらめきといったディテールは現在の技術ではオンデマンドでは描写できない。もちろんMagic Ponyのテクノロジーを用いても依然として目視によるチェックとアルゴリズムの調整は必要だろう。 しかしアーティストや技術者がここ長年追求しきたリアルな描写のレベルが長足の進歩を遂げる可能性が十分にある。(画像:John Carmackと Mark Johnson)

Magic Ponyは金額は不明だが、Chris Mairs、Tom Wright、Xen Mateganなど数多くのエンジェル投資家からシート資金を調達している。また2015年のEntrepreneur Firstプログラムの参加メンバーでもある。テクノロジーに早期にアクセス可能となるパートナー契約について共同ファウンダーのRob Bishopは「申し込みを多数受けている」と確認した。ただしパートナー名は明かされていない。

6月にラスベガスで開催が予定されているコンピューター・ビジョンのカンファレンス、CVPRでMagic Ponyのニューラルネットワーク・テクノロジーとその応用についてさらに詳しく知る機会があるはずだ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+