NVIDIAはSamsungとQualcommに対する訴状で、GPUそのものがうちの特許と主張!

またまた大きなパテント闘争であります。

NVIDIAが今日、SamsungとQualcommを、グラフィクスチップの特許侵犯で訴えた。その最終目標は、Samsungが特許料を支払うまで同社のGalaxyシリーズのスマートフォンとタブレットを出荷禁止にすることだ。

NVIDIAは同社のブログで、Samsungと直接交渉をしたが決着しなかった、と書いている。NVIDIAの総務部長によると、“Samsungは、それは主にサプライヤ(部品供給企業)の問題だ、と主張して譲らなかった”、ということだ。

NVIDIAが出荷停止を主張しているSamsungの機種は、12種類だ: Galaxy Note、Note Pro、Note 3、Tab S、Tab Pro、Tab 2、Galaxy S III、S4、S5、Infuse 4G、そして大昔(2011年)の出来損ない機種Samsung Illusion。

NVIDIAが主張する‘盗まれた’特許は少なくとも7件あり、中にはこんなのも:

しかし最大の問題は、GPUなどQualcommのチップは、Samsungだけでなく、ものすごく多くのデバイスで使われていること。事と次第によっては、これはQualcommにとって長期戦になるだろう。

SamsungのGalaxy製品の出荷停止を求めているNVIDIAの、合衆国国際通商委員会に宛てた申し立てはここにある。そして、今日提出されたばかりの特許侵犯の訴状はここだ

[写真: Laineema; CreativeCommonsのライセンスで使用]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


動いている物の上にリアルタイムで正確な投射を行う綺麗で驚異的なCGI

CGIは初期のモノクロ画面のJar Jar Binksのシミュレーションやグリーンモニタ上のKing’s Landingなどに比べると驚異的に進歩した。その進歩には、このビデオも加えるべきだろう。プロデューサーでテクニカルディレクターのNobumichi Asai(浅井宣通)は、Omoteと名づけた投射技術により、生きているモデルの顔にメークアップを投射する。

最初ふつうのメークをしているモデルが、ドラマチックで、花道を歩く歌舞伎役者のようなお面になる。“なにこれ、セルフィーの上にランダムなメークをのせるアプリとおんなじじゃない”。ところが、モデルの顔が動くと、この技術の精度のすごさがわかる。“電子メークアップ”などという、安易な言葉では言い表せない。

ご覧になるとわかるが、次々と変わる顔の変化は、実にすばらしい。

OMOTE / REAL-TIME FACE TRACKING & PROJECTION MAPPING. from something wonderful on Vimeo.

Asaiは詳しい技術を明かしていないが、SlashGearの記事によると、動きに合わせてリアルタイムでフェイスマッピングをやって、いろんなデザインを顔の上に正確に投射しているのだろう、という。AsaiがCGIを作るのはこれが初めてではないが、動いているオブジェクトの上のCGIは、ごく最近の挑戦のようだ。

[出典: SlashGear]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


OpenGL 3Dの次世代規格の策定作業がKhronos Groupの指揮下に始まる…ハードウェア重視、マルチスレッド、共通シェーディング言語など

OpenGLOpenCLWebGLなどの規格を管理している業界団体Khronos Groupが、通常のアップデートサイクルの一環として、今日(米国時間8/11)から行われるSIGGRAPH 2014で、デスクトップの3DアプリケーションのためのOpenGLのアップデート規格をローンチした。よりスムーズな3Dグラフィクスを作るための重要なアップデートが二つあり、それらはデベロッパの負担を軽減するだけでなく、 DirectX11からのポートをより容易にするだろう。しかしもっと重要なのは、今日この非営利団体が、次世代の3Dスタンダードを定義する作業への参加を呼びかけたことだ。

Khronosの理事長でNvidiaのコンテンツ開発担当VPであるNeil Trevettが先週語ったところによると、それは、真に現代的な3D APIを作るための、規格の抜本的な再設計だ。Khronos Groupはその礎石的な部分に関してすでに内部的な作業を開始しており、今回はそのプロセスをエコシステム全体に対してオープンにするものだ。

OpenGLは最初、Silicon Graphicsがほとんど22年も前に開発した。そのころは、今のような多機能で高性能なGPUや、ましてやモバイルのGPUなど、誰も予想しなかった。今度作られる次世代のAPIスペックでは、同団体は完全な無からスタートして未来のスタンダードを作る。とくにTrevettが避けたいのは、分裂の激化だ。“3D対応のプラットホームがきわめて多くなっているだけに、分裂がもたらす危険はなおさら恐ろしい。必要なものは、オープンなスタンダードだ”。

デベロッパたちは、GPUを低レベルでコントロールできるAppleのMetalなどの便宜を、明らかに喜んでいる。次世代のOpenGLも、同様の機能を持つだろう。Trevettはより具体的に、ドライバがやることが減り、むしろハードウェアの露出量が増える、と言う。“既製のブラックボックス的なルーチンを呼ぶことよりもむしろ、デベロッパが直接ハードウェアをコントロールして実現することが増えるだろう”、と言うのだ。アプリケーションがGPUやCPUのワークロードをコントロールすることによって、パフォーマンスが上がり、こうしたらこうなるという、結果の予測の精度も上がる、と彼らは主張するのだ。

もうひとつの重要な礎石が、マルチスレディングによるオーバヘッドの軽減だ。これもまたOpenGLの最初の規格では話題にすらならなかったものであり、同団体は今これに、根底から取り組もうとしている。なお、ほかに新規格の目玉として、共通のシェーディング中間言語が導入される。これもまた、初めての取り組みだ。

すでにこの新規格の策定作業に参加している企業は、3Dグラフィクスに関わる中心的企業のほとんどすべてだ。まずハードウェア方面からはNvidia、AMD、Apple、Samsung、Intel、Sony、そしてQualcomm、そしてTrevettは、とくに3Dエンジンの大手とゲームデベロッパが重要だ、と言う: EpicとUnity、Blizzard、Valve、それにElectronic Artsだ。そのほか、Oculus VR、Pixar、Googleなども参加している。Googleは、Android用のOpenGL ESに関心がある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Disneyが物理学を征服、3Dプリントを使って何でも(高精度な)独楽にしてしまう

とても退屈しているとき、そこらにある何か…電池でもペンでも何でも…を独楽(こま)のように回そうとしていることはない?

Disneyはそれを、非常に極端なレベルでやってみせた。3Dプリントと、すごーく巧妙な物理学を利用して、どんな形の物でも永遠に回り続ける方法を作り出したのだ。

そのアイデアとは: 物の質量分布をほぼ完全にコントロールできるなら、その物の重心をコントロールできる。

言い換えると: 固体あるいは準固体の、各部分の重さとそれらの互いの差がすべて分かるなら、どんなに奇妙な形の物を作っても、それがテーブルの上で倒れたりせず、独楽のように長時間回すことができる。

そこに急須があるね。それを回してみたいかい? できるさ! ”アルマジロ・モンスター“のフィギュアを持ってるなら、そいつを一本の指の上で回すのはどう? もちろん、それもできる! Disneyはそれの3Dモデルを作り、その回転軸を決める。そうすると彼らのアルゴリズムは、その物の内部の、どことどこを空洞にしたら(あるいは逆に、重くしたら)、最適のバランスが得られ、その回転軸で独楽のように回り続けるかを、計算で求める。

残念なことに、このプロジェクトはDisneyのスイスの研究チームがSIGGRAPH 2014カンファレンスのために作ったもので、誰でも試せるツールが近くリリースされる予定はない。でもこのプロジェクトの発表論文なら、ここで読める。

[出典: Giz]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


AdobeのInkとSlideを使ってみた…プロの道具だが操作が難しい面も


 
 

InkはSlideAdobeの初めてのハードウェア製品で、特殊なスタイラスとデジタル定規のセットだ。

これらを使用するためのアプリがAdobeのLineで、これを使うことによって図形や直線などをきれいに描くことができる。

スタイラスのInkはアルミ製で、ルックスも手触りもよろしい。しかも、立派な仕事ができる。わずかなディレイ(遅延)はあるが、Bluetoothで接続するスタイラスとしては上出来だ。

一方Slideは、使いづらい。Adobeは磁気ビットを使って人間の容量性のタッチをシミュレートするやり方を選んでいるので、Slideを正しく使うためにはそのビットに圧力を加える必要がある。iPad miniのような小さなデバイスでは、この‘正しく’が難しい。

スタイラスのInkには、あるデバイスの上で描いた図を、ほかのデバイスに落とすなど、便利な機能がいくつかある。

InkとSlideには、そのほかにも、プロのグラフィックデザイナーにふさわしいお利口な機能がいろいろある。それらを本気で使いたい人にとっては、199ドルは高くないだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Amazon Fireの3D表示は顔位置を認識してダイナミックに再描画する新たな透視図法

われわれはだいぶ以前からAmazonがヘッドトラッキングによる3D表示テクノロジーを開発していることをつかんでいた。この分野では、たとえばSamsungが初期のGalaxySで似たような機能を試している。

今日(米国時間6/18)、Amazonが発表した最初の独自スマートフォン、Amazon Fireに、4台の赤外線フロントカメラを利用した3D表示機能が含まれていた(ちなみにTechCrunchでは4月に既報)。

ベゾスは今日のプレスイベントで、「14世紀に透視図法が発明されて絵画だけでなく、われわれの世界観そのものが変わった」と説き起こした。「対象には常に目に見えない部分があることをわれわれは意識するようになった。では、われわれが頭を動かすたびに無数の画家が新たな視点に応じてその目にみえない部分を描画してくれたらどうなるだろう?」とベゾスは続けた。

この3D機能はさまざまなアプリで独特の3D表示効果を生み出す以外に、スマートフォンを傾けるだけで画面をスクロールさせるなどの新しいジェスチャーにも利用されている。

Fireの表面のそれぞれの隅に画角120°のカメラが合計4台設置されている。このうち2台が常時作動してユーザーの顔の空間的位置を認識している。

ユーザーが暗闇でFireを使う場合に備えて、それぞれのカメラには赤外線ライトが装備されている。Amazonはこのヘッドトラッキング・システムをDynamic Perspective(ダイナミック透視図法)と呼んでいる。Amazonはユーザーの顔画像を解析して画面との距離、角度を正しく認識させるために多大の努力を払ってきた。

Dyanamic Perspectiveをベースに、Fireは毎秒60フレームで3D描画を行う。この機能は特定のアプリに限らず、あらゆるアプリで作動させることが可能だ。Amazonは3DイリュージョンをFireのロックスクリーンを始め、あらゆるインターフェイスで利用している。たとえばアイコンが表示されているときに顔を動かすと、それに応じて視差が生じ、アイコンが他のレイヤーの上に浮かんでいるように見える。

Fireはヘッドトラッキングと傾きセンサーを組み合わせ、ユーザーが本体を左右に傾けるだけでウェブページ間を移動するなどのコマンドが実行できる機能を備えている。また縦に傾けるとスクロールが実行できる。

Dynamic PerspectiveがOmronのOkao Vision顔認識テクノロジーを利用していることはわれわれが以前に報じたとおり。

Dynamic PerspectiveのSDKは今日、デベロッパーに公開された。

われわれはまだこの3D機能を直接試していない。しかし会場の聴衆は皆、強い印象を受けたようだ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


MetalによってモバイルゲームにおけるiOSの優位性がさらに高まる

昨日のWWDCでは2時間のキーノートで大量の発表が行われたが、その中にゲームデベロッパ向けのものが3つあった: SceneKit、SpriteKitの新しいファンクション、そしてiOS上のハイエンドゲームのパフォーマンスを大幅に上げるMetalフレームワークだ。中でもMetalは、AndroidというOSの性格上、Googleには逆立ちしても真似できないものだ。

Metalはデベロッパに、OpenGLよりも“もっとメタル(metal, 金属==ハードウェア)に近い”一連のファンクションを与える。OpenGLはいわばグラフィクスの標準ライブラリとして、iOSだけでなく、MacもAndroidもMicrosoft以外のゲーム機も使ってきた。しかしデベロッパがMetalを利用すると、グラフィクスのハードウェアをダイレクトにコントロールでき、システムのオーバヘッドが少なくなるためパフォーマンスはより高速になる。

ただしMetalは、グラフィクスのパフォーマンスをぎりぎりまで上げたいというデベロッパにしか、あまりメリットはない。しかもゲームのデベロッパたちも今では“ゲームエンジン”をベースに仕事をすることが多く、MetalのようなAPIを直接使って低レベルのグラフィクスコードを毎回一から書くことは、あまりない。だからデベロッパが関心を向けるのは、MetalでもってiOSゲームの、どこがどう変わるのか、という点だ。

実はゲームエンジンの制作者たちはすでに、Metalを利用するエンジンを作り始めている。昨日は、Unity3DのレンダリングのグルAras PranckevičiusがTwitterのツイートで、同社のエンジンにMetalを組み込むことによって“うちの3D APIの最速のポートが出来上がった”、と述べている:

[AppleのMetalで遊ぶのはとっても楽しい。3D APIのこれまでで最速のポートになった。]

iOSデベロッパでスタートアップコンサルタントでもあるNat Brownはブログで、iOSのMetalの性能にはかなわないからAndroidでは新作ゲームが作られなくなる、ということはない、と指摘している。なぜなら、Metalの利用はiOS独自のツールの利用を意味するから、クロスプラットホームな開発を志向するゲームデベロッパは最初から手を出さないだろう、というのだ。

でも、デベロッパではなくゲーマーたちは、いち早く、Metalベースのゲームのグラフィクスの素晴らしさに、気づき始めるだろう:

しかし、Metalに飛びつくきわめて高度なプログラマたちは、ゲームエンジンやフレームワーク、モバイルゲームの95%、いや99%で使われているツールチェーンをメンテしている人たちだ。Unity3DUnreal Engineなど数社がiOSとAndroid両方のモバイルゲームを支配しており、これまでは両プラットホームとも、OpenGL ESの比較的共通のコアをターゲットにしてきた。

そのため、Metalのおかげで大量のデベロッパがiOS国へ移民する、ということはありえないだろう。今ではデベロッパは、APIのレベルではなく、エンジンやフレームワークなどの高級なツールを使って仕事をしている。しかしMetalがiOSのパフォーマンスを高めることによって、ユーザやゲーマーたちの大量人口移動を起こすことはありえる。

Metalフレームワークと同様のものは、ほかのプラットホームにもある。AMDのグラフィクスチップ上のMantleや、MicrosoftのWindowsやXboxプラットホーム上のDirectX 12などだ。ただしAMDもMicrosoftも、これらのフレームワークを核とするエコシステムを完全にコントロールしていないから、状況は複雑であり、特定のハードウェアを対象とする最適化も、それほど徹底できない。

たとえばAMDはとても多様なグラフィクスコアを作っていて、それらが、PCハードウェアのほとんど無限ともいえる構成において利用されている。またDirectXも、CPUやRAM等々の無限の多様性に加えて、グラフィクスチップの多様性にも対応しなければならない(AMD、nVidia、Intel等々)。

つまりこれらのフレームワークは、Appleにできるほどのレベルでは、特定のハードウェア向けの最適化ができない。AnandtechのRyan Smithが、今朝(米国時間6/3
)、こんなことを書いている:

これまでの低レベルAPI、たとえばAMDのMantleやMicrosoftのDirectX 12は、前者は他社のCPUやOSも顧客にしなければならないハードウェアベンダのAPIであり、後者はサードパーティのCPUやGPUに対応しなければならないOSベンダのAPIだ。これらに対して、Appleの羨ましい立場とは、単独かつ自力で、完全に垂直なエコシステムを築けることだ。Appleは、CPUも、SoCの構成も自社製、OSも自社製だ。GPUは他社製だが、これも過去7年間Imagination TechnologiesのPowerVRを独占的に使っていて変える様子もない。

iPhone 5sもiPad AirもiPad miniも、すべて、同じA7のSoCを使っている。今年の機種はA8を共有するだろう。Metalは一連のハードウェアに対して同一の最適化が可能であり、多様なモバイルデバイスの上で同じゲインを稼げる。

Androidハンドセットの多様性にはそれなりのアドバンテージがあるが、多様なメーカーの多様なハードウェアに対して、GoogleがMetalと同レベルの最適化(==特定単一のハードウェア固有の最適化)を図ることはありえない。今後、スマートフォンの進化に対するゲーマーたちの期待が、ますます欲張りになってきたとき、Metalによってゲームの世界がどう変わるか、それが見ものだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


iOS 8 SDKではデベロッパがA7ハードウェアのグラフィクス機能に直接アクセス–iPhone/iPadが最新ゲーム機並の迫力に

Appleは今日(米国時間6/2)のiOS 8の立ちあげに併せて、このモバイルオペレーティングシステムのための数々の新しいデベロッパツールをリリースした。その新しいiOS SDKをAppleのCEO Tim Cookは、“App Storeのローンチから今日までで最大のリリース”と呼び、APIの新設や更新が4000以上もあることを誇示した。

中でもとくにデベロッパが気に入ると思われるのは…新言語Swift以外では…、Appleが”Metal”と呼ぶ機能だ。デベロッパが、A7プロセッサのグラフィクスやコンピューティングなどハードウェア機能に直接アクセスできること、そういうライブラリというかAPI集のことを、Metalと総称している。同社によると、Metalを使うことにより、グラフィクスや計算集約的な処理におけるオーバヘッドが減り、マルチスレディングの効率も上がり、iPhoneやiPadにおけるグラフィクスの速さと迫力は最新のゲーム専用機と肩を並べるものになる。これにより、描画のスピードは、iOS 7を1とすると、iOS 8ではその10倍になる。

主に2Dや3Dのカジュアルゲームのデベロッパ向けに、SceneKitが新たに提供され、また既存のSpriteKitには、力場やピクセルごとの物理計算や逆運動の計算が加わる。

今日は大方の予想通り健康アプリがローンチされたが、それに併せてHealthKitというものがローンチされた。これを使うとデベロッパは、自分のアプリとAppleの健康アプリとのあいだで、データを交換できる。

このSDKの大きな目玉には、スマートホームデバイスを作ってそれにiOSと通信をさせたい、というデベロッパのためにフレームワークHomeKitが含まれる。また大量のデータ伝送やデータの保存をクラウドを使ってやりたい、というデベロッパのためには、iCloudの無料のAPI集とも言うべきCloudKitが提供される。なおHomeKitに関する詳細な記事がここにある。

CloudKitでAppleは、クラウドをベースとするバックエンド市場に参入するが、ストレージもAPIも無料という点が、既存のサービスと違う。容量制限は、クラウドストレージ1PB、データベース10TB、一日のデータ伝送量5TBだ。どんなアプリでもサービスでも、またユーザがどれだけ増えても、これだけあればとりあえず十分だろう。

今日の発表でとくに目立った機能が、アプリの拡張機能だ。これによりさまざまなアプリが、ほかのアプリへのインタフェイスを露呈することができる。この機能は、サンドボックスに入れられて安全が図られる。この拡張機能を使って、たとえばメールと写真編集アプリとのあいだで写真をやりとりできるだろう。Safariも、この拡張機能にアクセスできる。AppleのCraig Federighiが今日行ったデモでは、Safariの中からBing Translateを呼び出して翻訳をやらせていた。

ついにサードパーティアプリが通知センターの中で自分独自のウィジェットを定義できるようになった。しかも、対話できるウィジェットもOKだ。

指紋認証システムTouch IDも、そのAPIが提供される。つまりサードパーティのアプリが、Appleの指紋認証を使えるのだ。

iOSの写真機能もそのAPIがデベロッパに公開され、それらはPhotoKitというフレームワーク名で総称される。AppleのPhotosアプリも、もちろんこのAPIを使って構築されているのだ。非破壊的エディットやPhotosのライブラリを/にリード/ライトできる機能、またCamera APIによりフォーカス、ホワイトバランス、露出などのコントロールが、デベロッパの写真撮影アプリの中でできる。

iOS 8のベータとそのSDKは、developer.apple.comで登録したデベロッパが利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


イラスト制作の様子を自動的にInstagram用ビデオにまとめるSketchVid

また、面白いiOSアプリケーションが登場してきた。名前をSketchVidというものだ。描いた落書きをInstagram用のアニメーションにすることができる。

手元の写真をなぞって絵にすることもできるし、もちろん普通に絵を描くこともできる。いずれにしてもスケッチの手順をすべて記録し、そしてその描画の様子を15秒間のビデオにまとめるのだ。

自分ではJotスタイラスを持ってはいるものの、絵を描くのは得意でない。しかしSketchVidにはトレース機能も用意されていて、Crispin Gloverの絵も、なんとか本人であると認識できる程度には描写することができたように思う。

上手に描くことができたなら、SketchVidから作品を共有することができるようになっている。YouTubeではイラスト作成の様子をうつしたものが人気ジャンルのひとつとなっているし、そうした流れにのってSketchVidを使ってInstagram上でマーケティングないし教育目的などの目的で作品を公開する人も増えてきているようだ。ターゲットとなる利用者の幅は広いだろうが、とくに子供などは自分の作品が動き出すのを見てとても喜ぶのではないだろうか。

SketchVidを製作したのはトロント在住のSaeed GhaferiとArfan Chaudhryだ。あるときSaeedがArfanにスケッチを送ったのだそうだ。

「Arfanは最初、本当にSaeed本人がが描いたのだとなかなか信じなかったのです」とのこと。「そのときにひらめいたのです。イラストを描く様子を記録して、それをビデオ化すれば面白いのではないだろうか、と」。

公開するプラットフォームとしてInstagramを利用することとした。「アート分野に携わる人にも、自分の写真やビデオ作品などを公開する場としてInstagramを利用している人が多かったからです」。

他にもイラストの様子を記録するアプリケーションがある中、公開場所をInstagramに特化することで、アプリケーションの特徴を出そうとも考えたのだろう。写真をトレースする際、写真は自動的に正方形に切り取られ、またイラスト作成手順がどれだけ複雑であろうとも、ちゃんと15秒に収まるように編集してくれる。

SketchVidはiOS版が提供されていて、基本機能は無料で利用することができる。またアプリケーション内販売の機能を使って、さらに便利な描画ツールを入手することもできる。今の段階でも相当に楽しいものになっていると思うが、アニメーションのクオリティを高めるために、すぐにもアップデートする予定にしているのだとのことだ。またAndroid版も現在作成中であるとのことだった。

GhaferiとChaudhryのお気に入り作品をいくつか掲載しておこう。

原文へ

(翻訳:Maeda, H


iOSの上でシロートでも簡単に合成写真を作れるUnion, TangentのPixiteから

Pixiteは、UnboundFragmentTangentなどなど、iOS用の高度な写真アプリを作っていて、Tangentは2013年の”App Store Best”にもなった。その同社が今回は、合成写真を作るアプリ、いわゆるフォトブレンディング(photo-blending)アプリケーションUnionをリリースする。このアプリを使うと、たとえば左図のように、複数の写真の重ね合わせや、シルエット(輪郭)化、二重露出効果、背景と前景の合成、などなどを容易にできる。

PixiteのEugene Kanekoによると、このアプリは既存のアプリやライブラリなどに依存せず、ほとんどゼロから作った。だから、“二つの写真をこれまでなかったような、すごいやり方で組み合わせることができる”、という。

チームのScott Sykora、Ben Guerrette、Rich Changらは最初、同社の既存の写真編集アプリTangentやFragmentに、マスキングの機能を加えようとしたが、それをすると、それらのアプリが複雑になりすぎることに気づいた。そこで、単独のアプリとしてUnionを作ることになった。

Unionは写真の合成やマスキングができるだけでなく、Pixiteのそのほかのアプリと組み合わせて使えるので、作業が自然に一つの流れになる。別々のアプリを立ち上げる、という感覚がない。

このアプリを使うときは、まず最初に、背景や色塗り、透明レイヤなどをロードして、そこに、上にのせるべき前景や色塗りなどをロードする。これらのロードの過程で、明るさ、コントラスト、色温度、飽和レベルなどを、スライダーを使って調整できる。

最後にマスクを加えて、前景のどこが背景を隠すのかを指定し、合成画像を作り上げる。

編集ツールがとても精密なので、画像の細かい変化を自由に指定できる。

ブラシもいろいろあるので、塗りつぶし、グラデーション、スクエアブラシなどなどを使い分ける。ブラシサイズを、ズームイン/アウトできる。PixiteのほかのアプリにないMagic Wand(魔法の杖)というユニークなツールは、色などの調整と結果のプレビューをリアルタイムでできるので、やり直しなどにそれほど時間を取られない。

こんな写真編集は誰もが頻繁にやりたくなるものではないと思うが、プロや写真マニアには喜ばれるはず、と同社は考えている。

でもプロでない人でも、Unionではこんな高度な写真編集が比較的簡単にできるから、いろいろ試してみると楽しいだろう。眠っていたあなたのクリエティビティが、目を覚ますかもしれない。

Unionで作った画像は、Instagram、Facebook、Twitter、それにメールで、すぐに共有できる。

これだけ高度な機能がありながら、UnionはiTunesでたったの1ドル99セントだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


iOSの上でシロートでも簡単に合成写真を作れるUnion, TangentのPixiteから

Pixiteは、UnboundFragmentTangentなどなど、iOS用の高度な写真アプリを作っていて、Tangentは2013年の”App Store Best”にもなった。その同社が今回は、合成写真を作るアプリ、いわゆるフォトブレンディング(photo-blending)アプリケーションUnionをリリースする。このアプリを使うと、たとえば左図のように、複数の写真の重ね合わせや、シルエット(輪郭)化、二重露出効果、背景と前景の合成、などなどを容易にできる。

PixiteのEugene Kanekoによると、このアプリは既存のアプリやライブラリなどに依存せず、ほとんどゼロから作った。だから、“二つの写真をこれまでなかったような、すごいやり方で組み合わせることができる”、という。

チームのScott Sykora、Ben Guerrette、Rich Changらは最初、同社の既存の写真編集アプリTangentやFragmentに、マスキングの機能を加えようとしたが、それをすると、それらのアプリが複雑になりすぎることに気づいた。そこで、単独のアプリとしてUnionを作ることになった。

Unionは写真の合成やマスキングができるだけでなく、Pixiteのそのほかのアプリと組み合わせて使えるので、作業が自然に一つの流れになる。別々のアプリを立ち上げる、という感覚がない。

このアプリを使うときは、まず最初に、背景や色塗り、透明レイヤなどをロードして、そこに、上にのせるべき前景や色塗りなどをロードする。これらのロードの過程で、明るさ、コントラスト、色温度、飽和レベルなどを、スライダーを使って調整できる。

最後にマスクを加えて、前景のどこが背景を隠すのかを指定し、合成画像を作り上げる。

編集ツールがとても精密なので、画像の細かい変化を自由に指定できる。

ブラシもいろいろあるので、塗りつぶし、グラデーション、スクエアブラシなどなどを使い分ける。ブラシサイズを、ズームイン/アウトできる。PixiteのほかのアプリにないMagic Wand(魔法の杖)というユニークなツールは、色などの調整と結果のプレビューをリアルタイムでできるので、やり直しなどにそれほど時間を取られない。

こんな写真編集は誰もが頻繁にやりたくなるものではないと思うが、プロや写真マニアには喜ばれるはず、と同社は考えている。

でもプロでない人でも、Unionではこんな高度な写真編集が比較的簡単にできるから、いろいろ試してみると楽しいだろう。眠っていたあなたのクリエティビティが、目を覚ますかもしれない。

Unionで作った画像は、Instagram、Facebook、Twitter、それにメールで、すぐに共有できる。

これだけ高度な機能がありながら、UnionはiTunesでたったの1ドル99セントだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


OpenGL ES 3.1がGPUによるコンピューティングなどPC級のグラフィクスをモバイルに持ち込む

3Dlabs、ATI、Discreet、Evans & Sutherland、Intel、NVIDIA、SGI、Sun Microsystemsなどなどが集まってリッチメディアのための標準規格を作ろうという団体Khronos Groupが、今日(米国時間3/17)サンフランシスコで行われるGame Developer’s ConferenceでOpenGL ESの最新バージョンをリリースする。

OpenGL ESという一般にあまり見慣れない名前は、組み込みシステム(Embedded System)のためのOpenGL規格なので、この規格が指定するグラフィクス機能は今後のモバイルデバイスなどが実装し、もちろんアプリもそれを利用することになる。ただし今のところ、メジャーなモバイルプラットホームの中でWindows PhoneだけはOpenGL ESをサポートしていない。

モバイル向けに最適化されている、ということは、GPUがあまり強力でないことが前提になっているのだが、今日のリリースではそのギャップがかなり填められている。OpenGL ES作業部会の会長でARMのグラフィクス研究部長Tom Olsonは、“OpenGL ES 3.1はデスクトップ向けのOpenGL 4.4で人気の高い機能の多くをモバイルデバイスに適した形で提供している”、と発表声明の中で述べている。

今回の新しい規格ではたとえば、アプリケーションがGPUに、グラフィクスのレンダリングと密接に関連した一般的なコンピューティングタスクをやらせることができる。それは多くのデスクトップアプリケーションがすでにやっていることだが、これによりモバイルアプリの一層の高速化が期待される。

そのほかの改良点として、シェーダオブジェクトの分離、マルチサンプルとステンシルテクスチャ、シェーディング言語の改良、サンプルごとのシェーディング、新しいブレンディングモードなどなどの拡張がある。詳細は、ここに。

Khronos Groupの理事長でNVIDIAのモバイルエコシステム担当VP Neil Trevettは、今日の発表声明の中で、“OpenGLのAPI集合を構成するOpenGL ESとOpenGLおよびWebGLは、モバイルデバイスとPCとWebにおける3Dグラフィクスの共通的基盤と認められるに至っている。本日のOpenGL ESのリリースは、グラフィクスの世界におけるまた新たなマイルストーンであり、ユーザにより高いレベルのリアリズムと対話性の体験を、広く普及しているメインストリームのデバイスにおいて可能とする”、と述べている。

今週後半にKhronos Groupは、このGame Developer’s Conferenceで、さらに新しい発表をいくつか行う予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


2000ドルもするゲーム用ラップトップRazer Bladeの2014年型出る, ディスプレイがすごい

Razerはこれまで、Bladeシリーズのラップトップをいくつか作ってきた。初期の機種には、17インチという大型画面で2800ドルというのもあった。2013年には14インチの薄型ラップトップを出したが、それもまたゲームのための強力な内臓を収めていて、すごかった。ペリフェラルもとくにキーボードとマウスがゲーマーの酷使に耐えるハイエンド機で、Razerのラップトップの人気を支えていた。

その2013年のBladeはレビューもおおむね好評だったが、スクリーンだけはネガティブだった。Appleのレティナディスプレイが、評価の基準を上げてしまっていた。

そこで、今年の新型Bladeだ。ご親切にもRazerは、評価機を本誌TechCrunchのオフィスに持参し、しかも、おまけとしてCEOまでついてきた。おかげで上のビデオでは、彼とのフィジカルなチャットを収録できた。これまでのBladeとの大きな違いは、画面が3200×1800画素であること。そしてタッチをサポートしている。昨年のBladeは1600×900画素で、人の脂っぽい手を受け付けなかった。

グラフィクスカードはNVIDIA GeForce GTX 870Mで、これは現時点で最強と言われる。新型Bladeの画面の描写力や反応は、なんというか、すごいの一言。電池寿命は約6時間だそうだ。

欠点と言えば…、昨年のより高くて2199ドルからだ。心臓または財布の弱い人向けではない。でもこんなコンピュータに需要が存在することを、これまでRazerは証明してきた

新型Bladeの予約は今日(米国時間3/12)から始まる。発売は来月だ。PC市場のボリュームゾーンは斜陽でも、周辺部には活気がある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Adobe、 Creative Cloudをメジャー・バージョンアップしてPhotoshopで3Dプリントをサポート―新たに30日無料試用できる

今日(米国時間1/16)、Adobeは定期購読ベースのCreative Cloudのメジャー・アップデートをリリースした。 さまざまな新機能が追加された中でも、目玉となるのはPhotoshopでの3Dプリントのサポートだ。

その他の主要なアップデートとしてはPhotoshopでは写真の歪みの補正、Illustratorではフリーハンドで直線や曲線が描きやすくなった新しいペンシル・ツールなどがある。また InDesignではEPUBのサポートが改良された。またフォントツールのTypekitではフォントがどんなデスクトップアプリからもアクセスできるようになると同時にPDFファイルや印刷用ファイルにフォントを含めることが可能になった。

このアップデートを機に、Adobeはすべての30日間試用の期限をリセットした。つまり2012年の5月のローンチ以降、この30日間無料試用に登録したユーザーは今後さらに30日の無料試用ができる。

今回のアップデートが極めて広範囲で大幅なものになったため、Adobeでは以前のバージョンを試用したユーザーにも再度、最新版を体験してもらいということのようだ。

Photoshopで3Dプリント

しかしなんといっても今回のアップデートで最大の注目はPhotoshopが3Dプリントをサポートするようになったことだろう。

ただし、Photoshopでは簡単な3Dモデルを作ることはできるが、このアプリケーションの本来の目的がそこにないことは明らかだ。この点についてはAdobe自身もはっきり認めており、モデリング自体はサードパーティのツールを利用し、そのデータをPhotoshopにインポートするようユーザーに勧めている。つまりユーザーは3Dモデルにテクスチャーを追加したり、Phontoshopお得意の細部の精細な仕上げを行うのにこのアプリを利用することになる。

Adobeによれば、新しいPhotoshopは3Dモデリングと3D出力の中間段階を処理するのに最適な環境を提供するという。PhotoshopはOBJ、STL、3DS、Collada、KMZなどほとんどあらゆる3Dフォーマットをインポートして3D出力することが可能だ。これには3Dプリント時に必要とされる枠組み、支柱などの付加も含まれる。また3D出力にあたって障害となるような点も事前に発見してくれるので、ユーザーは出力の失敗で時間と材料を無駄にせずにすむ。

またAdobeは3Dプリンタの大手、MakerBotと提携し、Photoshopから同社の3Dプリンタにネーティブで出力できるようになった。また3D出力サービスのShapewaysとも同様の提携をしている。Shaspewaysの場合はPhotoshopから色彩、素材などに応じた詳細な仕上げリプレビューができるだけでなく出力料金の概算も行われる。しかもこうした3Dプリント処理がほとんどワンクリックの容易さで実行されるという。

MakerBot以外にもAdobeは他の主要なデスクトップ3Dプリンタをサポートしており、またAdobeがまだサポートしていない場合でもユーザーが自身でデバイスプロファイルを作成することが可能だ。

Adobeには現在3Dモデリング・ツールはないが、今後Photoshopの機能ないし独自のアプリとして3Dモデリングが提供されるようになるかもしれない。

パースペクティブ・ワープ

3Dプリントに加えてPhotoshopには2013年5月にMAXカンファレンスでデモされたパーステペクティブ・ワープと呼ばれる新機能が加えられた。

この機能は今週Adobeのデザイン・エバンジェリストのTerry Whiteがプレスカンファレンスでデモをしたが、 異なるアングルで撮影された写真を合成するのに非常に有効だ。Photoshopには従来から多数のワープ・ツールが存在するが、どれもパーステペクティブを操作すると直線が曲線に歪んでしまうという問題があった。

Adobeではこの機能は主に既存の写真のレンズ歪みの補正や複数の写真の合成に使われるものと想定しているが、野心的なデザイナーはきっと何か斬新な利用法を考え出すことだろう。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


“インフォグラフィックを作る”から”いろんなビジュアルコンテンツを作って売る”に変わったVisuallyが$8.1Mを調達

インフォグラフィックが嫌いな人には凶報だ。インフォグラフィックのマーケットプレースだと思われているVisuallyがこのほど、シリーズAで810万ドルを調達した。

でも最初インフォグラフィックを作るツールを提供していた同社は、その後マーケットプレースに変わり、インフォグラフィックがほしい企業と、それを有料で作る人を結びつけるようになった。

それとともにVisuallyは、インフォグラフィック専門ではなくなり、今では“ヴィジュアルコンテンツの世界的マーケットプレース”を自称している。このサイトのおすすめページを見ると、圧倒的に多いのはインフォグラフィックだが、ほかに対話的グラフィクスビデオもある。協同ファウンダでCEOのStew Langille(前はMint.comのマーケティング部長)によると、今後はモバイルアプリも扱っていくそうだ。

“プラットホームを限定しないものを提供していきたい”、と彼は言うが、Visuallyが扱わないコンテンツもあるのだろうか? “うちが売るのは、ストーリー性のあるコンテンツだね。企業のロゴのデザインなんかは、ストーリー性がないから、やりたくないね”、だと。

Visuallyのマーケットプレースをこれまで利用した企業の中には、AOL(本誌TechCrunchのオーナー)、Red Bull、Twitter、NBC、P&Gなどがいる。一般のクリエイティブエージェンシーに比べると、納期は1/3、料金は半値以下だそうだ。だから、彼らとの商戦には勝つことが多い。クリエイティブエージェンシーもそれなりの存在価値はあるけど、企業のコンテンツやキャンペーンでは最近ますますVisuallyが利用されることが多くなっている、とLangilleは曰(のたま)う。

“エージェンシーの仕事は効率が悪いから、仕事がうちに来ることが多くなってるんだよ”、だそうである。

今回の投資ラウンドを仕切ったのはCrosslink Venturesで、Correlation Ventures、SoftTechVC、500 Startups、Giza Ventures、Quest Ventures、Kapor Capitalらも参加した。CrosslinkのEric Chinが、Visuallyの取締役会に入る。

810万ドルのうち、VCからの投資は610万ドル、残る200万は転換社債だ(昨年発表)。2011年にはシード資金200万ドルを獲得している。

今後は、コンテンツの種類を増やすとともに、カスタム化の充実、制作の自動化、制作後のコンテンツの流通のためのツールの充実を図りたい、とLangilleは言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Apple、iPhoneのカメラでフル解像度毎秒30枚の撮影ができるアプリのスタートアップ、SnappyLabsを買収

Appleはファウンダーがたった1人で運営しているカメラ・テクノロジーのスタートアップ、 SnappyLabsを買収したという情報が入った[アップデート:2014/ 1/5 太平洋時間9:15am:Appleはこの買収を確認した] 。

SnappyLabsのファウンダー、John Papandriopoulosはめるボルン大学から電気工学の博士号を得た技術者で、彼の発明したテクノロジーにより、SnappyCamはフル解像度でiPhoneのカメラで毎秒20コマから30コマの画像をフル解像度で撮影することができる。

私がSnappyLabsに何か異変があるのに気づいたのは「SnappyCamが突然App Storeから消えSnappyLabs‘のすべてのウェブサイトが停止した」という通報を受けたためだ。この情報源はその後「SnappyLabsはAppleに買収された」と報じてきた。情報源によれば、同社に関心を寄せていたのはAppleだけではなかったもようだ。買収の金額などの詳細はまだ分からないが、Appleに問い合わせ中だ。

[アップデート:2014/ 1/5 太平洋時間9:15am:AppleはSnappyLabsを買収したというこの記事の内容を確認した。Appleは声明で次のように付け加えている。「Appleは時折小規模なテクノロジー企業を買収してきた。 通例、われわれはこうした買収の目的や将来計画について説明しない」

SnappyLabsの価値はPapandriopoulosの撮影テクノロジーのブレークスルーにあるはずだ。このようにハードなテクノロジーを持つ非常にリーンなチーム(たった1人だ)を買収するのはAppleのこれまでの戦略に合致している。

PapandriopoulosはiPhoneのカメラで静止画の高速連写を可能にするSnappyCamをApp Storeで1ドルで販売してきた。私が7月に紹介記事を書いた後、Papandriopoulosは「SnappyCamは9カ国で有料アプリのトップにランクインした」と知らせてきた。この売上のおかでPapandriopoulosはベンチャーキャピタルに頼ることなく運営を続けることができたものと思われる。

Papandriopoulosは7月、私の取材に応えて「離散コサイン変換に関してインスピレーションが閃いた。それによってJPG画像フォーマットを事実上まったく新しいものに改良できた」と語った。現在は削除されているブログ記事でPapandriopoulosはこう説明している。

まずわれわれは高速な離散コサイン変換(DCT)のアルゴリズムを研究した。次いでARMのNEON SIMD コ・プロセッサのアーキテクチャに最適化された新しいアルゴリズムの開発に成功した。最終プロダクトは1万行の手動で最適化されたアセンブリー・コードと2万行の低レベルCコードとなった。ちなみにSnappyCamのアプリは5万行弱のObjective Cコードからなる。

JPEG圧縮は(上記の)DCTと ハフマン・ロスレス圧縮という2つの部分からなる。われわれは素晴らしく高速なDCTの実装に成功したが、するとハフマン圧縮がボトルネックとなった。のの部分については、われわれはARMプロセッサのアーキテクチャに最適化され、高度にチューンされたセンブリー言語のプログラムを書いた。

Papandriopoulosを会社ごとスカウトすることに成功したのでAppleはこのテクノロジーをiPhoneだけでなく、iPad、Mac、MacBookのカメラに自由に組み込むことができるようになった。カメラはスマートフォンにとってもっとも重要な機能の一つだから、フル解像度で高速バースト撮影モードが提供できることはライバルに対して大きな強みとなる。.

ちなみにPapandriopoulosは以前サンフランシスコで行われたあるパレードでiPhoneに扮装したことがある。Appleにとってまさに適材といえるだろう。

SnappyLabsについては私の紹介記事を参照

[原文へ]

(翻訳:滑川海彦 Facebook Google+


Googleが「中つ国」を再現―映画「ホビット 竜に奪われた王国」の世界をChromeブラウザで探検できる

今日(米国時間11/20)、GoogleはChromeでHobbit 中つ国の旅という野心的な実験を始めた。The Hobbit: The Desolation of Smaugと提携して、ロード・オブ・ザ・リングの世界観のベースとなったトールキン自身が手描きした地図(原作に掲載されている)によって「中つ国」を詳細に再現したのだ。ガイドツアーが用意され、人間、エルフ、トロル、魔法使、その他のクリーチャーが総登場する。

静かな(おそらく)エルフのBGMが流れる中、「中つ国」の3Dマップが表示されて冒険は幕を開く。地図は雲の流れる高さの少し上からの鳥瞰図だ。現在地上を探検できるのは「トロールの森」など3地点だが、近くさらに3地点が追加される。クリックしてズームインすると、その場所の由来、重要性、住民などの情報を見ることができる。情報は3D表現の画像、ナレーション、字幕を組み合わせて表現される(日本語版あり)。レンダリングはすべてCSS3とWebGLで実行されており、このテクノロジーの特長としてAndroid版のChromeでも作動する。技術的詳細に関心があれば、こちらの開発情報を参照

もちろん、このプロジェクトは12月〔日本では2014年2月28日〕に公開予定の映画、ホビット 竜に奪われた王国のプロモーションだが、同時に最新のウェブ・テクノロジーのクールなデモでもある。現在のブラウザーがいかに強力になった(特にモバイル版で)かがよく分かる。ともかくトールキン・ファンなら大いに楽しめるはずだ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


もうサードパーティのストリーミングサービスは要らない, AWSがGPUインスタンスにより自前でサービスを提供

ラスベガスで行われているAmazonのデベロッパカンファレンスre:Inventで今日(米国時間11/13)、モバイルデベロッパ向けの新しいサービスが発表された。そのサービス、Amazon AppStreamは、同社が最近ローンチしたEC2のGPUインスタンスを利用して、ストリーミング機能を必要とするアプリケーションのデベロッパが、どんなモバイルデバイスに対しても簡単にHDでストリーミングできる、というサービスだ。このインスタンスタイプはもっぱらモバイルデベロッパ向けに売り込みされているが、でもデスクトップアプリケーションがこのサービスを使えない理由はない。

現状は制限付きのプレビューなので、利用したいデベロッパはここで登録する。

Amazonによると、この新しいサービスによりデベロッパは、“再現性の高い、リッチなグラフィクスを要するアプリケーションを多様なデバイスの上で動かせるようになり、しかもそのアプリケーションは始動が速く、AWSクラウド上のコンピューティング/ストレージリソースのすべてにアクセスできる”。

ストリーミングには、Amazonが開発した新しいプロトコルAmazon STXが使われる。それによりデベロッパは、複雑な3Dゲームの対話的なHDビデオから、彼らのアプリケーションの計算集約的な部分に至るまで、あらゆるものを、クラウドからストリーミングできる。EC2のg2インスタンス(GPUインスタンス)を使えば、デベロッパはグラフィクスのすべてをクラウドでレンダー(render, 描画処理)できる。

AppStreamを使用するアプリケーションは、デバイスのセンサをすべて利用でき、それらのデータをクラウドへ送れる。

Amazon Web Services担当SVPのAndy Jassyが今日のキーノートで述べたところによると、この新サービスが提供されることによってデベロッパは、これまでモバイルデバイスでは利用の困難だったリソース(高品質なストリーミング+使いやすいAPI)に容易にアクセスできるようになる。モバイルは、デバイスが小さいので重要な処理はどうしてもクラウドに依存することになる。今人気の高いモバイルアプリの多くが、すでにモバイルの上で(とりわけAWSの上で)動いている。というわけで同社の主張によると、“アプリケーションの可利用性はそれが利用されるエンドユーザデバイスの性能…コンピューティングパワー、ストレージ、グラフィクスのレンダリング能力…に制約されない”、ということになる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


EC2の新しいGPUインスタンスタイプはクラウドから高性能な3Dグラフィクスを提供できる

Amazonが今日(米国時間11/5)、クラウドコンピューティングプラットホームEC2の新しいタイプのインスタンスをローンチした。それは、3Dグラフィクスを必要とするアプリケーション向けに設計されている。クラウドコンピューティングと高性能な3Dグラフィクスが頭の中ですぐ結びつく人は少ないと思うが、3Dによる視覚化や、グラフィクス集約的なアプリケーションが行うストリーミングなどは強力なコンピューティングパワーを必要とするので、この新しいインスタンスタイプはAWSにとってきわめて当然の展開だ。

Amazonによると、このタイプのインスタンスを使うとユーザは、“高性能なDirectX、OpenGL、CUDA、OpenCLなどのアプリケーションやサービスを、巨額な先行投資を要さずに構築できる”。

Amazonが提供する新しいGPUインスタンスタイプは、当面、二種類ある。g2.2xlargeと呼ばれるバージョンは、メモリ15GB、ローカルストレージ60GB、EC2コンピューティングユニット26で構成され、2.6GHzのIntel Sandy Bridgeプロセッサと、NVIDIA Kepler GK104グラフィクスカード(1536 CUDAのコアあり)1基が使用される。さらに大きいcg1.4xlargeと呼ばれるバージョンは、メモリ22GB、ローカルストレージ1690GB、EC2コンピューティングユニット33.5で構成され、NVIDIA Tesla “Fermi” M2050 GPU2基を使用する。オンデマンド料金(1時間あたり)は小さいインスタンスタイプが65セント、大きいタイプが2ドル10セントからとなる。

Amazonによると、一つのGPUが720pのリアルタイムビデオストリームを30fpsで最大8つサポートできる(1080pなら4つ)。

この新しいインスタンスが可利用になるのは、当面、AmazonのU.S. East、West (カリフォルニアとオレゴン)、そしてEU(アイルランド)のデータセンターだ。Amazonはこれらのインスタンスタイプをサポートするいくつかのマシンイメージを、近く作成して提供する予定だ。

“2年前にCluster GPUインスタンスをローンチして以来、多くの顧客が、GPUインスタンスのパワーを拡張できるような、より大きい機能性を、従来のHPCコンピューティングを超えたグラフィクス集約的なワークロード…ビデオ制作サービス、3Dによる視覚化、ゲームのストリーミングなど…のために求めてきた”、とEC2担当VPのMatt Garmanが今日の声明文の中で言っている。“今回のG2インスタンスではDirectXやOpenGLが利用できるので、デベロッパはAmazon EC2の上でスケーラブルで高速な3Dアプリケーションを低コストで構築でき、クラウドを利用する高性能な3Dグラフィクスを顧客に提供できる”。

さらに、これらのGPUインスタンスではOTOYのORBX.jsがサポートされる。この、ダウンロードして使用できるHDコーデックはJavaScriptとWebGLで書かれていて、プラグインやコーデックなどクライアントサイドのソフトウェア不要で、クラウドからブラウザへ直接、3D集約的なアプリケーションをストリーミングできる。このプロジェクトはMozilla、Autodesk、そしてOTOYも支えているので、今日の声明文の中にはMozillaが一文を寄せている: “Amazon Web Services(AWS)の顧客は、クラウド内のグラフィクス処理能力とOTOYのORBX.jsによるストリーミング技術を利用して、高性能なゲームやデスクトップアプリケーションをWebへ送り出せる…しかもHTML5とJavaScriptだけを使って”。

たとえばAutodeskの3DS Max、Autodesk Maya、Autodesk Inventorなどのアプリケーションは、この技術を利用しているため、現代的なブラウザならどれをどのプラットホーム上で使っても正常に使用できる。OTOYは今日行ったデモの中で、Photoshop CS6やValveのゲームなどを、ORBX.jsの使用によりブラウザの上で動かして見せた。OTOYはすでに、Autodeskのアプリケーションをはじめ、ORBX.js対応のEC2用マシンイメージをいくつか公開している。

Amazonの今日の発表では、Playcast Mediaがg2インスタンスを使ってビデオゲームを近くストリーミングし、またAgawi True Cloudはモバイルデバイスにゲームやアプリをストリーミングする予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))