InkletアプリケーションがアップデートしてMacのForce Touchトラックパッドでドローイングができる…専用スタイラスはもう要らない

[tc_aol_on code=”518725623″]

今日(米国時間3/24)リリースされたTen One Designのアプリケーションのアップデートは、Force Touchトラックパッドからの感圧入力をMac上のどんなドローイング(お絵かき)アプリケーションでも可能にする。そのInklet 1.6は、Mac用の入力ハードウェアで感圧機能をサポートし、最新の13インチRetina MacBook Proと、近く出る新型機、12インチのMacBookで使える。〔訳注: 関連記事…この記事の文章より分かりやすい。〕

Inkletは2010年からあるが、Macのトラックパッドをお絵かき入力に使えるものの、感圧入力は同社のPogoペンを使わないとできなかった。これからは、どんなスタイラスでも使えるし、自分の指でもよい。線の太さは、トラックパッドを押すときの圧力でコントロールする。

実際に使ってみたが、ドローイングの感じはWacomのタブレットBambooシリーズの小さい方に似ていて、慣れないと位置決めが正確にできない。アプリケーションのデフォルトではトラックパッド全域が明るい領域なので使いやすく、またいろんなジェスチャ(二本指ピンチなど)にいろんな機能(ズーム、回転など)を割り当てている。

また、スペースバーを押し下げるなどにより入力の検出のされ方を変えたり、圧力の感度や強弱の幅を調節できる。とにかく、自分がいちばん快適に使える状態にできるのだ。しかし2015年型13インチRetina MacBook Proの上で最新バージョンのPhotoshopを使うと、若干、反応に遅れがある。同社は無料のデモを提供しているから、25ドル払ってニューバージョンのアプリケーションを実際に買う前に、我慢できる遅れかチェックした方がよい。

でもこれは、旅先などでスケッチをするのには最適だ。専用のタブレットは要らないし、しかもPhotoshopを完璧に使える。自分の手の動きとの対応関係を十分会得したら、浮かんだアイデアを…忘れないため…即スケッチするのにぜひ使いたい。緊急のときには、もっと高度なグラフィクスにも使えるだろう。

Ten OneはAutographアプリケーションもアップデートして、Force Touchトラックパッドの感圧機能をサポートするようになったから、前よりもなめらかで、本物のインクに近いサインを書ける。こちらも、今日リリースだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa


忘年会でバカ受け”空間写真”、Fyuseは動画ともパノラマとも違う第三の画像技術

以下の画像はぼくが去年末、忘年会の席上で撮って同僚に見せて「なにこれっ! 面白い!」とオオウケしたマグロのカマの写真だ。リンク先へ飛んで、できればスマホのブラウザで表示して端末を左右に傾けて見てみてほしい。そこにカマが存在するかのように、手の中で3次元ぽい物体が転がっているように見えるはずだ。PCのブラウザならマウスでドラッグすれば動く。ネイティブアプリをダウンロードすれば、高精細な3次元ぽい映像として再現できる。

これは、スマホで「空間写真」を撮影できるとするアプリ、「Fyuse」(フューズ)で撮影したものだ。撮影する対象物に対してデバイスをぐるっと巡らせると、まるでスマホの中に3D空間を閉じ込めたような写真が撮影、再生できる。

以下がFyuseの公式紹介デモ動画だ。

動画の順再生と逆再生をしてるだけか?

この映像を友人らに見せたところ反応は2つに分かれた。これはスゴいね、面白いねというものと、これは3Dとかとは関係がなく、単にキャプチャしたフレームをパラパラと再生しているだけではないかという冷めた反応だ。前者は非テック系のスマホ利用者。後者はメディア関係者やエンジニアで、疑り深い人たちだ。

ぼく自身は、使ってみてすぐにFyuseはタダモノではないと思った。いろんなアングルや撮影方法を試すと、単純なコマ再生・逆再生とは違うことは分かるし、周囲に見せたときのウケがとにかくいい。これはスゴいアプリだと思った。ただ、信用している人たちに「見せ方がうまいだけで、そこには何の新規性も技術もないんじゃないの?」と言われて、そういえばそうなのだろうかと思ったのも事実だ。

「新しい技術が登場するときには、ともかく否定してかかる人たちというのは必ずいるものです」

Fyuseを開発したサンフランシスコ拠点のスタートアップ企業、Fyusionの共同創業者でCEOのラドゥー・B・ルス(Radu B. Rusu)にSkypeで質問を投げてみたところ、こんな答えが返ってきた。Fyuseはスローモーション動画とかパノラマ写真に似ているものの、実は全く別の画像処理技術をベースにしているという。

複数センサー利用で空間を再現

Fyuseは具体的に何をしているのだろうか?

「Fyuseを開始すると、加速度センサーの情報も加味し、カメラでとらえた映像の解析を始めます。ただし、デバイスが静止している限りは映像はキャプチャしません。ユーザーがデバイスを動かし始めたら映像をキャプチャします。静止しているときにキャプチャしないのは、Fyuseは空間を捉えるので時間の経過はどうでもいいからです」

「Fyuseでは常にカメラの位置を推定しています。これはジャイロだけではできません。ジャイロでは相対的な向きの変化だけしか分かりませんから、ビデオフレームの解析と写真測量法と呼ばれているものを組み合わせています」

受光素子も含めて複数のセンサー情報を総合的に解析する「センサーフュージョン」と呼ばれるアプローチのようだ。こうしてデバイスの空間内での絶対位置を推定して、以下の図のように空間上の一定間隔ごとに捉えた「ノード」上からの「ビジュアル・グラフ」を構成するのだという。ノード間は差分としてデータ化してあって、これによりノード間はほとんど無限の粒度でスムーズに補完が可能なのだそうだ。

Fyuseの画像を見ると、動画やパノラマ写真に似て見える。しかし、高画素の動画であれば、100MBとか200MBのデータ量になり、スマホでの閲覧に適さなくなるはずだ。Fyuseのデータは1〜2MB程度だから3Gのスマホでも少し待てば再生できる。現在はEC向けの応用のために500KBまで減らすブラウザ向けビューワーも開発しているという。Fyuseの画像データは、それそのものでは、JPEGのような2次元とも、MPEGのような動画とも違っていて、2次元の画像とカメラ位置のノード情報を持っているそうだ。これまでオープンソースの画像処理ライブラリを作ってきたラドゥーらしく、Fyusionではこのフォーマットの標準化のためにISOに働きかけを始めているという。

Fyuseの画像をスワイプしてみると分かるが、背景画像がスムーズにパンしている中で、前景の人物が歩いていたりする。Fyuseでは被写体の中の対象物を点群として認識するものの、実用面での理由から実装上は現在2つのレイヤーで2次元映像を再構成しているという。レイヤー数自体は任意に増やすことができるものの、これで十分だとか。パノラマ写真、特にセルフィーで風景を広く収めて撮影するようなときに、これは有利。セルフィーという応用分野は開発初期には想定していなかったそうだけれども。一般にパノラマ写真では継ぎ目の問題があるために、「腕が5本あるようなゴーストが現れたりするが、Fyuseでは前景の人物も自然に動く」とラドゥーは指摘する。確かにスローモーションで雪が降る中、人々がゆっくり歩くという見たことのない映像を見ることができる。

Fyuseのような技術が可能となったのは、デバイスの急速な進化が背景にある。「最低でも2コアと、そこそこのGPUが必須です。iPhone 4以上のスペックが必要で、撮影後の事後処理はiPhone 4Sで5秒以上、iPhone 5で3秒、iPhone 6で1秒程度です。iPhone 7だと全部リアルタイム処理可能になると見ています」

3次元グラフィクスの専門家として、誰にでも使えるものを作りたかった

ラドゥーは、画像処理をかじったことのあるエンジニアなら誰でも知ってるだろうオープンソースのライブラリ「OpenCV」の開発メンバーの1人で、かつ同様のオープンソースの3次元点群ライブラリ「PCL」(Point Cloud Library)の設立者でもある。3次元グラフィクス分野で10年の経験があるという。

それまでOpen PerceptionというNPOで働いていたり、ロボティクス関連のWillow Garageでリサーチサイエンティストという立場で活動してきたラドゥーがFyusionというスタートアップ企業を創設した理由は、これまでに研究してきたテクノロジーを使って、一般ユーザーに使えるものを作るためだという。

「3D画像というのは技術者にとっては点群やメッシュ、八分木のことだったりします。でも、コンシューマーにとっては3Dといえばマトリックスの世界なんですよ」

2013年の創業当初は、ちょうど3Dプリンタブームが起こりつつあったときなので、カメラとKinnectを使ってトライアングメッシュによる3Dモデルを作るテクノロジーを作っていたという。ただ、これは結局あまり利用者がいないことが分かって6カ月で方針転換。

「2013年にスマホの利用時間がPCを上回ったのです。それで、全てのスマホで使える何かが作れないだろうかと考えたんです。つまり単眼のカメラを使った応用です。3Dプリンタにしか役立たないものじゃなくて、もっと没入感があって、美しい何かです」

「われわれの周囲のもの、例えば太陽や空、波のような透明なものは3Dの数学的モデルでは表現できません。ハイブリッドを作る必要があったのです」

「2つのメジャーな映像記録の方法を振り返ってみましょう。2Dのスチル写真と動画です。この2つはコンピューター登場以前からありました。とても長く存在しているので、もはやわれわれのDNAの一部のようになっています。だから、これら以外の方法があると想像もせずに使い続けているだけなのです」

「例えば写真。100年ぐらい前に2次元の映像を捉えるのに成功した人がいました。スチルカメラの誕生です。その後、コンピューターが登場して、それでデジタル化して、われわれはJPEGを作りました。もう1つは映像。これも36mmフィルムができて、それをデジタル化してMPEGやH.264を作りました」

「時間と空間をスライスして画像を捉えるのが写真です。一方、ビデオは時間をキャプチャするものです。30フレームとか60フレームとかですね。しかし、空間を捉える方法がなかったのです。Fyuseは空間を捉えるものなのです」

北米の写真・動画カテゴリで第4位に

色々と撮影してみると分かるが、単純な子どもだましのアプリではない。一方で、冒頭に冷めた指摘を紹介したとおり、単に傾きを検知して動画の順再生と逆再生をやっているだけに見えなくもない。いくら高度な画像処理技術を使っていたところで、ユーザーに受け入れられないなら意味がない。

AppAnnieでランキングを見てみたところ、北米のApp Storeの写真・動画カテゴリで1月18日にはVineを抑えて、Instagram、YouTube、Snapchatに続く第4位を獲得。順調にソーシャルネット上で利用が伸びているようだ。Fyuseは2014年12月にiOSとAndroid向けにバージョン2.0がリリースされている。

ソーシャルに体験をシェアするという意味では、Facebookなどと相性が良さそうで、いかにもFyuseは買収対象となりそうなアプリに思える。あるいは、ネイティブ実装のほうが再生環境としては好ましいことから、iPhoneのようなデバイスに統合されることがベストなのではないか。この点についてラドゥーに尋ねてみたところ、「これまでの買収の提案は断っています。われわれは、どこかのSNSに売って消えたいとは思っていません。これまでOpenCVやPCLでもそうでしたが、われわれは長期に考えてプラットフォームを作ってます。Androidデバイスの製造メーカーとの話も始めています。Fyuseというアプリはテクノロジーのショーケースとして作りました。ソーシャルに使えるアプリにすれば、人々がこの技術を気に入るか気に入らないかはすぐに分かりますからね」

Fyusionは2013年設立。日本のUTEC(東京大学エッジキャピタル)、米国VCのNew Enterprise Associatesほか個人のエンジェル投資家から2014年5月にシリーズAとして355万ドルの投資を受けている。個人投資家の中には、サン・マイクロシステムズ社の共同創業者で、創業前のGoogleに10万ドルのチェックを切ったことで有名なアンディ・ベクトルシャイム氏も名を連ねていることを付け加えておこう。


AdobeのCreative SDKがiOS向けで公開ベータへ、Androidももうすぐ

Adobeは、今日ロサンゼルスで行われた同社のMAXカンファレンスで、Creative SDKの公開ベータのローンチを発表した。同社が数か月前に披露したCreative SDKは、Photoshopのエディティング機能の一部、PSDファイルの操作、Adobeが最近開設したCreative Marketへのアクセス、そして同社が新たにローンチしたハードウェア製品の利用を、サードパーティのモバイルデベロッパに提供する。

このSDKは発表から今日まで少数のデベロッパを対象に非公開ベータをやっていた。今日のバージョン1.0の公開ローンチにより、多くのデベロッパが自分のアプリケーションからAdobeのCreative Cloudの機能集合にアクセスできるようになる。

すでにこのSDKを使っているアプリケーションの例として、動的描画エンジンFabrikaやプレゼンテーションアプリFlowboard、それにAdobe自身のモバイルアプリの数々が挙げられる。

Adobeとモバイルアプリと来れば、記者会見などでいつも、Androidバージョンはいつになるか、と質問が飛ぶ。同社のアプリケーションの新しいスイートに関してはそれはまだまだだろうが、このCreative SDKに関してはAndroidバージョンが今、非公開ベータまで来ているらしい。Adobeとしては今回の公開ベータにAndroidアプリも含めたいようだ。

Creative SDKは、パッケージ商品としてのソフトウェアからオンラインのサービスへ移行しつつあるAdobeの姿勢の好例だ。エンドユーザや消費者だけでなく、デベロッパが使用するツールも、そっちへ移行していく。Creative SDKに関して残る疑問は、その、今後の課金の方式だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


これはCGです

ときどきぼくは、今のCGIが不条理とその彼方にまで達していること、だからインターネットにあるものはすべて作り物であること、あれは本物のスプーンではないこと、などなどを読者に思い出していただくための記事を書く。

なぜなら、まじめな話、あれを見てごらん、そいつを見てごらん、etc., etc.

こんなビデオは、ぼくも初めて見る。不気味の谷現象なんか超えてる。だから後半で、これがCGだとわかったときは、椅子から転げ落ちそうになった。

[MayaのSnowmanをCGした人なら、こいつの耳たぶの位置は本物の人間より2%高すぎる、なんてコメントするかもしれない。 ]

これをCGしたChris Jonesは、以前、8年かけて、すばらしい短編The Passengerを一人で作った人だ。

[出典: Sploid]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


NVIDIAはSamsungとQualcommに対する訴状で、GPUそのものがうちの特許と主張!

またまた大きなパテント闘争であります。

NVIDIAが今日、SamsungとQualcommを、グラフィクスチップの特許侵犯で訴えた。その最終目標は、Samsungが特許料を支払うまで同社のGalaxyシリーズのスマートフォンとタブレットを出荷禁止にすることだ。

NVIDIAは同社のブログで、Samsungと直接交渉をしたが決着しなかった、と書いている。NVIDIAの総務部長によると、“Samsungは、それは主にサプライヤ(部品供給企業)の問題だ、と主張して譲らなかった”、ということだ。

NVIDIAが出荷停止を主張しているSamsungの機種は、12種類だ: Galaxy Note、Note Pro、Note 3、Tab S、Tab Pro、Tab 2、Galaxy S III、S4、S5、Infuse 4G、そして大昔(2011年)の出来損ない機種Samsung Illusion。

NVIDIAが主張する‘盗まれた’特許は少なくとも7件あり、中にはこんなのも:

しかし最大の問題は、GPUなどQualcommのチップは、Samsungだけでなく、ものすごく多くのデバイスで使われていること。事と次第によっては、これはQualcommにとって長期戦になるだろう。

SamsungのGalaxy製品の出荷停止を求めているNVIDIAの、合衆国国際通商委員会に宛てた申し立てはここにある。そして、今日提出されたばかりの特許侵犯の訴状はここだ

[写真: Laineema; CreativeCommonsのライセンスで使用]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


動いている物の上にリアルタイムで正確な投射を行う綺麗で驚異的なCGI

CGIは初期のモノクロ画面のJar Jar Binksのシミュレーションやグリーンモニタ上のKing’s Landingなどに比べると驚異的に進歩した。その進歩には、このビデオも加えるべきだろう。プロデューサーでテクニカルディレクターのNobumichi Asai(浅井宣通)は、Omoteと名づけた投射技術により、生きているモデルの顔にメークアップを投射する。

最初ふつうのメークをしているモデルが、ドラマチックで、花道を歩く歌舞伎役者のようなお面になる。“なにこれ、セルフィーの上にランダムなメークをのせるアプリとおんなじじゃない”。ところが、モデルの顔が動くと、この技術の精度のすごさがわかる。“電子メークアップ”などという、安易な言葉では言い表せない。

ご覧になるとわかるが、次々と変わる顔の変化は、実にすばらしい。

OMOTE / REAL-TIME FACE TRACKING & PROJECTION MAPPING. from something wonderful on Vimeo.

Asaiは詳しい技術を明かしていないが、SlashGearの記事によると、動きに合わせてリアルタイムでフェイスマッピングをやって、いろんなデザインを顔の上に正確に投射しているのだろう、という。AsaiがCGIを作るのはこれが初めてではないが、動いているオブジェクトの上のCGIは、ごく最近の挑戦のようだ。

[出典: SlashGear]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


OpenGL 3Dの次世代規格の策定作業がKhronos Groupの指揮下に始まる…ハードウェア重視、マルチスレッド、共通シェーディング言語など

OpenGLOpenCLWebGLなどの規格を管理している業界団体Khronos Groupが、通常のアップデートサイクルの一環として、今日(米国時間8/11)から行われるSIGGRAPH 2014で、デスクトップの3DアプリケーションのためのOpenGLのアップデート規格をローンチした。よりスムーズな3Dグラフィクスを作るための重要なアップデートが二つあり、それらはデベロッパの負担を軽減するだけでなく、 DirectX11からのポートをより容易にするだろう。しかしもっと重要なのは、今日この非営利団体が、次世代の3Dスタンダードを定義する作業への参加を呼びかけたことだ。

Khronosの理事長でNvidiaのコンテンツ開発担当VPであるNeil Trevettが先週語ったところによると、それは、真に現代的な3D APIを作るための、規格の抜本的な再設計だ。Khronos Groupはその礎石的な部分に関してすでに内部的な作業を開始しており、今回はそのプロセスをエコシステム全体に対してオープンにするものだ。

OpenGLは最初、Silicon Graphicsがほとんど22年も前に開発した。そのころは、今のような多機能で高性能なGPUや、ましてやモバイルのGPUなど、誰も予想しなかった。今度作られる次世代のAPIスペックでは、同団体は完全な無からスタートして未来のスタンダードを作る。とくにTrevettが避けたいのは、分裂の激化だ。“3D対応のプラットホームがきわめて多くなっているだけに、分裂がもたらす危険はなおさら恐ろしい。必要なものは、オープンなスタンダードだ”。

デベロッパたちは、GPUを低レベルでコントロールできるAppleのMetalなどの便宜を、明らかに喜んでいる。次世代のOpenGLも、同様の機能を持つだろう。Trevettはより具体的に、ドライバがやることが減り、むしろハードウェアの露出量が増える、と言う。“既製のブラックボックス的なルーチンを呼ぶことよりもむしろ、デベロッパが直接ハードウェアをコントロールして実現することが増えるだろう”、と言うのだ。アプリケーションがGPUやCPUのワークロードをコントロールすることによって、パフォーマンスが上がり、こうしたらこうなるという、結果の予測の精度も上がる、と彼らは主張するのだ。

もうひとつの重要な礎石が、マルチスレディングによるオーバヘッドの軽減だ。これもまたOpenGLの最初の規格では話題にすらならなかったものであり、同団体は今これに、根底から取り組もうとしている。なお、ほかに新規格の目玉として、共通のシェーディング中間言語が導入される。これもまた、初めての取り組みだ。

すでにこの新規格の策定作業に参加している企業は、3Dグラフィクスに関わる中心的企業のほとんどすべてだ。まずハードウェア方面からはNvidia、AMD、Apple、Samsung、Intel、Sony、そしてQualcomm、そしてTrevettは、とくに3Dエンジンの大手とゲームデベロッパが重要だ、と言う: EpicとUnity、Blizzard、Valve、それにElectronic Artsだ。そのほか、Oculus VR、Pixar、Googleなども参加している。Googleは、Android用のOpenGL ESに関心がある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Disneyが物理学を征服、3Dプリントを使って何でも(高精度な)独楽にしてしまう

とても退屈しているとき、そこらにある何か…電池でもペンでも何でも…を独楽(こま)のように回そうとしていることはない?

Disneyはそれを、非常に極端なレベルでやってみせた。3Dプリントと、すごーく巧妙な物理学を利用して、どんな形の物でも永遠に回り続ける方法を作り出したのだ。

そのアイデアとは: 物の質量分布をほぼ完全にコントロールできるなら、その物の重心をコントロールできる。

言い換えると: 固体あるいは準固体の、各部分の重さとそれらの互いの差がすべて分かるなら、どんなに奇妙な形の物を作っても、それがテーブルの上で倒れたりせず、独楽のように長時間回すことができる。

そこに急須があるね。それを回してみたいかい? できるさ! ”アルマジロ・モンスター“のフィギュアを持ってるなら、そいつを一本の指の上で回すのはどう? もちろん、それもできる! Disneyはそれの3Dモデルを作り、その回転軸を決める。そうすると彼らのアルゴリズムは、その物の内部の、どことどこを空洞にしたら(あるいは逆に、重くしたら)、最適のバランスが得られ、その回転軸で独楽のように回り続けるかを、計算で求める。

残念なことに、このプロジェクトはDisneyのスイスの研究チームがSIGGRAPH 2014カンファレンスのために作ったもので、誰でも試せるツールが近くリリースされる予定はない。でもこのプロジェクトの発表論文なら、ここで読める。

[出典: Giz]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


AdobeのInkとSlideを使ってみた…プロの道具だが操作が難しい面も


 
 

InkはSlideAdobeの初めてのハードウェア製品で、特殊なスタイラスとデジタル定規のセットだ。

これらを使用するためのアプリがAdobeのLineで、これを使うことによって図形や直線などをきれいに描くことができる。

スタイラスのInkはアルミ製で、ルックスも手触りもよろしい。しかも、立派な仕事ができる。わずかなディレイ(遅延)はあるが、Bluetoothで接続するスタイラスとしては上出来だ。

一方Slideは、使いづらい。Adobeは磁気ビットを使って人間の容量性のタッチをシミュレートするやり方を選んでいるので、Slideを正しく使うためにはそのビットに圧力を加える必要がある。iPad miniのような小さなデバイスでは、この‘正しく’が難しい。

スタイラスのInkには、あるデバイスの上で描いた図を、ほかのデバイスに落とすなど、便利な機能がいくつかある。

InkとSlideには、そのほかにも、プロのグラフィックデザイナーにふさわしいお利口な機能がいろいろある。それらを本気で使いたい人にとっては、199ドルは高くないだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Amazon Fireの3D表示は顔位置を認識してダイナミックに再描画する新たな透視図法

われわれはだいぶ以前からAmazonがヘッドトラッキングによる3D表示テクノロジーを開発していることをつかんでいた。この分野では、たとえばSamsungが初期のGalaxySで似たような機能を試している。

今日(米国時間6/18)、Amazonが発表した最初の独自スマートフォン、Amazon Fireに、4台の赤外線フロントカメラを利用した3D表示機能が含まれていた(ちなみにTechCrunchでは4月に既報)。

ベゾスは今日のプレスイベントで、「14世紀に透視図法が発明されて絵画だけでなく、われわれの世界観そのものが変わった」と説き起こした。「対象には常に目に見えない部分があることをわれわれは意識するようになった。では、われわれが頭を動かすたびに無数の画家が新たな視点に応じてその目にみえない部分を描画してくれたらどうなるだろう?」とベゾスは続けた。

この3D機能はさまざまなアプリで独特の3D表示効果を生み出す以外に、スマートフォンを傾けるだけで画面をスクロールさせるなどの新しいジェスチャーにも利用されている。

Fireの表面のそれぞれの隅に画角120°のカメラが合計4台設置されている。このうち2台が常時作動してユーザーの顔の空間的位置を認識している。

ユーザーが暗闇でFireを使う場合に備えて、それぞれのカメラには赤外線ライトが装備されている。Amazonはこのヘッドトラッキング・システムをDynamic Perspective(ダイナミック透視図法)と呼んでいる。Amazonはユーザーの顔画像を解析して画面との距離、角度を正しく認識させるために多大の努力を払ってきた。

Dyanamic Perspectiveをベースに、Fireは毎秒60フレームで3D描画を行う。この機能は特定のアプリに限らず、あらゆるアプリで作動させることが可能だ。Amazonは3DイリュージョンをFireのロックスクリーンを始め、あらゆるインターフェイスで利用している。たとえばアイコンが表示されているときに顔を動かすと、それに応じて視差が生じ、アイコンが他のレイヤーの上に浮かんでいるように見える。

Fireはヘッドトラッキングと傾きセンサーを組み合わせ、ユーザーが本体を左右に傾けるだけでウェブページ間を移動するなどのコマンドが実行できる機能を備えている。また縦に傾けるとスクロールが実行できる。

Dynamic PerspectiveがOmronのOkao Vision顔認識テクノロジーを利用していることはわれわれが以前に報じたとおり。

Dynamic PerspectiveのSDKは今日、デベロッパーに公開された。

われわれはまだこの3D機能を直接試していない。しかし会場の聴衆は皆、強い印象を受けたようだ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


MetalによってモバイルゲームにおけるiOSの優位性がさらに高まる

昨日のWWDCでは2時間のキーノートで大量の発表が行われたが、その中にゲームデベロッパ向けのものが3つあった: SceneKit、SpriteKitの新しいファンクション、そしてiOS上のハイエンドゲームのパフォーマンスを大幅に上げるMetalフレームワークだ。中でもMetalは、AndroidというOSの性格上、Googleには逆立ちしても真似できないものだ。

Metalはデベロッパに、OpenGLよりも“もっとメタル(metal, 金属==ハードウェア)に近い”一連のファンクションを与える。OpenGLはいわばグラフィクスの標準ライブラリとして、iOSだけでなく、MacもAndroidもMicrosoft以外のゲーム機も使ってきた。しかしデベロッパがMetalを利用すると、グラフィクスのハードウェアをダイレクトにコントロールでき、システムのオーバヘッドが少なくなるためパフォーマンスはより高速になる。

ただしMetalは、グラフィクスのパフォーマンスをぎりぎりまで上げたいというデベロッパにしか、あまりメリットはない。しかもゲームのデベロッパたちも今では“ゲームエンジン”をベースに仕事をすることが多く、MetalのようなAPIを直接使って低レベルのグラフィクスコードを毎回一から書くことは、あまりない。だからデベロッパが関心を向けるのは、MetalでもってiOSゲームの、どこがどう変わるのか、という点だ。

実はゲームエンジンの制作者たちはすでに、Metalを利用するエンジンを作り始めている。昨日は、Unity3DのレンダリングのグルAras PranckevičiusがTwitterのツイートで、同社のエンジンにMetalを組み込むことによって“うちの3D APIの最速のポートが出来上がった”、と述べている:

[AppleのMetalで遊ぶのはとっても楽しい。3D APIのこれまでで最速のポートになった。]

iOSデベロッパでスタートアップコンサルタントでもあるNat Brownはブログで、iOSのMetalの性能にはかなわないからAndroidでは新作ゲームが作られなくなる、ということはない、と指摘している。なぜなら、Metalの利用はiOS独自のツールの利用を意味するから、クロスプラットホームな開発を志向するゲームデベロッパは最初から手を出さないだろう、というのだ。

でも、デベロッパではなくゲーマーたちは、いち早く、Metalベースのゲームのグラフィクスの素晴らしさに、気づき始めるだろう:

しかし、Metalに飛びつくきわめて高度なプログラマたちは、ゲームエンジンやフレームワーク、モバイルゲームの95%、いや99%で使われているツールチェーンをメンテしている人たちだ。Unity3DUnreal Engineなど数社がiOSとAndroid両方のモバイルゲームを支配しており、これまでは両プラットホームとも、OpenGL ESの比較的共通のコアをターゲットにしてきた。

そのため、Metalのおかげで大量のデベロッパがiOS国へ移民する、ということはありえないだろう。今ではデベロッパは、APIのレベルではなく、エンジンやフレームワークなどの高級なツールを使って仕事をしている。しかしMetalがiOSのパフォーマンスを高めることによって、ユーザやゲーマーたちの大量人口移動を起こすことはありえる。

Metalフレームワークと同様のものは、ほかのプラットホームにもある。AMDのグラフィクスチップ上のMantleや、MicrosoftのWindowsやXboxプラットホーム上のDirectX 12などだ。ただしAMDもMicrosoftも、これらのフレームワークを核とするエコシステムを完全にコントロールしていないから、状況は複雑であり、特定のハードウェアを対象とする最適化も、それほど徹底できない。

たとえばAMDはとても多様なグラフィクスコアを作っていて、それらが、PCハードウェアのほとんど無限ともいえる構成において利用されている。またDirectXも、CPUやRAM等々の無限の多様性に加えて、グラフィクスチップの多様性にも対応しなければならない(AMD、nVidia、Intel等々)。

つまりこれらのフレームワークは、Appleにできるほどのレベルでは、特定のハードウェア向けの最適化ができない。AnandtechのRyan Smithが、今朝(米国時間6/3
)、こんなことを書いている:

これまでの低レベルAPI、たとえばAMDのMantleやMicrosoftのDirectX 12は、前者は他社のCPUやOSも顧客にしなければならないハードウェアベンダのAPIであり、後者はサードパーティのCPUやGPUに対応しなければならないOSベンダのAPIだ。これらに対して、Appleの羨ましい立場とは、単独かつ自力で、完全に垂直なエコシステムを築けることだ。Appleは、CPUも、SoCの構成も自社製、OSも自社製だ。GPUは他社製だが、これも過去7年間Imagination TechnologiesのPowerVRを独占的に使っていて変える様子もない。

iPhone 5sもiPad AirもiPad miniも、すべて、同じA7のSoCを使っている。今年の機種はA8を共有するだろう。Metalは一連のハードウェアに対して同一の最適化が可能であり、多様なモバイルデバイスの上で同じゲインを稼げる。

Androidハンドセットの多様性にはそれなりのアドバンテージがあるが、多様なメーカーの多様なハードウェアに対して、GoogleがMetalと同レベルの最適化(==特定単一のハードウェア固有の最適化)を図ることはありえない。今後、スマートフォンの進化に対するゲーマーたちの期待が、ますます欲張りになってきたとき、Metalによってゲームの世界がどう変わるか、それが見ものだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


iOS 8 SDKではデベロッパがA7ハードウェアのグラフィクス機能に直接アクセス–iPhone/iPadが最新ゲーム機並の迫力に

Appleは今日(米国時間6/2)のiOS 8の立ちあげに併せて、このモバイルオペレーティングシステムのための数々の新しいデベロッパツールをリリースした。その新しいiOS SDKをAppleのCEO Tim Cookは、“App Storeのローンチから今日までで最大のリリース”と呼び、APIの新設や更新が4000以上もあることを誇示した。

中でもとくにデベロッパが気に入ると思われるのは…新言語Swift以外では…、Appleが”Metal”と呼ぶ機能だ。デベロッパが、A7プロセッサのグラフィクスやコンピューティングなどハードウェア機能に直接アクセスできること、そういうライブラリというかAPI集のことを、Metalと総称している。同社によると、Metalを使うことにより、グラフィクスや計算集約的な処理におけるオーバヘッドが減り、マルチスレディングの効率も上がり、iPhoneやiPadにおけるグラフィクスの速さと迫力は最新のゲーム専用機と肩を並べるものになる。これにより、描画のスピードは、iOS 7を1とすると、iOS 8ではその10倍になる。

主に2Dや3Dのカジュアルゲームのデベロッパ向けに、SceneKitが新たに提供され、また既存のSpriteKitには、力場やピクセルごとの物理計算や逆運動の計算が加わる。

今日は大方の予想通り健康アプリがローンチされたが、それに併せてHealthKitというものがローンチされた。これを使うとデベロッパは、自分のアプリとAppleの健康アプリとのあいだで、データを交換できる。

このSDKの大きな目玉には、スマートホームデバイスを作ってそれにiOSと通信をさせたい、というデベロッパのためにフレームワークHomeKitが含まれる。また大量のデータ伝送やデータの保存をクラウドを使ってやりたい、というデベロッパのためには、iCloudの無料のAPI集とも言うべきCloudKitが提供される。なおHomeKitに関する詳細な記事がここにある。

CloudKitでAppleは、クラウドをベースとするバックエンド市場に参入するが、ストレージもAPIも無料という点が、既存のサービスと違う。容量制限は、クラウドストレージ1PB、データベース10TB、一日のデータ伝送量5TBだ。どんなアプリでもサービスでも、またユーザがどれだけ増えても、これだけあればとりあえず十分だろう。

今日の発表でとくに目立った機能が、アプリの拡張機能だ。これによりさまざまなアプリが、ほかのアプリへのインタフェイスを露呈することができる。この機能は、サンドボックスに入れられて安全が図られる。この拡張機能を使って、たとえばメールと写真編集アプリとのあいだで写真をやりとりできるだろう。Safariも、この拡張機能にアクセスできる。AppleのCraig Federighiが今日行ったデモでは、Safariの中からBing Translateを呼び出して翻訳をやらせていた。

ついにサードパーティアプリが通知センターの中で自分独自のウィジェットを定義できるようになった。しかも、対話できるウィジェットもOKだ。

指紋認証システムTouch IDも、そのAPIが提供される。つまりサードパーティのアプリが、Appleの指紋認証を使えるのだ。

iOSの写真機能もそのAPIがデベロッパに公開され、それらはPhotoKitというフレームワーク名で総称される。AppleのPhotosアプリも、もちろんこのAPIを使って構築されているのだ。非破壊的エディットやPhotosのライブラリを/にリード/ライトできる機能、またCamera APIによりフォーカス、ホワイトバランス、露出などのコントロールが、デベロッパの写真撮影アプリの中でできる。

iOS 8のベータとそのSDKは、developer.apple.comで登録したデベロッパが利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


イラスト制作の様子を自動的にInstagram用ビデオにまとめるSketchVid

また、面白いiOSアプリケーションが登場してきた。名前をSketchVidというものだ。描いた落書きをInstagram用のアニメーションにすることができる。

手元の写真をなぞって絵にすることもできるし、もちろん普通に絵を描くこともできる。いずれにしてもスケッチの手順をすべて記録し、そしてその描画の様子を15秒間のビデオにまとめるのだ。

自分ではJotスタイラスを持ってはいるものの、絵を描くのは得意でない。しかしSketchVidにはトレース機能も用意されていて、Crispin Gloverの絵も、なんとか本人であると認識できる程度には描写することができたように思う。

上手に描くことができたなら、SketchVidから作品を共有することができるようになっている。YouTubeではイラスト作成の様子をうつしたものが人気ジャンルのひとつとなっているし、そうした流れにのってSketchVidを使ってInstagram上でマーケティングないし教育目的などの目的で作品を公開する人も増えてきているようだ。ターゲットとなる利用者の幅は広いだろうが、とくに子供などは自分の作品が動き出すのを見てとても喜ぶのではないだろうか。

SketchVidを製作したのはトロント在住のSaeed GhaferiとArfan Chaudhryだ。あるときSaeedがArfanにスケッチを送ったのだそうだ。

「Arfanは最初、本当にSaeed本人がが描いたのだとなかなか信じなかったのです」とのこと。「そのときにひらめいたのです。イラストを描く様子を記録して、それをビデオ化すれば面白いのではないだろうか、と」。

公開するプラットフォームとしてInstagramを利用することとした。「アート分野に携わる人にも、自分の写真やビデオ作品などを公開する場としてInstagramを利用している人が多かったからです」。

他にもイラストの様子を記録するアプリケーションがある中、公開場所をInstagramに特化することで、アプリケーションの特徴を出そうとも考えたのだろう。写真をトレースする際、写真は自動的に正方形に切り取られ、またイラスト作成手順がどれだけ複雑であろうとも、ちゃんと15秒に収まるように編集してくれる。

SketchVidはiOS版が提供されていて、基本機能は無料で利用することができる。またアプリケーション内販売の機能を使って、さらに便利な描画ツールを入手することもできる。今の段階でも相当に楽しいものになっていると思うが、アニメーションのクオリティを高めるために、すぐにもアップデートする予定にしているのだとのことだ。またAndroid版も現在作成中であるとのことだった。

GhaferiとChaudhryのお気に入り作品をいくつか掲載しておこう。

原文へ

(翻訳:Maeda, H


iOSの上でシロートでも簡単に合成写真を作れるUnion, TangentのPixiteから

Pixiteは、UnboundFragmentTangentなどなど、iOS用の高度な写真アプリを作っていて、Tangentは2013年の”App Store Best”にもなった。その同社が今回は、合成写真を作るアプリ、いわゆるフォトブレンディング(photo-blending)アプリケーションUnionをリリースする。このアプリを使うと、たとえば左図のように、複数の写真の重ね合わせや、シルエット(輪郭)化、二重露出効果、背景と前景の合成、などなどを容易にできる。

PixiteのEugene Kanekoによると、このアプリは既存のアプリやライブラリなどに依存せず、ほとんどゼロから作った。だから、“二つの写真をこれまでなかったような、すごいやり方で組み合わせることができる”、という。

チームのScott Sykora、Ben Guerrette、Rich Changらは最初、同社の既存の写真編集アプリTangentやFragmentに、マスキングの機能を加えようとしたが、それをすると、それらのアプリが複雑になりすぎることに気づいた。そこで、単独のアプリとしてUnionを作ることになった。

Unionは写真の合成やマスキングができるだけでなく、Pixiteのそのほかのアプリと組み合わせて使えるので、作業が自然に一つの流れになる。別々のアプリを立ち上げる、という感覚がない。

このアプリを使うときは、まず最初に、背景や色塗り、透明レイヤなどをロードして、そこに、上にのせるべき前景や色塗りなどをロードする。これらのロードの過程で、明るさ、コントラスト、色温度、飽和レベルなどを、スライダーを使って調整できる。

最後にマスクを加えて、前景のどこが背景を隠すのかを指定し、合成画像を作り上げる。

編集ツールがとても精密なので、画像の細かい変化を自由に指定できる。

ブラシもいろいろあるので、塗りつぶし、グラデーション、スクエアブラシなどなどを使い分ける。ブラシサイズを、ズームイン/アウトできる。PixiteのほかのアプリにないMagic Wand(魔法の杖)というユニークなツールは、色などの調整と結果のプレビューをリアルタイムでできるので、やり直しなどにそれほど時間を取られない。

こんな写真編集は誰もが頻繁にやりたくなるものではないと思うが、プロや写真マニアには喜ばれるはず、と同社は考えている。

でもプロでない人でも、Unionではこんな高度な写真編集が比較的簡単にできるから、いろいろ試してみると楽しいだろう。眠っていたあなたのクリエティビティが、目を覚ますかもしれない。

Unionで作った画像は、Instagram、Facebook、Twitter、それにメールで、すぐに共有できる。

これだけ高度な機能がありながら、UnionはiTunesでたったの1ドル99セントだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


iOSの上でシロートでも簡単に合成写真を作れるUnion, TangentのPixiteから

Pixiteは、UnboundFragmentTangentなどなど、iOS用の高度な写真アプリを作っていて、Tangentは2013年の”App Store Best”にもなった。その同社が今回は、合成写真を作るアプリ、いわゆるフォトブレンディング(photo-blending)アプリケーションUnionをリリースする。このアプリを使うと、たとえば左図のように、複数の写真の重ね合わせや、シルエット(輪郭)化、二重露出効果、背景と前景の合成、などなどを容易にできる。

PixiteのEugene Kanekoによると、このアプリは既存のアプリやライブラリなどに依存せず、ほとんどゼロから作った。だから、“二つの写真をこれまでなかったような、すごいやり方で組み合わせることができる”、という。

チームのScott Sykora、Ben Guerrette、Rich Changらは最初、同社の既存の写真編集アプリTangentやFragmentに、マスキングの機能を加えようとしたが、それをすると、それらのアプリが複雑になりすぎることに気づいた。そこで、単独のアプリとしてUnionを作ることになった。

Unionは写真の合成やマスキングができるだけでなく、Pixiteのそのほかのアプリと組み合わせて使えるので、作業が自然に一つの流れになる。別々のアプリを立ち上げる、という感覚がない。

このアプリを使うときは、まず最初に、背景や色塗り、透明レイヤなどをロードして、そこに、上にのせるべき前景や色塗りなどをロードする。これらのロードの過程で、明るさ、コントラスト、色温度、飽和レベルなどを、スライダーを使って調整できる。

最後にマスクを加えて、前景のどこが背景を隠すのかを指定し、合成画像を作り上げる。

編集ツールがとても精密なので、画像の細かい変化を自由に指定できる。

ブラシもいろいろあるので、塗りつぶし、グラデーション、スクエアブラシなどなどを使い分ける。ブラシサイズを、ズームイン/アウトできる。PixiteのほかのアプリにないMagic Wand(魔法の杖)というユニークなツールは、色などの調整と結果のプレビューをリアルタイムでできるので、やり直しなどにそれほど時間を取られない。

こんな写真編集は誰もが頻繁にやりたくなるものではないと思うが、プロや写真マニアには喜ばれるはず、と同社は考えている。

でもプロでない人でも、Unionではこんな高度な写真編集が比較的簡単にできるから、いろいろ試してみると楽しいだろう。眠っていたあなたのクリエティビティが、目を覚ますかもしれない。

Unionで作った画像は、Instagram、Facebook、Twitter、それにメールで、すぐに共有できる。

これだけ高度な機能がありながら、UnionはiTunesでたったの1ドル99セントだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


OpenGL ES 3.1がGPUによるコンピューティングなどPC級のグラフィクスをモバイルに持ち込む

3Dlabs、ATI、Discreet、Evans & Sutherland、Intel、NVIDIA、SGI、Sun Microsystemsなどなどが集まってリッチメディアのための標準規格を作ろうという団体Khronos Groupが、今日(米国時間3/17)サンフランシスコで行われるGame Developer’s ConferenceでOpenGL ESの最新バージョンをリリースする。

OpenGL ESという一般にあまり見慣れない名前は、組み込みシステム(Embedded System)のためのOpenGL規格なので、この規格が指定するグラフィクス機能は今後のモバイルデバイスなどが実装し、もちろんアプリもそれを利用することになる。ただし今のところ、メジャーなモバイルプラットホームの中でWindows PhoneだけはOpenGL ESをサポートしていない。

モバイル向けに最適化されている、ということは、GPUがあまり強力でないことが前提になっているのだが、今日のリリースではそのギャップがかなり填められている。OpenGL ES作業部会の会長でARMのグラフィクス研究部長Tom Olsonは、“OpenGL ES 3.1はデスクトップ向けのOpenGL 4.4で人気の高い機能の多くをモバイルデバイスに適した形で提供している”、と発表声明の中で述べている。

今回の新しい規格ではたとえば、アプリケーションがGPUに、グラフィクスのレンダリングと密接に関連した一般的なコンピューティングタスクをやらせることができる。それは多くのデスクトップアプリケーションがすでにやっていることだが、これによりモバイルアプリの一層の高速化が期待される。

そのほかの改良点として、シェーダオブジェクトの分離、マルチサンプルとステンシルテクスチャ、シェーディング言語の改良、サンプルごとのシェーディング、新しいブレンディングモードなどなどの拡張がある。詳細は、ここに。

Khronos Groupの理事長でNVIDIAのモバイルエコシステム担当VP Neil Trevettは、今日の発表声明の中で、“OpenGLのAPI集合を構成するOpenGL ESとOpenGLおよびWebGLは、モバイルデバイスとPCとWebにおける3Dグラフィクスの共通的基盤と認められるに至っている。本日のOpenGL ESのリリースは、グラフィクスの世界におけるまた新たなマイルストーンであり、ユーザにより高いレベルのリアリズムと対話性の体験を、広く普及しているメインストリームのデバイスにおいて可能とする”、と述べている。

今週後半にKhronos Groupは、このGame Developer’s Conferenceで、さらに新しい発表をいくつか行う予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


2000ドルもするゲーム用ラップトップRazer Bladeの2014年型出る, ディスプレイがすごい

Razerはこれまで、Bladeシリーズのラップトップをいくつか作ってきた。初期の機種には、17インチという大型画面で2800ドルというのもあった。2013年には14インチの薄型ラップトップを出したが、それもまたゲームのための強力な内臓を収めていて、すごかった。ペリフェラルもとくにキーボードとマウスがゲーマーの酷使に耐えるハイエンド機で、Razerのラップトップの人気を支えていた。

その2013年のBladeはレビューもおおむね好評だったが、スクリーンだけはネガティブだった。Appleのレティナディスプレイが、評価の基準を上げてしまっていた。

そこで、今年の新型Bladeだ。ご親切にもRazerは、評価機を本誌TechCrunchのオフィスに持参し、しかも、おまけとしてCEOまでついてきた。おかげで上のビデオでは、彼とのフィジカルなチャットを収録できた。これまでのBladeとの大きな違いは、画面が3200×1800画素であること。そしてタッチをサポートしている。昨年のBladeは1600×900画素で、人の脂っぽい手を受け付けなかった。

グラフィクスカードはNVIDIA GeForce GTX 870Mで、これは現時点で最強と言われる。新型Bladeの画面の描写力や反応は、なんというか、すごいの一言。電池寿命は約6時間だそうだ。

欠点と言えば…、昨年のより高くて2199ドルからだ。心臓または財布の弱い人向けではない。でもこんなコンピュータに需要が存在することを、これまでRazerは証明してきた

新型Bladeの予約は今日(米国時間3/12)から始まる。発売は来月だ。PC市場のボリュームゾーンは斜陽でも、周辺部には活気がある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Adobe、 Creative Cloudをメジャー・バージョンアップしてPhotoshopで3Dプリントをサポート―新たに30日無料試用できる

今日(米国時間1/16)、Adobeは定期購読ベースのCreative Cloudのメジャー・アップデートをリリースした。 さまざまな新機能が追加された中でも、目玉となるのはPhotoshopでの3Dプリントのサポートだ。

その他の主要なアップデートとしてはPhotoshopでは写真の歪みの補正、Illustratorではフリーハンドで直線や曲線が描きやすくなった新しいペンシル・ツールなどがある。また InDesignではEPUBのサポートが改良された。またフォントツールのTypekitではフォントがどんなデスクトップアプリからもアクセスできるようになると同時にPDFファイルや印刷用ファイルにフォントを含めることが可能になった。

このアップデートを機に、Adobeはすべての30日間試用の期限をリセットした。つまり2012年の5月のローンチ以降、この30日間無料試用に登録したユーザーは今後さらに30日の無料試用ができる。

今回のアップデートが極めて広範囲で大幅なものになったため、Adobeでは以前のバージョンを試用したユーザーにも再度、最新版を体験してもらいということのようだ。

Photoshopで3Dプリント

しかしなんといっても今回のアップデートで最大の注目はPhotoshopが3Dプリントをサポートするようになったことだろう。

ただし、Photoshopでは簡単な3Dモデルを作ることはできるが、このアプリケーションの本来の目的がそこにないことは明らかだ。この点についてはAdobe自身もはっきり認めており、モデリング自体はサードパーティのツールを利用し、そのデータをPhotoshopにインポートするようユーザーに勧めている。つまりユーザーは3Dモデルにテクスチャーを追加したり、Phontoshopお得意の細部の精細な仕上げを行うのにこのアプリを利用することになる。

Adobeによれば、新しいPhotoshopは3Dモデリングと3D出力の中間段階を処理するのに最適な環境を提供するという。PhotoshopはOBJ、STL、3DS、Collada、KMZなどほとんどあらゆる3Dフォーマットをインポートして3D出力することが可能だ。これには3Dプリント時に必要とされる枠組み、支柱などの付加も含まれる。また3D出力にあたって障害となるような点も事前に発見してくれるので、ユーザーは出力の失敗で時間と材料を無駄にせずにすむ。

またAdobeは3Dプリンタの大手、MakerBotと提携し、Photoshopから同社の3Dプリンタにネーティブで出力できるようになった。また3D出力サービスのShapewaysとも同様の提携をしている。Shaspewaysの場合はPhotoshopから色彩、素材などに応じた詳細な仕上げリプレビューができるだけでなく出力料金の概算も行われる。しかもこうした3Dプリント処理がほとんどワンクリックの容易さで実行されるという。

MakerBot以外にもAdobeは他の主要なデスクトップ3Dプリンタをサポートしており、またAdobeがまだサポートしていない場合でもユーザーが自身でデバイスプロファイルを作成することが可能だ。

Adobeには現在3Dモデリング・ツールはないが、今後Photoshopの機能ないし独自のアプリとして3Dモデリングが提供されるようになるかもしれない。

パースペクティブ・ワープ

3Dプリントに加えてPhotoshopには2013年5月にMAXカンファレンスでデモされたパーステペクティブ・ワープと呼ばれる新機能が加えられた。

この機能は今週Adobeのデザイン・エバンジェリストのTerry Whiteがプレスカンファレンスでデモをしたが、 異なるアングルで撮影された写真を合成するのに非常に有効だ。Photoshopには従来から多数のワープ・ツールが存在するが、どれもパーステペクティブを操作すると直線が曲線に歪んでしまうという問題があった。

Adobeではこの機能は主に既存の写真のレンズ歪みの補正や複数の写真の合成に使われるものと想定しているが、野心的なデザイナーはきっと何か斬新な利用法を考え出すことだろう。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


“インフォグラフィックを作る”から”いろんなビジュアルコンテンツを作って売る”に変わったVisuallyが$8.1Mを調達

インフォグラフィックが嫌いな人には凶報だ。インフォグラフィックのマーケットプレースだと思われているVisuallyがこのほど、シリーズAで810万ドルを調達した。

でも最初インフォグラフィックを作るツールを提供していた同社は、その後マーケットプレースに変わり、インフォグラフィックがほしい企業と、それを有料で作る人を結びつけるようになった。

それとともにVisuallyは、インフォグラフィック専門ではなくなり、今では“ヴィジュアルコンテンツの世界的マーケットプレース”を自称している。このサイトのおすすめページを見ると、圧倒的に多いのはインフォグラフィックだが、ほかに対話的グラフィクスビデオもある。協同ファウンダでCEOのStew Langille(前はMint.comのマーケティング部長)によると、今後はモバイルアプリも扱っていくそうだ。

“プラットホームを限定しないものを提供していきたい”、と彼は言うが、Visuallyが扱わないコンテンツもあるのだろうか? “うちが売るのは、ストーリー性のあるコンテンツだね。企業のロゴのデザインなんかは、ストーリー性がないから、やりたくないね”、だと。

Visuallyのマーケットプレースをこれまで利用した企業の中には、AOL(本誌TechCrunchのオーナー)、Red Bull、Twitter、NBC、P&Gなどがいる。一般のクリエイティブエージェンシーに比べると、納期は1/3、料金は半値以下だそうだ。だから、彼らとの商戦には勝つことが多い。クリエイティブエージェンシーもそれなりの存在価値はあるけど、企業のコンテンツやキャンペーンでは最近ますますVisuallyが利用されることが多くなっている、とLangilleは曰(のたま)う。

“エージェンシーの仕事は効率が悪いから、仕事がうちに来ることが多くなってるんだよ”、だそうである。

今回の投資ラウンドを仕切ったのはCrosslink Venturesで、Correlation Ventures、SoftTechVC、500 Startups、Giza Ventures、Quest Ventures、Kapor Capitalらも参加した。CrosslinkのEric Chinが、Visuallyの取締役会に入る。

810万ドルのうち、VCからの投資は610万ドル、残る200万は転換社債だ(昨年発表)。2011年にはシード資金200万ドルを獲得している。

今後は、コンテンツの種類を増やすとともに、カスタム化の充実、制作の自動化、制作後のコンテンツの流通のためのツールの充実を図りたい、とLangilleは言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Apple、iPhoneのカメラでフル解像度毎秒30枚の撮影ができるアプリのスタートアップ、SnappyLabsを買収

Appleはファウンダーがたった1人で運営しているカメラ・テクノロジーのスタートアップ、 SnappyLabsを買収したという情報が入った[アップデート:2014/ 1/5 太平洋時間9:15am:Appleはこの買収を確認した] 。

SnappyLabsのファウンダー、John Papandriopoulosはめるボルン大学から電気工学の博士号を得た技術者で、彼の発明したテクノロジーにより、SnappyCamはフル解像度でiPhoneのカメラで毎秒20コマから30コマの画像をフル解像度で撮影することができる。

私がSnappyLabsに何か異変があるのに気づいたのは「SnappyCamが突然App Storeから消えSnappyLabs‘のすべてのウェブサイトが停止した」という通報を受けたためだ。この情報源はその後「SnappyLabsはAppleに買収された」と報じてきた。情報源によれば、同社に関心を寄せていたのはAppleだけではなかったもようだ。買収の金額などの詳細はまだ分からないが、Appleに問い合わせ中だ。

[アップデート:2014/ 1/5 太平洋時間9:15am:AppleはSnappyLabsを買収したというこの記事の内容を確認した。Appleは声明で次のように付け加えている。「Appleは時折小規模なテクノロジー企業を買収してきた。 通例、われわれはこうした買収の目的や将来計画について説明しない」

SnappyLabsの価値はPapandriopoulosの撮影テクノロジーのブレークスルーにあるはずだ。このようにハードなテクノロジーを持つ非常にリーンなチーム(たった1人だ)を買収するのはAppleのこれまでの戦略に合致している。

PapandriopoulosはiPhoneのカメラで静止画の高速連写を可能にするSnappyCamをApp Storeで1ドルで販売してきた。私が7月に紹介記事を書いた後、Papandriopoulosは「SnappyCamは9カ国で有料アプリのトップにランクインした」と知らせてきた。この売上のおかでPapandriopoulosはベンチャーキャピタルに頼ることなく運営を続けることができたものと思われる。

Papandriopoulosは7月、私の取材に応えて「離散コサイン変換に関してインスピレーションが閃いた。それによってJPG画像フォーマットを事実上まったく新しいものに改良できた」と語った。現在は削除されているブログ記事でPapandriopoulosはこう説明している。

まずわれわれは高速な離散コサイン変換(DCT)のアルゴリズムを研究した。次いでARMのNEON SIMD コ・プロセッサのアーキテクチャに最適化された新しいアルゴリズムの開発に成功した。最終プロダクトは1万行の手動で最適化されたアセンブリー・コードと2万行の低レベルCコードとなった。ちなみにSnappyCamのアプリは5万行弱のObjective Cコードからなる。

JPEG圧縮は(上記の)DCTと ハフマン・ロスレス圧縮という2つの部分からなる。われわれは素晴らしく高速なDCTの実装に成功したが、するとハフマン圧縮がボトルネックとなった。のの部分については、われわれはARMプロセッサのアーキテクチャに最適化され、高度にチューンされたセンブリー言語のプログラムを書いた。

Papandriopoulosを会社ごとスカウトすることに成功したのでAppleはこのテクノロジーをiPhoneだけでなく、iPad、Mac、MacBookのカメラに自由に組み込むことができるようになった。カメラはスマートフォンにとってもっとも重要な機能の一つだから、フル解像度で高速バースト撮影モードが提供できることはライバルに対して大きな強みとなる。.

ちなみにPapandriopoulosは以前サンフランシスコで行われたあるパレードでiPhoneに扮装したことがある。Appleにとってまさに適材といえるだろう。

SnappyLabsについては私の紹介記事を参照

[原文へ]

(翻訳:滑川海彦 Facebook Google+