空間に落書きできるAR時代のSNSアプリ「Graffity」正式公開、総額3000万円の資金調達も

位置情報に写真・動画の投稿、SNSを組み合わせたアプリやサービスはいろいろリリースされているが、さらにAR(拡張現実)の要素が加わったアプリが登場した。11月3日に正式公開された「Graffity」は、スマホで空間に絵やテキストを落書きしたり、スタンプや写真を置いたりすることができ、置かれたオブジェクトと周りの風景を一緒に撮影して動画でシェアできる、AR動画のSNSアプリだ。

Graffityで撮影した動画はGraffity内のフォロワーと共有できるほか、TwitterやFacebookへの投稿も可能。また、動画をカメラロールに保存することもできるので、LINEやInstagramなど既存のSNSでも共有できる。

投稿するときに位置情報の共有をオンにすると、地図上に24時間、投稿をピン留めすることが可能。自分の周りで投稿された動画をチェックしたり、誰かが海外のどこかで投稿していればそれを見ることもできる。

Graffityを提供するGraffity代表取締役社長の森本俊亨氏は、ディープラーニング(深層学習)技術に詳しいエンジニアでもある。ABEJAPKSHA Technologyといった、AIを活用した事業を行う企業でのインターン経験、ドワンゴ人工知能研究所におけるディープラーニング関連の研究を経て、2017年8月にGraffityを設立した。

同社は、2017年初夏に公募されたTokyo VR Startups(TVS)のインキュベーションプログラム第3期に採択されている。“人工知能を利用してAR時代の第三の眼を提供する”という同社がAppleのARKitを利用し、ファーストプロダクトとしてリリースしたのが、ARアプリのGraffityだ。

森本氏は、アプリ正式公開に先立つプレローンチの段階で「女子中高生を中心に、数千人規模のユーザーにアクティブに使ってもらっている」という。現在開発を進めている新機能は、落書きを“その場所に保存”する機能。落書きが保存された場所に近づいてアプリをかざすと、別のユーザーもその場で落書きを見ることができる。「セカイカメラと似たような機能だが、アプローチが違っている。ディープラーニングを使った画像処理により、撮影場所を画像から認識することができる」と森本氏は新機能について説明する。新機能の追加は11月中旬の予定だそうだ。またGoogleのフレームワーク、ARCoreを使ったAndroid版の開発も来年予定しているという。

アプリの収益化については、森本氏はこう話している。「ひとつはInstagramのストーリーズと同様のインフィード広告の導入、それからタイアップ広告として(投稿のデコレーションに使える)3Dアニメーションを提供するというLINEスタンプに似たモデルの導入、また『どういった人がどの場所をよく見ているのか』というデータを収集することによって、AR広告も提供できると考えている」(森本氏)

Graffity社はアプリの正式公開と同時に、TVS親会社であるgumi代表取締役社長の國光宏尚氏、TVS、ほかエンジェル投資家を引受先とする、総額3000万円の第三者割当増資による資金調達も発表している。

VRデバイスでキャラクターを操作してライブ配信、カバーが3000万円の資金調達

VR/AR向けソーシャルサービスを開発するカバーは8月1日、みずほキャピタル、TLMおよび個人投資家数人を引き受け先とした総額約3000万円の資金調達を実施したことを明らかにした。

カバーは2016年6月設立のスタートアップ。代表取締役の谷郷元昭氏は、地域情報サイトの「30min.(サンゼロミニッツ)」の開発・運営を手がけた(現在はイードに譲渡)サンゼロミニッツの創業者でもある。カバーにはアエリア元取締役でエンジェル投資やスタートアップ支援を行う須田仁之氏、アジャイルメディア・ネットワーク元CTOの福田一行氏が参画している。同社はVR特化のインキュベーションプログラム「Tokyo VR Startups」の2期生に採択されている。

創業当初はVRデバイスを使って楽しめる卓球ゲームを開発していたカバーだが、今年に入ってピボット。3Dキャラクターを自由に操作し、インタラクティブな番組を配信できる、AR対応のバーチャル版ライブ配信サービスを9月にも提供する予定だという。サービスについては言葉で説明するよりも、まずはこの動画を見て頂いたほうが理解しやすいだろう(複数の動画が)。

この動画内で動いている女性の3Dキャラクターは、VRデバイス(テスト環境ではHTC Viveを使用していた)で操作しており、リアルタイムにその動きが表示されている(顔や手の向きだけでなく、ボタン操作で表情や指の動きを変えたり、マイクで認識した音をもとに、唇を動かしたりもできる)。3D空間上では写真や動画の再生をしたり、3Dペイント機能を使って立体的なお絵かきをしたりもできる。デモには音声が入っていないが、もちろん音声会話も可能だ。

以前に比べれば楽になったとは言え、モーションキャプチャーをし、そのデータを使ったリアルタイムなアニメーションを配信するには設備もコストもかかる。それをVRデバイスだけでまかっているというわけだ。同社はこのキャラクターによるライブ配信プラットフォームを開発。まずは自社やパートナー企業のキャラクターによる番組を制作・配信していくという。キャラクターを持たない企業に対しては、3Dモデルの制作も支援する。

サービスのイメージ

カバーではiOS11のARKitに対応したAR機能も準備中だ。ライブ配信時に、ARモードでキャラクターだけを自分がいる場所に呼び出して、表示することも可能になる。そのほか、ライブ配信とは別に「撮影モード」を用意しており、ARでキャラクターの動画・写真撮影もできる。

AR動画の撮影イメージ

8月中にもアルファ版のサービスとして、この配信環境で制作した番組をYouTubeやニコニコ生放送で配信する予定。そして9月をめどに視聴者向けのアプリを提供するとしている。アプリでは、ライブ配信にコメントしたり、ギフトを送ったりする機能や前述の撮影モードを搭載する。

「もともとはゲーム会社の出身。IPには一番労力を割いていたので、『キャラクターもの』の事業はやりたかった。VRとキャラクターの相性がいいのは分かっていたが、それが実際にできるのか? ニーズはあるのか? と考えていた。そんな中で最初は卓球ゲームを作ってみた」

「だが(VRゲームの)市場はまだ広がっていないし、モバイルのようなカジュアルな市場があるかと言えば、なかった。しっかりしたコンシューマーゲーム会社でないと作れない。このプロジェクトは今年の2月くらいから始めていたが、Tokyo VR Startupsのデモデーまでの1カ月で、ほぼ突貫で作っていった」(谷郷氏)

同社が狙うのは、アニメの市場だという。「(アニメに関する)ライブやVRのシアターもできている。3Dモデルさえあれば、アニメを作ることはできる。VRやARといった『空間』をディスプレイにできる場所に、キャラクターやコンテンツを提供していく」(谷郷氏)。ライブまでの実現したボーカロイドの「初音ミク」から、人気アイドルグループを手がける秋元康氏がアニメキャラクターによるアイドルユニットの「ナナンブンノニジュウニ」をプロデュースしたり、バーチャルYouTuberの「Kizuna AI」が70万人以上のファンを集めているような状況だ。バーチャルキャラクターによるファンビジネスの時代は眼前にまで来ているのかも知れない。

同社は今後プラットフォームや視聴、配信用のアプリケーションの開発に注力する。「まずは自前での番組も配信するし、権利者のコンテンツも載せていく。このプラットフォームはただの『美少女・イロモノ』には見られたくない。IPのマーケティングに使えるものにしていきたい」(谷郷氏)