すべての人間を写真から消してくれるアプリが登場

人間嫌いでありながら元気な都市に住んでいる僕には、毎日不平のタネが尽きない。建物などそこに恒久的にあるものを撮ろうとすると、必ず群衆が写り込んでくるのなんかとくに嫌だ。でも、撮った写真から人間を削除するBye Bye Cameraアプリを使えば、その悩みもやっと解消する!

それはDo Something Goodに出品されているアートのつもりのアプリだが、ときどきアートには実用性がある。この創作グループ、中でもとくにアーティストのdamjanskiは、例えば人間を排除するCAPTCHAや、Googleの2つの会話エージェントによる対話など、デジタルのいたずらをいろいろ作ってきた。

今回にアプリについてdamjanskiがArtnomeに語っているところによるとそれは、「人間が絶滅した後の時代のためのアプリであり、自撮りや個人といった虚栄をすべての写真から取り去る」のだそうだ。幸いにも、犬は消えない。

でもアプリは人間が意図的に動かすのだから、人間が必要では? 世界から人間がいなくなったら、どうなるの? などと考えこんでもいいけど、幸いにしてこのアプリにはすべての人間を消滅させる気はない。

Bye Bye Cameraは、研究者向けに一般公開されているAIツールYOLO(You Only Look Once)を使っている。とても効率のいいオブジェクトクラシファイア(物を分類するソフトウェア)で、写真の中の人間の輪郭を素早く見つけて、Adobe(アドビ)なら「状況を生かした塗りつぶし」(context-aware fill)とでも呼びそうな機能のツールで、人間がいたところを背景で塗りつぶす。塗りつぶしはやや雑だが、確実に人間は消える。

楽しいプロジェクトだが、どこからか文句が来るかもしれない。人間性に関する議論を惹起したり、「誰でも使えるAI」の危険性、なんて話題にまで発展する可能性もありそうだ。

Bye Bye CameraはiOSのアプリストアで3ドルでダウンロードできる

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ひとつの映画を1年かけて視るVery Slow Movie Playerってなんだか分からないがすごい

誰かが、Every Frame a Painting*〔直訳: どのコマも一枚の絵画だ〕を字義通りにとらえたのかもしれない: The Very Slow Movie Playerと呼ばれるこのデバイスは、映画を壁紙に換えて、1時間に1回ずつ映像を1秒間、前へ進める。家の中にとてもおもしろいオブジェクトがあることになり、よく知ってる映画ですら、新鮮に感じる。〔*: このチャネルは‘YouTube上の世界最高の映画学校’と言われる。〕

このアイデアは、デザイナーでエンジニアのBryan Boyerの脳に、われわれ全員がよく知っているあのときに生じた。家でじっと座って、遅いことの良さをうまく表現する方法を考えているときだ。

そのとき彼は、“映画を読書のスピードで消費することはできないだろうか?”、と考えた、ゆっくりと。“ものごとを極端に遅くしたら、それを正しく鑑賞する余裕ができる。…しかしその持続をもっと引き延ばすと、ものごととそれを視る者とコンテキストとの関係が変わり始める。映画を本来のスピードの1/3600のスピードで視たら、それはもはやとても遅い映画ではなくて、朦朧(もうろう)とした時計のようなものになる。でもVery Slow Movie Player(VSMP)で時間や時刻はは分からない。ただ、時間のにじみを背景にして自分自身を視るだけだ”。

Very Slow Movie Playerは、eペーパーのディスプレイをRaspberry Piのボードにくっつけたものだ。そこにムービーをロードすると、それを一度に一(ひと)コマずつ表示し、2分30秒経つと画面をアップデートする。〔==1時間で24コマ、すなわち映画1秒ぶんとなる。〕

通常の、毎秒24コマではなく、毎時間24コマを視ることになる。ふつうの映画の3600倍遅くて、1年に7千〜8千時間の絵が作り出されるだろう。〔2時間の映画なら7200秒、VSMPでは7200秒→7200時間=300日。〕

Boyerはプロジェクトを説明するポストで、こう言っている: “あまりにも遅いから、ふつうに映画を鑑賞することはできない。VSMPとにらめっこをしたら、あなたは毎回負けるだろう。それは、気づいたり、ちらっと見たり、調べることすらできるけど、ウォッチすることはできない”。

彼はそれを、Bill Violaの作品と比べている。その超スローモーションのポートレートも、最初から最後までウォッチすることはできない(よほど辛抱強い人でなければ)。そしてどちらも、映画(動画)と静止画像の中間に位置する冥界に存在する。

もちろん、画像そのものはもっと良くしてほしい。eペーパーの色深度は本質的に1ビット(黒/白)だ。だから映像の色や階調が表す微妙さはすべて、白か黒かのディザリングへと消えてしまう。

現状では場面のコントラストやゾーンは強調されるが、でも「裏窓」を映画として見たければいつでもできる。しかし、それを一つのプロセスとして、時間との関係として、現実世界と人生のコンテキストの中に存在するオブジェクトや画像として鑑賞したいなら、…そのためにVery Slow Movie Playerがある。

画像クレジット: Bryan Boyer

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、デジタルアート・ギャラリーにARを導入

Googleは、アートの世界をもっと間近で見て欲しいと思っている。

同社のアプリ、Arts & Cultureは長きにわたりGoogleでもっともクールなニッチアプリのひとつで、私はこれを再発見するたびに見過ごしていたことに罪悪感を感じることがしょっちゅうある。本日(米国時間12/3)同社は、オランダの巨匠ヨハネス・フェルメールの作品に焦点を当て、収集品を一箇所にまとめた 体験を新たに加えた

同社の多くの作品集と同じく、展示には深く掘り下げられた研究や、事実情報のリスト、専門家のインタビューや論説などが備えられている。この表現方法でいちばんの特徴は、ミニチュアの3Dアートギャラリーを実際に構築したことで、見学者はスマートフォンのAR機能を使って眼の前の物理的空間でギャラリーを見ることができる。

ユーザーはARCoreまたはARKitを使ってこの「ポケットギャラリー」の中を動き回り、高解像度で取り込まれた絵画を間近で見られるとともに、作品に関する情報も得られる。

しかしちょっと試してみた限りでは、正直なところこれはスマホのARを使う意味をあまり感じないもののひとつだ。フルレンダリングされたギャラリーがリビングの目の前に広がるしくみは興味深いが、ARは移動可能なフルレンダリング3D環境に使うか、あるいは没入的体験はVRにまかせてスマートフォンでは2D体験にとどめておくほうがよかったかもしれない。

とはいえ、これが興味深い実験であることに間違いはなく、Googleがデジタルアートの没入的体験をさまざまな方法で試しているのはすばらしいことだ。GoogleのArts & CultureアプリはiOSおよびAndroid版が提供されている。

[原文へ]

(翻訳:Nob Takahashi / facebook

膨大な量の所蔵品(展示不可能)を抱える美術館がスマホアプリですべてを見せる

美術のファンのための、楽しい仕掛けがある。サンフランシスコ現代美術館(San Francisco Museum of Modern Art, SFMOMA)(572-51)にテキストすると、同館が所蔵する作品で返事が来る。

送ったメッセージ中のキーワードを見て、その言葉にマッチする作品を送ってくる。色の名前、テーマ、ムード、それに絵文字でもよい。

このサービスはSFMOMAの所蔵品APIを使って、その35000点あまりの作品に付けられているデータを調べる。そして絵やアーチストや日付などの中にリクエストのキーワードに関連する何かを見つけたら、その作品を送り返す。候補作品からの選択はランダムに行われているから、同じリクエストを繰り返すと、毎回違う作品が来る。

昨年スタートしたときは10桁の番号だったが、その後、大量のトラフィックをさばきやすい5桁の番号に変えた。5桁になると、テキストサービス界のセレブを意味するステータスシンボルである。

その番号が572-51、今ちょっと試してみるとよい。“send me”に続けてキーワードを書く。すると美術作品が返ってくる。サービスは無料だが、テキスティングは、あなたとキャリアとの契約にもよるが、たぶん有料だろう。

同館によると、実際に館内に展示できるのは全所蔵品のわずか5%だ。でもこのSend meのサービスなら、展示されていないものも含め、全所蔵品が対象になる。今日の巨大化した美術館を訪れるための、賢い方法である。

でも最近ではこのサービスの人気が沸騰しているから、遅い。本誌TeckCrunchで試したかぎりでは、全員が、まあまあだったけどね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

機械学習に“本物の芸術らしさ”を教育訓練できるか?、二人の学部学生がそんなGANに挑戦

Generative Adversarial Net(GAN)の人気は今がピークなのか、よく分からないが、1年前に比べると、これをいじくっている人びとの数が相当増えている。そしてそれは、すごいことだ。ウィリアムズ大学の二人の学部学生が機械学習の初歩を独学し、そして今やほとんどメインストリームの技術であるGANに関する論文を50近く読んでから、ある教授と一緒に美術作品を生成するGANに取り組み、ほぼ1年で完成させた

コンピューターサイエンスの学生だったKenny JonesとDerrick Bonafiliaは今年の初めごろ、Martin ArjovskyのWasserstein GAN(WGAN)に出会った。ベーシックなGANの安定性を高めたWGANは、アートの様式(スタイル)の学習や新しいアートの生成により適していることが明らかになった。

GANの基本構成要素はジェネレーター(generator, 生成部)とディスクリミネーター(discriminator, 差別部)で、両者が敵対的に対話することによって動作する。ジェネレーターは人工的な画像を作り、それをディスクリミネーターに本物と思わせようとする。同時にディスクリミネーターは、偽の画像をできるだけ多く排除しようとする。

ジェネレーターとディスクリミネーターが対決

しかしGANは、不安定なことで悪名高く、まったく使いものにならないこともある。Wassersteinが改良したGANは、アートと分かるようなものを作り出す程度の安定性はある。そこでチームはWikiArtのデータベースからラベル付きの絵画10万点を取り出し、訓練用の素材として使った。

そのモデルの性能を最大化するためにチームは、ディスクリミネーターに新たな部位を加え、絵画のジャンルを予見できるようにした。またモデルが、生成される画像の“本物性”と“偽物性”にこだわりすぎるのを避けるため、予備訓練によりグローバル条件を加えた。これによりディスクリミネーターは、アートの様式の違いに関する理解を、維持できるようになった。

“難しいのは、成功の判定方法だ”、とJonesは語る。“そのための普遍的な測度はあまりない。それはアートに限った問題ではないが、芸術作品は通常の画像認識のように本物偽物の区別が明瞭でないから、判定がものすごく難しい”。

しかしとりあえずそのプロジェクトは成功し、JonesとBonafiliaは秋になったらソフトウェアエンジニアとしてFacebookに就職する予定だ。Bonafiliaの考えでは、もっと強力な計算機資源を使えたらプロジェクトの性能は大きくアップするだろう。Facebookには、強力なコンピューターがふんだんにあるはずだ。

  1. 0ceh4q72pq9mmiucc.png

  2. 0kgzb_heat-qv0skb.png

  3. 0itdky-dc2mclrun8.png

アートは今、機械学習で人気の高い素材だ。Jonesによるとその理由は、ビジュアルでしかも分かりやすいからだ。Facebookは昨年の秋に、モバイル上のリアルタイムのスタイル変換(style transfer)で関心を喚(よ)んだ〔例: 葛飾北斎のスタイルをふつうの写真に移送(transfer)する〕。JonesらGANGoghチームの作品と違ってStyle Transferは、新しいアートを作り出すのではなく、既存のストリームに(別のスタイルで)変更を加える。

スタイル変換は映画で使われている…女優のKristen Stewartは今年の1月に共著したペーパーで、彼女の短編映画Come Swimへの機械学習の応用を説明している。機械が生成した新しい作品が現代美術の美術館に展示されるのはまだ早いと思うが、今後本物のアーチストがモデルづくりに取り組んだそれらを、美術館はどう扱うか。その問題を歴史上初めて指摘した文献がこの記事だぞ、と自慢しておこう。

〔GAN関連日本語訳記事:(1)(2)(3)(4)。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのAutoDrawはAIを使って落書きをプロの絵に変えてくれる

絵は誰にでも描けるものではない。ちなみに私はまるでだめだ。しかしGoogleは、AutoDrawで新しい体験を提供する。機械学習アルゴリズムを利用して、あなたの落書きをプロの描いた絵のように変えて、まるで絵心のある人のように見せてくれる。

AutoDrawはスマートフォンでもデスクトップでも使えて、やり方は実にシンプルだ。自分なりに最高のピザや家や犬やバースデーケーキの絵を描くと、アルゴリズムがあなたは何を描こうとしていたのかを解釈する。そしてくねくねとした線をデータベースにある絵と比較して、一致しそうなものをバーチャルキャンバスにリスト表示する。気に入ったものがあったらクリックすればAutoDrawがあなたの素人作品をもう少しいいバージョンで置き換える。

なお、自分の絵をプロジェクトに寄贈したいアーティストはここで登録できる。

実はこのプロジェクトのテクノロジーはGoogleのQuickDrawという実験プロジェクトで使っていたものとと同じだ。ただしQuickDrawはどちからというとゲームに近く、決められた物体の絵を描いて20秒以内にAIシステムに認識してもらうのが目的だった。AutoDrawでは自由な実験が可能なので、ここで説明を読むよりも、AutoDraw.comへ行って試してみるのが一番だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

自動運転車を混乱させる“罠”を考えたパフォーマンスアーチストJames Bridle

自動運転車に何ができるか、については、本誌もこれまでさんざん書いてきたけど、ときには、できないことの方がおもしろいこともある。技術というものは、その能力とともに、限界を知ることもきわめて重要だ。というわけで今回は、このパフォーマンスアートから教訓をいただこう。

この“Autonomous trap 001”(自動運転の罠001号)は、とても分かりやすい。自動運転システムが最初に学ぶいちばん重要なことは、路上のマーキングの理解だ。これは車線の端だ、これはカープール専用車線だ、などなど。

アテネに住むイギリス人のJames Bridleが、コンテキスト(文脈、状況知)を欠く知識の限界を例示している。人工“知能”が氾濫する今の時代には、われわれはそんな不具な知識に、至るところでぶつかる。

 
スーパーで一山いくらで売ってるような人工知能は、路上のいちばん重要なルールは、車から遠い方の側にある点線〔上図で外側〕は絶対に横切ってはならない、だと知っている。しかしもちろん、その点線が近い側なら、横切ってもよい。

なお、この円はわざと塩で描かれている。塩の儀式的な意味は、“神聖な場所なのでそこから先へ行くな”、という意味だ。あるいは、精霊や悪霊を金縛りにするために、灰や塩をお供えした時代もある。人間をその場に金縛りにするために、塩と呪文を併用することもある。

この実験でも、点線という単純なシンボルが、ターゲットを金縛りにした。この‘知能’の作者に、救い出してもらうしかないね。それとも、祈祷師に頼んで点線の呪いを解いてもらうか。人間運転手が中にいるなら、モアベターだけど。

遠い未来には、自動化システムが世界を支配して、それらの内部情報や設計情報はとっくに失われているかもしれない(Horizon: Zero Dawnをプレイしてみよう)。そうすると、システムが、理解できないおかしな振る舞いをしても、われわれの愚かな子孫たちは原因も対策も分からないのだ。今回の実験の、自動運転車の“罠”も、そのひとつだろう。

自動運転車を急に停止させたり、片寄せさせたり、予期せぬ不具合が生じたりする、いろんな“罠”がありうるだろう。それらから、人間を守れるだろうか? 犯罪目的で人工知能騙しをやるなら、それはどんな犯行だろう? いずれにしても、奇怪な未来が待っているのだ。

とりあえず、BridleのVimeoやブログを今後もウォッチしよう。そのパフォーマンスはつねに、“進化途上”だから。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

子どもが描いたクレヨン画をドレスにプリントしてくれるPicture This Clothing

dresses

人間は、おかしな世界に住んでいる。クレヨンの鮮やかな色で描かれた絵も、端の折れた画用紙の上の二次元の世界では長生きできないが、今度やっと、それにふさわしい人生が与えられたのだ。グロテスクでかわいいぬいぐるみ人形を作るか、または、これからご紹介する新しいサービスでは、すばらしいドレスを作ってもらうのだ。

Picture This Clothingは、MartianCraftのJaimee Newberryが立ち上げたスタートアップだ。彼女は今朝それを、Twitterのツイートで発表している

もちろん、CafePressでシャツをオーダーすれば何でもプリントしてもらえる。でもはっきり言って、そんなのは全然おもしろくない。シャツよりドレスだよ! 膝から肩まで、全面プリントだよ! 背中にも、同じ絵がプリントされるんだ。

dress_paper

まず、サイズを指定する。それからテンプレートをダウンロードしてプリントする。そして絵を描く。絵が完成したらその写真をアップロードする。そうすると、二週間後にドレスが送られてくる。とくにこの、猫がスクーターに乗ってる絵はいいね(右図、写真の右上部にあるのがオリジナルの絵を描いたテンプレート)。ロックを鳴らして、猫と一緒に踊りたくなってきたよ。

人間(主にその絵を描いた子ども)だけでなく、BarbieやKenなど、お人形用のドレスも作ってくれる。ふつうの形のドレスなら、なんでもOKだ。ただしMattelなんかの関連企業ではないから、ご安心を。

ファウンダーのNewberryは、ドレスがうまくいったら、ほかの物にも広げる、と言っている。その子専用のプラスチックコップとか、ね。

彼女は曰く、“まだこれは概念実証の段階である。今は2〜12歳の女の子のドレスだけだけど、でもこれが好評なら、もっといろんなものに手を広げていきたい。今朝立ち上げたばかりだけど、反響はとっても良い!”。

あなたの子がドレスに関心がなければ、おもちゃに絵をプリントしてくれるBudsiesImaginablesもある。包装紙や旗、などなどをプリントしてくれるサイトもあるよね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

物体の動きを「スローモーション」にするSlow Dance、Kickstarterキャンペーンを展開中

feather-slow-dance

精密に制御されたストロボLEDライトと、細かく振動する動きを組みわせ、Slow Danceはリビングルームで「科学」を味わえるようにする。ハイテクと、身近な素材、そして人間の視覚的な特徴を組み合わせ、リアルタイムに「スローモーション」の動きを見ることのできるのだ。本プロダクトは現在Kickstarterキャンペーン中だ。

仕掛けとして用いているストロボスコープ(一瞬だけ点灯する光源を繰り返し発光させる仕組み)は、科学博物館やアートギャラリーなどでよく目にするものだ。見ていて面白く、個人的にはこれがより広く、家庭用に普及しないのを不思議に思っていた。それを変えようとするのがSlow Danceだ。

科学、アート、テクノロジーを組み合わせて、そして不思議な世界を実現している。美しく、見ていて飽きないプロダクトだ。

光と科学の組み合わせ

「人間の知覚の限界を超えたところで何が起こっているのか、というようなことに興味を持っていました」とMITで4つの学位を得た、Slow Dance開発者のひとりであるJeff Liebermanは言っている。Liebermanはこれまでにもストロボスコープとスプリングを組み合わせて異次元世界のような視覚効果を映しだしたSlink(2005)や空中に浮かんでついたり消えたりする不思議な電球を映すLightbulb(2007)などの映像作品をYouTubeに公開している。ディスカバリーチャンネルでも「タイムワープ 瞬間の世界」をホストしていたのをご記憶の方も多いだろう。番組ではハイスピード撮影の世界に見える不思議を紹介していた。

By exposing the coils causing the vibrations, Slow Dance gets a steampunk feel to it.

電磁石を利用して振動を与える。

プロダクトとしては、額縁の内側に素早く点滅するLEDを組み込んでいる。LEDは1秒に80回の点滅を行い、これは人間には知覚できないほどの速さだ。ライトが点滅していることに気づきもしないことだろう。

その光の中で高速に振動する物体を配置することにより、まるで物体がスローモーションで動いているように見えるのだ。

テレビ画面でなら見慣れたものだが、それを目の前で見ることができるというわけだ。これはかなり面白い。

これは、映画がまるでふつうに動いているかのように見えるのと同じ原理だ。映画はフレームを高速に流していくことで、動きが連続しているかのように錯覚させるものだ。

Slow Danceでは額縁内で高速にLEDを点滅させ、そして物体を細かく振動させることにより、まるでスローモーションを見ているように、脳に錯覚させるのだ。

光と動きのマリアージュ

「友人のダンサー2人が結婚することになったときに、何かダンスに関わるようなものをプレゼントしたいと考えたのです。それから試行錯誤を繰り返し、そしてSlow Danceが生まれたのです」とLiebermanは言っている。最初は金属でできた物体を振動させていたが、2人を表現するのに、もう少しオーガニックなものの方が良いと考えなおしたのだそうだ。「研究室の行き来のときにもいろいろと考え続けました。そして身近にある自然をスローモーションで眺める魅力を発見したのです」。

スローモーション風に動かす物体は、Slow Danceに装着されたゴムバンドで固定するようになっている。つまり、額縁サイズに収まるなら、使う物体はひとつでなくても良いのだ。もちろん振動するものであることが必要で、たとえば羽や植物などが使いやすい。

Ooh. Purdy.

Slow Danceは開始されたばかりのKickstarterプロジェクトだが、既にゴールの7万ドルは突破している。技術的にはシンプルなものだが、精度を必要とするプロダクトだといえるだろう。Liebermanは量産化も問題なく行えるとしている。実はLiebermanは以前にもKickstarterキャンペーンを立ち上げていて、その際も目標額を達成して、無事プロダクトの出荷を行なっている。今回はMakey Makeyの出荷を担当したEtonnetとも協力して迅速な対応を心がけているそうだ。

「これが初めてではないんです」とLievermanは述べる。「予定通りにことが進めば、1月には出荷できるようになると考えています。遅くとも3月にはお手元に届くでしょう。以前のKickstarterプロジェクトの経験から、起こりうるトラブルもある程度は織り込み済みです。前回の経験に学びつつ、新たに出てくるかもしれない問題にも迅速に対応していきたいと思っています」。

ちなみに、このプロジェクトで一番難しかったのは、プロダクトを組み立てることではなかったとのこと。ストロボスコープによる映像をビデオで見せるのが最も大変だったとのことだ。

「誰でもスローモーションの映像は見たことがあります」とLiebermanは笑いながら話してくれた。「ビデオ化すると、ひとびとはふつうのものをスローモーションで映しているだけだと考えてしまうでしょう。ビデオをスローにしているのではなく、目の前の物体がスローモーションに見えているのだと説明するやり方に、いろいろと試行錯誤しました」。

Slow DanceのKickstarterプロジェクトはこちらで行われている。早割価格はすべて終了してしまっているが、229ドルのものが若干残っている。配送地域は「Anywhere in the world」となっている。

原文へ

(翻訳:Maeda, H

GoogleのArts & Cultureアプリは、世界の美術館をスマートフォンに入れた

screen-shot-2016-07-20-at-12-33-00-pm

世界の美術品が少し体験しやすくなった。Googleが新たに公開した「Arts & Culture」の最新バージョンは、世界70ヵ国の1000を越える美術館の作品を手のひらに収めた。しかもこのアプリは、静止画とテキストをただ見せるだけではない ― 作品をキーワードで検索したり、色別に鑑賞したりできるほか、一人の芸術家の作品が時間と共に変わっていく様子を見ることもできる。Google Cardboardを使った360度のバーチャルツアーや、カメラを向けて絵画を識別する機能もある。

Arts & Cultureアプリは以前からiOSとAndroidの両方で提供されていたが、このリリースではGoogleのより高度なテクノロジーを組み合わせることによって、芸術の発見、鑑賞、理解をより没頭的な体験にしている。

Googleフォトと同じようにあらゆる物が検索できる。例えば「」や「金の入っているもの」などの検索ができると最新リリースの発表記事に書かれている。

さらにテクノロジーは現実世界で不可能なことさえ可能にする ― 例えば一人の芸術家の全作品を時間軸に沿ってスクロールしながら一望することができる。つまるところ、多くの芸術家の作品は世界中の美術館に分散して所蔵されているため、生涯の作品群を包括的に比較するのは困難なのだ。

この機能が動作しているところはGoogleのArts & Cultureサイトで見ることができる。これはゴッホの作品が陰鬱から鮮明へと変化する様子だ。個々の画家の作品を見る画面では、上端のバーにある様々な色をクリックすることで、色によるふるい分けができる。例えばこれはクロード・モネのグレイの使い方だ。

こうした機能はユーザーが芸術を発見、理解する手助けになるが、いっそう興味深い機能がバーチャルツアーだ。Googleはすでに、有名なランドマークや人造あるいは自然の神秘をバーチャルに訪れる方法を“Expeditions”プログラムで提供している。同プログラムは学校にバーチャル・フィールドトリップを提供することを目的に作られた。

新しいArts & Cultureアプリのツアーもそれと大きくは違わない。Google Cardboard等のバーチャルリアリティー・ビュアーを使って、例えばローマのストリートアート風景をツアーしたり、古代ギリシャのゼウス神殿で景色を見回したりできる。対象となるツアーには小さなGoogle Cardboardアイコンが付加される。

ストリートビュー風のツアーも用意されていて、Googleマップと同じように指先でタップするだけで展示や場所を行き来できる。

もう一つ実に賢い機能が “Art Recognizer” で、ロンドンのダルウィッチ・ピクチャー・ギャラリーやシドニーのニュー・サウス・ウェールズ美術館、ワシントンDCのナショナル・ギャラリー等、一部の美術館で利用できる。これはスマホを絵画に向けると、その作品に関する情報が表示されるしくみで、曲名を教えてくれるShazamの絵画バージョンとも言える。

アプリは実際に美術館を訪れる際にももちろん役立つ。美術館のページで開館時間や展示内容を調べることがてきる。

アプリはiOSおよびAndroidのアプリストアで今すぐダウンロードできる。

[原文へ]

(翻訳:Nob Takahashi / facebook

油絵の筆運びまでわかるGoogleのギガピクセル「Art Camera」、全世界のアート作品をウェブで公開

screen-shot-2016-05-17-at-10-38-27-am

Google Cultural Institute新しいプロジェクトをアナウンスした。ウェブからも、ブラシ運びを確認できるほどにアート作品のクローズアップを楽しめるようにすることを目的とするものだ。Googleは専用の「Art Camera」というものも開発した。ギガピクセル規模の撮影を素早く行えるようになっているようだ。

このカメラはロボットシステムにより操作され、撮影する絵画の上を走り回る(絵画に接しているわけではない)。そして数百ないし数千のハイレゾクローズアップ写真を撮影するのだ。ピントを正確にあわせるために、レーザーシステムとソナーシステムの双方を備えているのだそうだ。ソナーシステムとは高周波の音を使って絵画との距離を測って自らのポジションを決めるために用いるものだ。Googleは「コウモリのように」動作するのだと表現している

もちろん写真を撮るだけで作業終了となるわけではない。撮影したものを正しく配置する必要がある。複数の写真を組み合わせて一枚のイメージを組み立てるのも、ソフトウェアで自動的に行なっているとのこと。

こうして作成した写真はオンラインに公開でき、これにより、実際には作品に近寄る機会を得られないような人も、地球上のどこからでもクローズアップで作品を楽しめるようになるのだ。

絵画には、キャンバスに近づいていってみないことにはどうしてもわからない細かな情報が隠されている。たとえば、印象派の画家が絵の具を細かく塗り重ねる仕方や、遠く離れれば何が描かれている部分を、どのように表現しているのかも近づいてみないとわからない。あるいはごく近くに寄って確認することで隠されたサインを発見できることもあるかもしれない。

port of rotterdam

Googleは、Cultural Instituteが動き始めた最初の5年間で、200枚ほどの絵画をギガピクセルデータとして公開している。しかし、これまでは公開用の撮影を行うのに長い時間がかかっていた。機材も高価なものが必要だったし、撮影を行う技術者の費用もかさんでいた。しかしロボットシステムにより動作するカメラを開発したことにより、迅速な作業が可能になったのだそうだ。これまでは1枚の絵画をスキャンするのにまる一日を要していたとのこと。それが新システムをつかえばなんと30分で完了するのだそうだ。

そのおかげでGoogleは、これまでよりもはるかに多くの絵画をウェブ上に公開することができるようになったわけだ。実際のところ、新カメラを利用できるようになってからの数カ月で1000枚の画像を追加した。ちなみに、新開発のカメラシステムは、博物館などに無償で貸し出してもいるのだそうだ。より多くのアート作品がウェブ上から詳細にわたって楽しめるようになるし、また破損のおそれがあったり、光や湿度の調整が難しい作品の公開手段としても活用が期待されるところだ。

Googleは、ここまでの成果である1000件ほどをGoogle Cultural Instituteのサイトで公開している。公開されたのはピサロシニャックレンブラント, ゴッホモネなどの作品だ。それぞれオーストラリア、インド、オランダ、ブラジルなどの美術館に収められているものだ。

また、このカメラで撮影することにより、関連作品をまとめて鑑賞したりすることもできるようになる。たとえばゴッホのルーランファミリーの肖像シリーズを見てみたい場合、これまではオランダ、ロサンゼルス、そしてニューヨークの美術館を巡る必要があった。しかしArt Cameraを活用することにより「アルマン・ルーランの肖像」を、他のルーランファミリー作品と並べて閲覧することができるわけだ。

下に掲載したのは、Art Cameraが実際に動作する様子を示すイメージムービーだ。

原文へ

(翻訳:Maeda, H

IT技術で巨匠のスタイルを分析し、レンブラントの偽物を3Dプリントする

rembrandt_final

歴史上の偉大な画家のスタイルを真似するプログラムを作ろうとする試みは、高慢であり失敗する運命にあるが、その特質は、テクノロジーの最先端にいる男女にとってネコにとってのマタタビのようなものだ ― そしてそれにかける努力の成果は目覚ましく説得力がある。しかし、果たしてそれは芸術なのか?(イエス。間違いなく芸術だ)。

The Next Rembrandtと呼ばれるそのプロジェクトは、INGとMicrosoftがスポンサーとなり、オランダのデルフト工科大学といくつかの美術館が協力して行われた。

もし、この複雑にすぎるサイトから読み取ることかできれば、美術史家と画像分析の専門家なくしてはなしえない、非常にクールで学際的な仕事が見られるだろう。

rembrandt_features

レンブラント・ファン・レインの全作品から、色、服装、話題、年齢層、構成その他あらゆる有用なデータを分析した。研究者らは、殆どの白人男性が、黒いスーツ、白いシャツと口ひげという17世紀の出で立ちであることを発見した。データが多いほど良い結果が出ることが多く、この場合はよく見かける光景だったため似たような肖像を比較することが容易だった。

次に、人物と作品について個々の特徴を詳細に分析する ― 彼はどんな顔面形状を好んだのか? 見る人からの角度は?個々の線はどう描かれ、線の集合はどのように構成されているのか?

こうしたデータを元に、システムは新たな部品を作り、組み合わせて数世紀前の人々にとって心地よい顔や姿を完成させていく ― 残念ながら技術的な詳細は明らかにされていない。もっと詳しく知りたいところだが、まずはこのビデオで開発者の声を聞いてみよう。

作品は特殊な3Dプリンターを使って、その時代の絵画に合った質感やひび割れを再現しながら物理的平面上に呼び起こされる。。

この興味深いテクノロジーの芸術への応用についての計画は何も語られていないが、情報が入り次第お伝えする予定だ。

経験ある美術史家はこの量産品と本物のレンブラントを区別できるのか? それはほぼ間違いないが、重要なのはそこではない。これまで主観的な言葉でしか表せないと思われていたデータ(光の質や表現のニュアンスを定量化することは難しい)を整理してシステム化し、合成絵画を作成できるようになったことには十分な価値があり、一つできたからには比較的容易に何十種類もできるかもしれない。

もちろん、このシステムは複数人物の絵や風景、印象派、ラファエル前派や立体派のほぼあらゆる作品でつまづくだろう ― ダダやイエローイズムの議論はここでは置くことにする(とはいえ、畳み込みニューラルネットワークの幻覚的かつ深遠な夢は、コンピューターが世界を魅力する独自の表現を持つことを示唆している)。

いずれにせよ、このプロジェクトは、数年のうちに汎用美術模造マシンを開発するための強力な基盤となるだろう。その時は美意識に関する難問を突きつけられることを覚悟しておかれたい。

何ともすばらしい(そして少し高尚な)話ではないか? 18ヵ月の作業に関わった全員に心から拍手を送りたい。この仕事が、「本物」の作品を取り込み、保存するための技術も発展させたことを願っている。

[原文へ]

(翻訳:Nob Takahashi / facebook

時刻に関するツイートを”時計”にしてしまったAllTheMinutes

時計を見なくても、今が何時なのかを知る方法はたくさんある。

たとえばTwitterもそうだ。多くの人に同意してもらえると思うのだが、人々は時間についてツイートするのが大好きだ。それであれば、世界中の人々のツイートを使って、クラウドソース(?)な時計にしてしまえばどうだろう。

そういう考えに基づいて生まれたのがAllTheMinutesだ。テックとアートの融合を目指すMonikerが、ファン・アッベ美術館での展示のために製作したものだとのこと。現在の時間(世界で使えるようにシステムクロックの時間に基づいたものとしている)を含むツイートを数秒毎に読み込んで表示するのだ。

何時間か、表示されるツイートを見ていて気づいたことがある。

  • 昼頃になると、まだ寝ているんだという内容のツイートが増える。
  • 午後3時くらいになると、退屈や空腹を口にする人が多くなる。
  • 時間にかかわらず、ハイになっている/酔っ払っていることについてのツイートがたくさん流れてくる。

これは眺めていて面白く、普通の時計の代わりに机の上に置いておいても良いと思うくらいだ。少しの工夫で面白いものができるものだと、改めて感じいった次第。

原文へ

(翻訳:Maeda, H


日本発! デジタルアートワーク作品の活躍場所を広げるFRAMEDが世界を相手に勝負中

本稿で紹介するFRAMEDは、デジタルアートをコンピューター画面から開放し、その活用範囲を広げようということを目的とする。このプロダクトで用いる、ウォルナット材でフレーミングしたフルHDのIPSディスプレイはそれだけでも存在感を持つ。しかしこれを単なるモニターでなく、映し出すアート作品と、モーションセンサーないし音声センサーを通じて「触れ合う」ことができるようにもなっている。

プロダクトを展開しているのは日本のスタートアップであるFRMだ。Kickstarterでプロジェクトを立ち上げたFRAMEDは、目標額の7万5000ドルを軽く突破し、終了日である8月20日までにまだ相当の日数を残しつつ、調達額は26万ドルを超えている。出荷時期は2015年3月を予定している。調達した資金はFRAMED最終的な製品加工に用いることになっているようだ。

ところでFRMは2011年に中村勇吾氏William Lai氏により設立された。中村氏は日本の有名ウェブデザイナーで、ユニクロ、無印良品、およびソニーなどを手がけた経験をもつ。Lai氏は東京のレコードレーベルであるTempleATSのプロデューサー兼ファウンダーだ。

FRMは、今回のKickstarterキャンペーン以前の3年にわたってFRAMEDを開発してきている。またCreative Applicationsを通じてFRMの主催するオープンマーケットプレイスにて流通するアート作品を集めてきている。このマーケットプレイスでは現在32名のアーティストが活躍中だ。マーケットプレイスの運営は3年を数え、サブスクリプションモデルでアート作品の提供を行なっている。今回のFRAMEDでは、デジタルアートの提供範囲をさらに広げたいと狙っている。

「FRAMEDにて、デジタルアートの可能性を感じて欲しいと考えているのです。モーションおよびサウンドセンサーを搭載することで、アーティスト側にとっても、鑑賞者とインタラクトするための仕掛けをいろいろと手に入れることができるわけです。従来のアート作品と比べて、はるかに多くの可能性を実現できると思っているのです」とLai氏は述べている。

FRMのマーケットプレイスで活躍中のアーティスト(作品はFRAMEDに表示することもできる)にはサンフランシスコ在住でソーシャルメディアやトレンド情報のデータをヴィジュアライズする作品などを提供しているAaron Koblinや太極拳マスターで、太極拳の動きを木、水、あるいはコンクリートなどの素材で表現するTai Chiを作成しているUniversal Everythingなどが含まれている。

 

また、フィットネスデータを含めた閲覧者像を画面に表示する「mirror」というプロジェクトも進行中だ。

「さまざまなデータを集め、また各種モーションセンサーからのデータも利用して、さらに睡眠習慣などのデータをビジュアライズして、アート作品を見る人自身の『オーラ』を表現できればと思っているのです」とLai氏は述べている。

FRAMEDに映し出せるフォーマットはGIF、ビデオ、Flash、openFrameworksなど多岐に及ぶ。もちろん外部から入手するアートワーク以外に、自分で用意したデータも表示することができる。24インチのプロダクトが449ドルから、あるいは48インチのものが1500ドルからという価格設定になっている。

尚、デジタルアートに興味を持つ人はElectric Objectsもチェックしておいて損はないだろうと思う。こちらもデジタルアート向けのディスプレイのキャンペーンを展開中で、やはり既に希望調達額を超えている。名前をEO1といい、価格的にはFRAMEDを下回っている。但し、モーションおよびサウンドセンサーを利用することはできない。

FRAMEDについての詳細はKickstarterページをご覧頂きたい。

原文へ

(翻訳:Maeda, H


東京のアーチストが自分のヴァギナを3Dプリントして逮捕さる

Megumi Igarashiという名前の42歳のアーチストが、彼女のヴァギナの3Dモデルを送信したため、日本の刑法175条わいせつ物頒布の容疑で、東京で逮捕された。彼女は自分のWebサイトで購入した顧客に、ファイルをメールで送っていた。彼女は、ヴァギナの形をしたボートを作るために、資金を集めていた。

問題のファイルは、はっきり言って、女性の構造の、彼女のアートの多くがそうであるように、かなり様式化された表現である。Igarashiは自分のことを“ろくでなし子”、つまり“何の役にも立たない女の子”と呼び、自己の性と日本の文化における女性の構造(ヴァギナ)の役割を探求しようと決めたときから3Dプリントを始めた。日本の文化において男性の器官はタブーではないが(例(職場不適))、女性の性器はほとんどの場合隠される。

彼女はWebサイト上に書いている: “アーチストとして、私は自分自身のヴァギナを自分のアートのモチーフとしてのみ見ている。私の作品はヴァギナに対する差別や無知な扱いに対抗するものだ”。

彼女は、“警察がなぜ3Dデータをわいせつ物とみなすのか、理解できない”、とも言っている

彼女の資金募集の目標は、Manko-boatないしManboと呼ばれる物を作るためだ。Manko-boatを英語で言えば”pussy boat”、すなわちヴァギナの形をしたボートだ。彼女の天真爛漫人畜無害でチャーミングなピッチ(売り込み)を、下のビデオで見られる。

この逮捕が喚起する問題は言うまでもなく、自分をスキャンした3Dプリント物が、果たして、犯罪としてのわいせつ物に該当するのか、だ。道理をわきまえた人間なら誰しも、Igarashiの作品をポルノと見間違えることはないだろう。しかし明らかに、彼女が今日相手をした人たちは、道理をわきまえた人間ではなかった。結局のところ、彼女の体と彼女の2D/3D画像に対するコントロールは彼女だけのものであり、だから、アートは必ず世に出るはずだ、とぼくは予感する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


イラスト制作の様子を自動的にInstagram用ビデオにまとめるSketchVid

また、面白いiOSアプリケーションが登場してきた。名前をSketchVidというものだ。描いた落書きをInstagram用のアニメーションにすることができる。

手元の写真をなぞって絵にすることもできるし、もちろん普通に絵を描くこともできる。いずれにしてもスケッチの手順をすべて記録し、そしてその描画の様子を15秒間のビデオにまとめるのだ。

自分ではJotスタイラスを持ってはいるものの、絵を描くのは得意でない。しかしSketchVidにはトレース機能も用意されていて、Crispin Gloverの絵も、なんとか本人であると認識できる程度には描写することができたように思う。

上手に描くことができたなら、SketchVidから作品を共有することができるようになっている。YouTubeではイラスト作成の様子をうつしたものが人気ジャンルのひとつとなっているし、そうした流れにのってSketchVidを使ってInstagram上でマーケティングないし教育目的などの目的で作品を公開する人も増えてきているようだ。ターゲットとなる利用者の幅は広いだろうが、とくに子供などは自分の作品が動き出すのを見てとても喜ぶのではないだろうか。

SketchVidを製作したのはトロント在住のSaeed GhaferiとArfan Chaudhryだ。あるときSaeedがArfanにスケッチを送ったのだそうだ。

「Arfanは最初、本当にSaeed本人がが描いたのだとなかなか信じなかったのです」とのこと。「そのときにひらめいたのです。イラストを描く様子を記録して、それをビデオ化すれば面白いのではないだろうか、と」。

公開するプラットフォームとしてInstagramを利用することとした。「アート分野に携わる人にも、自分の写真やビデオ作品などを公開する場としてInstagramを利用している人が多かったからです」。

他にもイラストの様子を記録するアプリケーションがある中、公開場所をInstagramに特化することで、アプリケーションの特徴を出そうとも考えたのだろう。写真をトレースする際、写真は自動的に正方形に切り取られ、またイラスト作成手順がどれだけ複雑であろうとも、ちゃんと15秒に収まるように編集してくれる。

SketchVidはiOS版が提供されていて、基本機能は無料で利用することができる。またアプリケーション内販売の機能を使って、さらに便利な描画ツールを入手することもできる。今の段階でも相当に楽しいものになっていると思うが、アニメーションのクオリティを高めるために、すぐにもアップデートする予定にしているのだとのことだ。またAndroid版も現在作成中であるとのことだった。

GhaferiとChaudhryのお気に入り作品をいくつか掲載しておこう。

原文へ

(翻訳:Maeda, H


Twitter、ヨーロッパの博物館や美術館とのタイアップで「#MuseumWeek」イベントを開催

リアルタイムでニュースを感じ続けていたい人や、あるいはメディア業界にいる人々は、Twitterのことをなくてはならないものと考えている人が多い。但しTwitterはそこに留まることなく、さらに利用者層を広げたいと努力を続けている。さまざまな分野で「なくてはならないもの」として広め、そして誰もが利用するものとして定着させたい考えだ。そのような中、Twitterが今回着目するのは「アート」分野だ。3月24日から30日の1週間、Twitterはヨーロッパおよびイギリスにおける数百の美術館とタイアップして、スペシャルコンテンツを提供していく予定なのだそうだ。「Twitterを利用しているみなさんに、これまでに存在しなかった直接的な美術館体験を提供し、また美術館員の方々とのコミュニケーションの機会を提供いたします」とのことだ。

公式にタイアップする美術館は既に公表されているが、他にもいろいろな美術館の飛び入り参加を期待しているそうだ。「#MuseumWeek」のハッシュタグを使えばイベントに参加できる。参加を表明している美術館は次のような感じだ。サイエンス・ミュージアム(@sciencemuseum)、ロンドン自然史博物館(@NHM_London)、ヴィクトリア&アルバート博物館(@V_and_A)、大英博物館(@britishmuseum))およびテート・ギャラリー(@Tate)、それに小さなところではあるがRoald Dahl MuseumやPencil Museum(鉛筆のミュージアムだ)(@PencilMuseum) などとなっている。

今回のイベント以前にも、たとえばテート・ギャラリーでは昨年、ロイ・リキテンスタインのライブツアーを行った。ここでは「#TateTour」のハッシュタグを使って、キュレーターに質問したりもできた。このイベントの成果もあって、テート・ギャラリーはヨーロッパの中で最もフォローされるミュージアムとなり、また全世界でも3位となった(100万人以上のフォロワーがいる)。

テート・ギャラリーのDigital Communications部門ManagerのJesse Ringhamは「アート関連の話題を提供していくにつき、多くの人に注目して頂いていることを大変光栄に思っています」と述べている。「イギリス国内外の大小博物館ないし美術館が参加する新たなイベントに参加できることを、非常に楽しみにしています」とのこと。

Twitterでは同時期に美術館訪問者の話(#MuseumSelfies)、スタッフとのやり取り(#AskTheCurator)、あるいは美術館を巡るさまざまな話題(#MuseumMemories)なども盛り上げていきたい考えだ。

直近のアニュアルレポートによれば、2013年12月までの四半期におけるTwitterの月間アクティブユーザー(MAU)は2億4100万人であったとのこと。それまでの2期に比べて、MAUの伸びが低くなっている。Twitterは既存利用者層の活性化を狙うだけでなく、これまでにTwitterを利用していなかった層にもTwitterを利用してもらうために、いろいろな活動を行おうとしているわけだ。

スポーツイベントを楽しむために、Twitterを利用し始めたという人はかなりの数にのぼるようだ。Twitterとしては、今回のMuseumWeekにより、こうした「従来型行動との連携」による利用者ないし利用頻度の増加を狙っているのだ。イベントをきっかけに新たなムーブメントの誕生を期待しているわけだ。今回のイベントの仕掛け人でもあるMar Dixonは次のように言っている。「多くの博物館や文化事業団体などが、非常に有益で面白い情報をTwitter上で提供していることに注目してもらいたいのです。今回のイベントがそのきっかけになればとも思っています」。

Twitterはもともと文字情報のみを展開するメディアだった。最近ではビジュアル情報の充実を目指してさまざまな拡張を行っている。今回のMuseumWeekイベントもその一環として理解できるし、またそうした方向に成長していくことで、広告ビジネスモデルの確立を目指してもいるのだろう。

Image: Jan Steen, As the old sing, so twitter the young Wikimedia Commons.

原文へ

(翻訳:Maeda, H


Googleがデジタル美術振興のためDevArtプロジェクトを立ち上げ…創設記念作品を公募中

GoogleはDevArtと呼ばれるプロジェクトで、絵の具と絵筆とキャンバスに代わり、コンピューティングとネットワーキングと、そのためのコード(プログラム)を使って創作する美術の振興と、そのビジネス化に貢献しようとしている。

このプロジェクトの立ち上げを記念した展覧会がロンドンのThe Barbican舞台芸術センターで行われ、4人のアーチストの作品が展示される。そのうち3人はすでに決まっているが、あと一人はGoogleが今行っている公募で最終的に決まる。以下の三つのビデオは、すでに決まっている三名ないし三組を紹介している。

Zach Lieberman

Varvara Guljajeva and Mar Canet

Karsten Schmidt

Googleはこれらのアーチストたちに、GoogleのAPIやGoogleの既存の製品~サービスを利用した新しい対話的な作品を依頼した。その結果これらの作品には、Kinect、Unity、WebGl、Arduino、Raspberry Pi、Google+、Google Maps、Twitterなどが利用されている。Googleが選んだこれらのアーチストたちの経緯や現況等は、各アーチストのホームページで見られる。

自分にはプログラミングと美術の両方の才能があると日頃から感じておられる読者は、4つ目の作品に応募してみてはいかがだろうか。応募はGoogleのDevArtのWebサイトで行う。Googleによる審査の便宜のために、作品はGitHubにとりあえず置くこと。締切りは3月28日、当選発表は4月15日に行われる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Skryfは、道路に砂で詩を書くロボット。これぞ芸術の儚さ

Skryfは、オランダ人アーティストのGijs Van Bonが作ったロボットだ。数値制御工作機械(CNC)を改造した作ったこのロボットは、薄い砂の膜を撒いて文字や形を描く。Van Bonはこれを使って、現代詩を歩道にプリントする。ロボットが書くと、通行人の足が砂を遠くまき散らし、生まれるそばからアートが壊されてゆく。

昨年7月に撮影されたこのビデオは、アイントホーフェンて行われたオランダデザイン週間でSkryfが詩をプリントしているところだ。「一行書いている間に、別の一行が消えていく。人々がその上を歩いていくから」とVan BonがDezeenに書いている。「書き終わった後、私が来た道を戻っていくと、すべてが壊されている。それははかなく、ただこの瞬間だけのためのものであり、あとは人々と風にまかせるしかない」

ロボットは ― 実際には普通のラジコン4輪車にかなり感動的な砂撒装置がCNCのレールに載っている ― 命令を受けると時速約39メートルで書き始める。Van Bonは現地でヒントを得て、Skryfが描く詩を選ぶ。例えば、オランダデザイン週間では、アイントホーフェン市の詩人、Merel Morreだった。それは、社会におけるアート vs テクノロジーの価値を示す美しい例証であると共に、実によくできたプリンターとして、ペンキや石灰にも応用できそうだ。それはまた、人々に詩を思い起こさせる賢い方法でもある。

[原文へ]

(翻訳:Nob Takahashi / facebook


珈琲カップの中に子猫や肉球が浮かぶ 『にゃんこマシュマロ』

珈琲カップの中に浮かぶ、可愛らしい猫と肉球。
マシュマロ専門店やわはださんで取り扱っている『猫型マシュマロ』は、珈琲に浮かべるだけでキュートな見た目とラテの味が楽しめる逸品です。


めちゃくちゃ可愛いですね。
まるでお風呂ですね。猫が珈琲につかっているみたいに見えます。


実際のマシュマロはこちら。
猫の頭とお手手のみという構成です。猫はどんなでも可愛い。


この猫達は『ましゅ』と『まろ』です。
名前が付いています。525円です。


肉球マシュマロは、溶けるとこの様にラテになります。
浮かべてその愛らしさを鑑賞しつつ、溶けてきたらラテを飲むわけです。最高です。

他にもたくさんの種類がありますので、気になった方は是非お店の Web サイトを見てみて下さい。

Photos: にゃんこマシュマロ

珈琲カップの中に子猫や肉球が浮かぶ 『にゃんこマシュマロ』 is a post from: Room 402