人体とテクノロジーの融合のこれまでとこれから

A man with a computer chip inside his head

【編集部注】執筆者のDaniel Waterhouseは、Balderton Capitalのジェネラル・パートナー。

”人間”と”機械”の距離が縮まりつつある。機械学習によって、仮想現実はより”リアル”に感じるようになり、これまで人間の脳でしか処理できないとされていたことも、AIがどんどん再現できるようになってきている。このような技術の力によって、テクノロジーはこれまでにないほど人間の体に近づいており、だんだんと奇妙な感じさえしてくる。

しかし、これからもっと奇妙なことが起きようとしている。

まずはこんな問いからスタートしてみよう。VRモードのMinecraftで教会の屋上の端っこに立っているのと、ノルウェイの山の絶壁に立っているのではどちらの方が怖いだろうか?私は両方を体験したが、Minecraftをプレイしているときの方が強いめまいを感じたのを覚えている。

私たちの脳は、進化を通して私たちが住む世界を理解し、種の保存を念頭に置いて数々の判断を下せるようになった。この仕組みのおかげで高さを恐れる感覚が養われていき、「高い場所の端には寄るな、落ちて死ぬかもしれないぞ」と感じられるようになったのだ。

実際のところ私たちが見ているものは、目を通して得た情報を脳が処理したものだ。つまり、私たちが見ているものは現実ではなく、私たちが進化の中で有用と考えるようになった現実の一部を脳が読み取ったものなのだ。そのため、私たちがどのように”見るプロセス”を”見ているもの”に変換していくのかが分かれば、VRが作り出す幻想を現実よりもリアルに感じられるようになる。その例が先ほどのMincraftとノルウェイの山の話だ。

VR内で教会の屋根の上に立つことが生死に関わるリスクだと人間が認識しないようになるには、かなりの時間がかかると予想されている。むしろ今後数年の間に、脳が特定のパターンで物事を認識するように仕向けるテクノロジーが発展していくだろう。

同時に、私たちの脳に関する理解も日を追うごとに深まっている。神経の可塑性に関する最近の研究の結果、脳の一部が損傷しても、トレーニングを通じて他の部分がその機能をカバーできることが分かっている。今後さらに脳の詳細が明らかになれば、そのうち人工的な刺激の処理方法をプログラムで調整し、今日のVRよりもリアルな体験ができるようになるかもしれない。

さらに新たな種類のスマートイヤホンや音声ソフトの登場で、聴覚を欺く方法も明らかになってきた。OculusはOculus Rift用のイヤホンを最近発表し、没入感の提供に力を注いでいる一方、以前H__rと名付けられていたアプリは、音声フィルタリングの技術を使ってノイズを心地良い音に変える機能を備えている。

VRが作り出す幻想を現実よりもリアルに感じられるようになるかもしれない。

自分たちのことを”人工嗅覚の専門家集団”と呼ぶThe eNose Companyは、人間の鼻の機能を再現できるテクノロジーの開発に成功した。彼らの技術は、肺のテスト機器警察犬の代わりとしての応用が検討されている。

このようにさまざまなテクノロジーが発展していく様子を見ていると、仮想世界と現実の境界が分からなくなるほどのフルVR装置(ヘッドセット、イヤホン、グローブ、さらには嗅覚や味覚の代わりになるセンサーのセット)がそのうち誕生しても不思議ではない。

それどころか、記憶に関連したシナプスの結合を強化する脳内物質を発生させる方法がみつかれば、現実ではできない体験をVR上でできるようになる可能性もある。トランセンデンスの世界やマイノリティ・リポートのVRポッドも、そう遠い話ではないのかもしれない。

このような技術が発達した結果、テクノロジーが私たちの体と密接に絡み合うようになってきた。しかし、テクノロジーと人体の相互作用は、VRの中だけで力を発揮するわけではない。機械上で脳の作用を再現しようとしているAIの技術がここに混ざりあうことで、テクノロジーと人体の融合はさらに面白くなっていく。

技術者は何十年にも渡り、脳の仕組みを利用してとても複雑な問題を解くことができるアルゴリズムを構築しようと努力してきた。そして、コアアルゴリズムの進化やコードのスマート化、さらにはコンピューターの機能が向上したことで、最近ではこの分野でも大きなブレイクスルーが起きている。

脳全体を再現した汎用AIまでの道のりはまだまだ遠く、実現までにどのくらいの時間がかかるかや、実際に汎用AIを作ることができるかどうかさえも現時点では分かっていない。そもそも、脳を再現した機械を作る前に、私たちは自分たちの脳のことを完全に理解しなければならない。

画像認識や言語学習など、脳のさまざまな機能を研究することで、脳でどのような処理が行われているかや人間の学習プロセスについて解明することができる。脳は新しい概念について学ぶとき、似たような例をたくさん確認必要があるのか、または自力で新たな概念を学ぶことができるのだろうか?言い換えれば、脳のアルゴリズムは教師あり(Supervised)なのか、それとも教師なし(Unsupervised)なのだろうか?

本当の意味で教師なし学習を行えるAIの開発にあたって、今後何年間も関係者が頭を悩ませることになるだろう。そして、関係者の中にはこの新たな分野を受け入れはじめた(=数多くの企業買収を行っている)大手テック企業も含まれている。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。