私たちとまだ若いAIとの関係を考える

robot-friend

【編集部注】著者のAndrew Heikkilaはアイダホ州ボイジーに住むハイテクを愛好するライターである。この投稿者による他の投稿:ロボットが私たちの仕事を奪うという事態を楽しもう【英語】人工知能と人種差別【英語】

「お前たち人間が、信じられないようなものを俺は見てきた。オリオン座の肩の近くで炎を上げる攻撃船。タンホイザーゲートの近くの暗闇で煌めくC-ビーム。それらは全て時とともに失われてしまう、の…中の…のように。死ぬときが来たようだ」— Roy Batty, ブレードランナー。

人工知能は半世紀以上もの間人類を魅了してきた、最初に公の場でコンピューター知能に関しての言及がなされた記録は、1947年にアラン・チューリングによってなされたロンドンでの講義中のものである。最近では、大衆は成長を続けるAIの力を伝える多くのニュースを目にするようになってきている、伝説の囲碁プレーヤーイ・セドルを打ち負かしたAlphaGoMicrosoftの人種差別主義AIボットのTay、あるいはその他沢山の機械学習分野での新しい開発など。かつてはサイエンスフィクションのためのプロットの道具だったAIが現実のものになりつつある — そして人類はそれとの関係を、意外に早く決めなければならなくなるだろう。

Human Longevityの共同創業者で副議長のPeter Diamandisは、LinkedInに投稿した「 次の性的革命はデジタル化される 」というタイトルの記事の中で、この関係に触れている。Diamandisは、日本人はセックスと関係性を放棄しつつあるという最近のレポートを示し、一部の男性は現実よりも仮想のガールフレンドを好むという傾向が強まっているという報告を引用している。

「これは始まりに過ぎません」と彼は言った。「バーチャルリアリティ(VR)が普及するに従って、主要なアプリケーションの1つは必然的にVRポルノになります。それははるかに強烈で、鮮やかで、中毒的なものになるでしょう — そしてAIがオンラインに登場すれば、AIを利用したアバターとロボットの関係がもっと増えて来ると思いますよ、映画『Her』や『Ex Machina』で描かれているキャラクターたちのように」。

私たちとAIの間に芽生え始めた関係

少し話を戻そう。Diamandisは本当に、人々はAIロボットとの関係を形作り始めるだろうと考えている、と言うのだろうか?実際の女性よりも仮想ガールフレンドを好む実例を見せられては、それを信じることはそれほど難しくはないが — 私たち「を」愛してくれるアバターの実現に、私たちはどれほど近付いているのだろうか?

これに答えるためには、まず私たちはAIとは実際何なのか、そしてAIがこの世界で表現するようになったものは何かを理解しなければならない。AIには2つの基本タイプが存在する:強いAIと、応用あるいは「弱い」 AIである(技術的には認知シミュレーション(CS)も別タイプのAIだが、ここでは最初の2つのものに焦点を当てることにする)。

強いAIは発展途上であるが、最終的な目標は普通の人間と区別できない知的能力を持つマシンを構築することだ。MITのAI研究所のJoseph Weizenbaumは、強いAIの究極の目的を以下のように説明した 「それは人間のモデルに沿ったマシンを構築することに他なりません、幼年期を過ごし、子供がするように言葉を学び、自分自身の感覚器を通して世界に触れて知識を蓄え、そして究極的には人間の思考領域をじっくりと考え抜くようなロボットです」。

人間の知能の幻影を測るのには、人間が行うような会話を人間とさせること以上に、優れた尺度はない

強いAIはまた、映画の中に登場するタイプのAIでもある — ターミネーターの中で創造者である人間に反乱を起こすスカイネットプログラムや、2001年宇宙の旅に出てくるHAL9000など。もし、このようなタイプの超人的知性が可能になり、オンラインに登場してきたときには、私たちはシンギュラリティを迎えることになると予測されている。このタイプのAIの完成には — もし可能だとしても — 何年もかかるし、たとえそこに辿り着くとしても数多くの争いを乗り越えてのことになるだろう。

一方、弱い/応用AIとは、あなたがニュース記事で読んでいるタイプのものだ。その上に「スマート」という形容詞を貼り付けたものは何でも、一般的にある種の弱いAIに依存している — それが「学習」したり自分自身のコードを書く方法を発見したりする人工的な知能の形式ならば。しかし、それは極めて少ないタスクに対する機能に限られている。

スマートカーを運転するプログラム、カスタマーサービスを通して私たちをガイドするチャットボット、さらには前述のAlphaGo、全てが弱いあるいは応用AIの例である。これらのシステムは、AIが認識した「マイクロワールド」の境界の中に棲んでいて、エキスパートシステム と考えることができるほど進化したものである。これらのシステムは、自身の提言を、より大きな文脈またはマイクロワールドの外へ、どのように当てはめればよいかの「常識」や理解を有してはいない。それらは本質的に、1つの分野に特化した非常に複雑な入力/出力システムなのである、この欠陥によって、人間知性からは容易に区別することが可能なのだ。

対話インターフェイスへの注力

人間のような入力/出力システムへと焦点を当てたことで、AIという意味での社会の注目が集まっているように見える。人間の知能の幻影を測るのには、人間が行うような会話を人間とさせること以上に、優れた尺度はない。これは私たち何かが知的であるか否かを判断する際に、チューリングテストにとても重点を置いているという事実から明らかだ。もしプログラムがひとりの人間と対話して、人間としてみなされたならば、やった:平均的なユーザーはそれを「AI」と呼ぶだろう。

もしそれがチューリングテストに合格しない場合、たとえ惜しかった場合でも、私たちはスクリーンの向こう側にいるものが偽物だと気付いてしまう。そして会話の真の性質が失われるのだ。しかしそれでも、たとえ私たちがAIに向かって話していることや、AIが会話を巧みにナビゲートすることができることに気付いていたとしても、私たちはしばしばその対話の人間らしさに驚き、疑いを棚上げにして、機械と話していることも忘れることができる。

残念ながら、それが機能するように設計されているマイクロワールドの中でさえ、AIは多く場合会話の検閲に合格できることはない。私たちがこれをほぼ毎日目にしているのがチャットボットの現れる場面だ。MicrosoftとFacebookが今年の初めにチャットボットの提供をアナウンスしたので、多くの企業が、そのテクノロジーは顧客エンゲージメントの向上に役立つと言い始めた — しかし昨年のTA CRM Market Indexでカスタマーサービスとサポートの上位にランキングされたSalesforceでさえ、チャットボットは必要である水準に達していないと指摘している。この非効率的なチャットボットの問題を解決する唯一の方法は、これらのシステムがより…そう、人間のように振る舞うようにすることだ。

私たちは、弱いAIをどれ位人間のようにするべきなのか?

さあ、ここがクライマックスだ。チャットボットとAIのインターフェイスの側面はどこにも向かっていない。例えばSiriやCortanaを見てみればよい。これらは技術的には仮想アシスタントを兼ねるものだ、そしてそれらは時間が経つにつれ高度なものになっていくだけなのだ。このままで、これらのそして他のチャットボットがチューリングテストをパスすることはない。仮になんとかパスできたとしても、それらの機械はまだ「インテリジェント」ではないとか、「知覚があるとは言えない」と言われてしまう可能性は高い。なぜなら彼らは、現在行われている会話についての真の理解は行っていないからだ。彼らは、「Eliza」とか「Parry」と名付けられた、初期のころのスタンフォード大によるコミュニケーションプログラムのように、会話をシミュレートするために事前にプログラムされ、パッケージ化された応答に依存している。哲学者のNed Blockに言わせれば、これらのシステムは「ジュークボックスよりも、インテリジェントになることはない」ということになる。

それにもかかわらず、ある時点で私たちは、弱いAIをどの程度人間らしくするつもりなのかと、自らに問いかけなければならない。弱いAIと強いAIの違いを理解することなく、どんなタイプの心理的効果を、人間と区別のつかないチャットボットの存在から得ることができるだろうか?

人間の感情の微妙なニュアンスを理解するAIには良い側面がある

オンラインメッセージングセラピーを提供する、TalkSpaceのライターであるJoseph Rauchが、彼の仕事における人間らしさの検証の必要性について語った。

「私たちはしばしば、見込み客の方々から、チャットしている相手がチャットボットではなく、人間のセラピストである保証が欲しいという声をいただきます」と彼は書いている 。「私たちの全てのセラピストは、肉と血とライセンスを所有する人間たちです。しかし私たちはお客さまの懸念も理解します。それがオンラインセラピーだろうが、ソーシャルメディアだろうが、そしてオンラインデートであろうが、誰もが接続されていて、信じている人間とのチャットに値するのです」。

彼はオンラインデートについても言及した、そこではすでに人々をだまして提携サイトに送り込んだり、男性:女性比率であたかも男性比率は少ないように見せかけるチャットボットがいることが知られている。しかし、これらのチャットボットがビジネスで使用されているとしたらどうだろうか?CRMの例題に戻ると、Legion AnalyticsというグループがKylieという名前のリード創出マーケティングボットを売り込んでいる。このボットはちょっとした会話を理解して、話題をそれ以前に出たもの(例えば子供向けサッカーゲーム)へ引き戻そうとする、そして見込みのある相手には気を引く素振りをしたりさえするのだ。

このようなボットが十分に高度になったとき、人びとは自分たちのことを自分たち以上に良く知っているように見える機械から、操られたり侵害されたりしているように感じるのだろうか?特にこれらのボットが、平均的な人間が可能なものよりも、高い製品売り上げを本当に達成できる場合は?それは明らかに長い道のりだが、会話に精通し、あなた(顧客)の完全な心理学的プロファイルを持つデータウェアハウスに接続されたチャットボットは、普通の人間にはまず活用が不可能な、説得力のある基準で合成された情報を使ったセールスを行うことができるだろう。

ボットに感情を教える

もちろん、弱いAIを真に擬人化するための方法は、それに感情を教えることだろう — あるいは少なくともエミュレートした感情を — それが、Fraser Keltonを共同創業者とするKokoが実現を主張していることだ。Fast Companyの記事では、Keltonはチャットボットに、より多くの人間の感覚を提供する必要があると語る:「私たちは、音声やメッセージングプラットフォームにサービスとしての共感を提供することを試みています」と彼は語る。「私たちは、それこそが、あなたがコンピュータと会話する世界における、重要なユーザー体験だと思っています」。この記事では、実質上どんなチャットボットにも接続できる、Kokoの提供する共感APIをライセンスすることを、ロボットへ心を挿入することになぞらえている。

人間の感情の微妙なニュアンスを理解するAIには良い側面がある。JAMAによる最近の研究によって明らかになったことは、Siriのようなスマートフォンアシスタントは、感情的な問題を訴えるユーザーに反応するときに特に貧弱な回答を返してしまうということだ。それどころかレイプ、性的暴行、性的虐待で助けを求めてもユーザーを嘲笑さえしたのだ。あるウェビナーでは、ノースイースタン大学 D’Amore-McKimビジネススクールの准教授Carl W. Nelsonはこの先20年のヘルスケアについて述べる中で、「ビッグデータは、あなたが気になる機密性や、事柄の面で問題を抱えていますが、それでも意思決定をガイドし、判断を下すために有効に利用することができます…」とも指摘している。そしてガイドする相手の人間の感情についての正しい知識なしに、自動医療診断システムはどれほど完全なものとなり得るのだろうか?

弱いAIでさえも感情の理解とエミュレートをする必要性がある一方で、私たちは人間の状態を認識しているふりをする、そしてユーザーに感情的な反応さえ(たとえそれが「パッケージ化」された反応だとしても)返すようなホムンクルス(小人)を作り出すリスクを冒しているのだろうか?こうしたボットに関する知識をほとんど持たないかあるいは全く持たない人たちは、それらを単なるボット以上のものとして扱い始めるのだろうか?

社会への影響

時間が経つにつれて、私たちの技術が私たちを仰天させ続けることは明らかだ。私たちがAIロボットの出る多くの映画やテレビをみるほど、私たちは疑いなく、これらをサイエンスフィクションの要素とは見なくなり、いつごろこれらが現実のものになるのだろうと考えるようになる。ブレードランナーのような映画は遥か昔にこの問題を扱っている一方で、Android Dickプロジェクトのような最近の進歩は、Westworldのような新しい番組と考え合わせると、私たちがおそらく、ほどなくAIの倫理を扱うことになることを認識させる。

倫理的な問題の中心は、これらのAIが実際そのような感情や権利や、何かを持っているかどうかという点にあるのではない — そうではなく、それを所有する私たち人間に対する影響が問題なのである。例えば、この実際の人間とは区別がつかない執事は、今もこれまでも人間であったことはなく、それ故に彼をゴミ箱に投げ捨てても良いのだということを、どうやって子供に説明するのだろうか?または、Westworldのように、彼らは実際には生きていないし、契約に同意することができるのだから、「殺し」たり「強姦」したりすることは許されるのだろうか?いつ生命のエミュレーションは、人間の生命のように重要になるのだろうか?

これらはすべて、私たちが時間をかけて扱う必要のある質問であり、それらには簡単な答は存在しない。最終的には私たちとAI関係を定義する必要があり、そして強いAIから弱いAIを分離する細い曖昧な線を見付けなければならない(もし強いAIが可能ならという話だが)。望むらくは、私たちが構築するこうしたヒューマノイドの作成の過程で、鏡を覗き込むように、私たち自身の人間性の感覚をより学び強化していきたい。乱暴にそれを捨て去ったり、の中のの様に洗い流してしまう代わりに。

[ 原文へ ]
(翻訳:Sako)