[筆者: Dario Gil](IBM ResearchのScience and Technology担当VP)
量子コンピューティングは、理論と実験の段階から、実用技術化とアプリケーションの段階へ移りつつある。
しかし量子コンピューティングの一般化に伴い、企業や政府にはそのポテンシャルを理解し、大学には量子コンピューティングと関連学科の教育を強化し、そして学生には将来性に富む新しい進路の存在を知るという、それぞれの責務が生じている。
量子コンピューティングの起源は、今や有名となった小さなカンファレンスにある。それは1981年にIBMとMITが共催した、コンピューティングの物理学に関するカンファレンスだった。
そのとき、ノーベル賞を受賞した物理学者Richard Feynmanが、量子理論に基づく新しい種類のコンピュータを発明してみろ、とコンピュータ科学者たちに挑戦状を送りつけた。そんなコンピュータがあれば、物質の実態をもっとよくシミュレートし、その振る舞いを予測できるようになるだろう、と。Feynmanによると、物質は電子や陽子のような素粒子で作られていて、それらを共通的に支配している量子法則が、その新しいコンピュータの動作も支配するのだ。
その後科学者たちは、Feynmanの二重のチャレンジに取り組んだ: 量子コンピュータの能力を理解することと、その作り方だ。最近Yorktown Heightsで行われたカンファレンスで何らかのコンセンサスが生まれたとすればそれは、量子コンピュータは今日のコンピュータとはまったく異なるもので、しかもそれは外見や素材だけでなく、そもそもできることが違う、ということだ。
量子コンピューティングの計算方式は、今日のコンピューティングと根本的に異なる。従来のコンピュータはビットを利用し、各ビットが1または0を表す。しかし量子ビット、キュービット(qubit)は、1と0の両方を同時に表せる。
したがって二つのキュービットは同時に、00, 01, 10そして11のステートでありうる。一つのビットが新たに加わるたびに、ありえるステートの総数は倍増する。キュービットを使うと計算を、従来のコンピュータよりも大幅に高速に実行できる。というよりも、従来のどんな大きさのどんな速さのコンピュータでも、50から100ぐらいのキュービットを使う量子コンピュータをエミュレートすることはできない。
近年では科学の進歩の頻度がとても速くなっているので、新しい種類のコンピュータの実現も現実的な急務になっている。研究者たちは、今や、ムーアの法則の限界にぶつかりそうになっているからだ。
昨年は学会誌などに量子コンピューティングに関する記事が8000以上登場したが、その多くは情報理論や物理学の分野からではなく、エンジニアリング(工学部)の教授たちからのものだった。それと同時に学会の意見は、もっとも将来性があると見なされるひとにぎりほどのアプローチへと、収束しつつある。
科学者たちは、量子コンピュータの能力を理解することと、その作り方を考えることに取り組んできた。
ここ何十年ものあいだ、いつになっても、本格的な量子コンピュータが作られるのは20年先、と言われていた。そうやって予測の地平線は、いつも遠ざかっていった。しかし今では、この分野のリーダーたちは、10年後には画期的な成功が実現すると見ている。
今学界と業界が集中しているのは、どんなコンピューティングタスクでもプログラミングでき実行できる汎用的な量子コンピュータの構築だ。
そのための大きなチャレンジは、高品質なキュービットを作り、それをスケーラブルなやり方でパッケージし、複雑な計算を完全なコントロールの下(もと)で実行することだ。とりわけ、熱や電磁波によるエラーを抑えなければならない。
テクノロジ企業やその研究者たちは、quantum annealingと呼ばれるアプローチに集中している。それは、それほど汎用的ではない量子コンピュータを作ることがねらいだ。これらのマシンは、ユースケースが極端に狭く限られている。しかし、汎用量子コンピュータのシミュレーションが量子的速度の強力な証拠を目下示しつつある中で、quantum annealing法が従来型のコンピュータよりも良い結果を作り出すかどうかについては、今のところ明らかではない。