D-WaveとNECがハイパフォーマンスコンピュータと量子システムのハイブリッドアプリを開発

D-Wave Systemsは米国時間12月10日、NECとのパートナーシップを発表した。NECのハイパフォーマンスコンピューター(HPC)とD-Waveの量子システムを組み合わせて「ハイブリッドアプリケーションとサービス」の開発を目的としている。

また、両社はNECがD-Waveへ1000万ドル(約10億900万円)を投資することも発表した。Crunchbaseのデータによると、D-Waveがこれまで獲得した資金調達総額は2億400万ドル(約222億)だ。

今週、1月1日付けで同社のCEOに就任すると発表されたD-Waveのプロダクト最高責任者でR&D担当執行副社長Alan Baratz(アラン・バラツ)氏によると、同社はすでに日本で多くのビジネスを行っており、今回の大きな契約によってその技術をさらに広めることができるという。声明中で彼は、「世界的にもパイオニアであるNECとのコラボレーションは、商用の量子アプリケーション研究における大きな節目だ」と述べている。

同社によると今回の契約は、量子ベンダーとNECほどの人員/業域規模の多国籍IT企業との協働、その最初期における例の1つだという。両社が最初に取り組むのは、NECのスーパーコンピューターやそのほかの伝統的システムと、D-Waveの量子技術を組み合わせたハイブリッドサービスの共同開発だ。古典的システムと量子システムを組み合わせることで、古典的システムだけだった場合よりも低いコストで高いパフォーマンスが得られるのではないかと期待されている。

また、両社はNECの顧客と共同で、このハイブリッド方式を活かせるアプリケーションを作る。さらにNECは、D-Waveが提供するクラウドサービスの公認再販業者になる。

1999年に世界で初めて量子ビットデバイスのデモをしたと主張するNECにとって、今回のパートナーシップは、商用の量子コンピューティングを前進させるための道を見つける努力のひとつだ。NEC Corporationの執行副社長でCTOの西原基夫氏は、「現在の最も複雑な問題の解決に取り組んでいるあらゆる業界の未来で、量子コンピューティングの開発は重要である。ハイブリッドアプリケーションと、量子システムへのアクセス増大により、真に商用利用できる量子ソリューションの実現が可能になるだろう」と述べている。

この度のパートナーシップ契約は、両社をそんな目標に向けて前進させるものになるだろう。

関連記事: D-Wave sticks with its approach to quantum computing(D-Waveは量子コンピューティングのアプローチを固持、未訳)

画像クレジット: D-Wave Systems

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

GoogleのBristleconeプロセッサーは同社を量子超越性へ一歩近づけた

今では大手テクノロジー企業のすべてが、コンピューティングの次の大きな飛躍的技術革新として、量子コンピューターに着目している。Googleでも、Microsoftでも、IntelやIBMでも、そしてさまざまなスタートアップや学術研究機関が、量子超越性(quantum supremacy, 量子スプレマシー)を自分が最初に実現しようとしのぎを削っている。量子超越性とは、これまでのコンピューターでは逆立ちしてもできなかった複雑なアルゴリズムの計算が、量子計算機だからこそできた、と言える瞬間のことだ。

Googleによると今日(米国時間3/5)は、同社の最新の量子プロセッサーが同社を未来の量子超越性へ向かう道程上に乗せた、と信じられるという。Bristleconeの目的は、Googleによれば、同社の研究者たちが、“同社の量子ビット(qubit, キュービット)技術のシステムエラーレートとスケーラビリティ、および量子計算によるシミュレーション最適化, そして機械学習などのアプリケーションを研究”していくための、テストベッドを提供することだ。

すべての量子コンピューターにとって大きな問題のひとつが、エラーレートだ。量子コンピューターはふつう、数ミリケルヴィンという超低温と、環境に対する遮蔽を必要とする。今日の量子ビットはまだ極端に不安定で、ノイズによるエラーを起こしやすいからだ。

そのために、現代の量子プロセッサーの量子ビットは単一のqubitではなく、複数のビットを組み合わせてエラーに対応する。目下のもうひとつの限界は、これらのシステムの多くが、自分の状態を100マイクロ秒未満しか維持できないことだ。

Googleが以前デモしたシステムは、読み出しで1%のエラーレートを示し、単一のqubitでは0.1%、2qubitのゲートでは0.6%だった。

Bristleconeチップは、1基が72 qubitsだ。業界の一般的な想定では、量子超越性を達成するためには49 qubitsが必要、と言われている。しかしGoogleは用心深く、量子コンピューティングをqubitだけで云々することはできない、と言っている。“Bristleconeのようなデバイスを低いシステムエラーで運用するためには、ソフトウェアと制御用電子回路とプロセッサー本体に関わるすべての技術の調和を要する”、とチームは今日書いている。“それを正しく達成するためには、細心のシステムエンジニアリングを何度も繰り返して実践する必要がある”。

Googleの今日の発表は、実用レベルの量子コンピューターの開発に取り組んでいるそのほかのチームにプレッシャーを与えるだろう。業界の現状でおもしろいのは、だれも彼もがそれぞれ違ったアプローチをしていることだ。

Microsoftは、そのチームがまだqubitを作り出していない、という意味でやや後れているが、しかしそのアプローチはGoogleなどとまったく異なり、qubitを作れるようになればすぐに49 qubitsのマシンを作れてしまうだろう。Microsoftはまた、量子コンピューティングのためのプログラミング言語も作っている。

IBMの研究所には今50-qubitのマシンがあり、デベロッパーたちはクラウド上のシミュレーションで量子コンピューターを動かしている

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoftが量子コンピューティング開発キットのプレビューをリリース

Microsoftは9月のIgniteカンファレンスで、量子コンピューティングへの進出の意思を明らかにした。そして今日同社はその歩みの一歩として、量子コンピューティング開発キットのプレビューをリリースした。

このキットには、Q#言語とそのコンパイラーやライブラリ、量子コンピューティングのローカルなシミュレーター、量子トレースシミュレーター、Visual Studioのエクステンションなど、デベロッパーが手始めに必要とするものがすべて含まれている。

これはプレビューなので、量子コンピューティングのプログラミングの過程がどんなものかを知りたいと思っているアーリーアダプターたちが主な対象だ。それは、従来のプログラミングとはまったく違う。簡単に言うと、従来のコンピューターでは、ビットはonかoffかのどちらかの状態でしか存在しないが、量子のプログラムではキュービット(qubit, 量子のビット)は同時に複数の状態で存在できる。そのため、これまでありえなかったようなプログラムも可能になる。

MicrosoftがIgniteで発表した量子コンピューティングのビジョンはもっと大きくて、9月に同社のKrysta Svoreが本誌の取材に対して語ったところによると、量子コンピューターをコントロールし、そのアプリケーションを書くための完全で総合的なソリューションを提供することが、最終的な目標だ。

そのとき彼女はこう語った: “量子コンピューティングに関する弊社の姿勢は、ハードウェアとソフトウェアの両方を同時並行的に研究開発していくことによる、お互いからのフィードバックの吸収をねらっている。この方法によって、高度に最適化されたソリューションが得られると期待している”。

Microsoftは明らかに、量子コンピューティングで実績を積んでいくことをねらっているが、それは同社だけではない。IBMは昨年からプログラマーたちに量子コンピューティングサービスを提供しており、先月は画期的な20qubitの量子コンピューターをリリースした。同社は50qubitのプロトタイプも発表している。

そのほか、GoogleやIntelをはじめ、さまざまな既存企業やスタートアップたちが量子コンピューティングの研究開発に取り組んでいる。

これはまだまだ初期的な技術であり、先は長いが、重要な技術であることは間違いないので、Microsoftなどは今のうちから、さまざまな提供物を通じてデベロッパーたちのマインドシェアを獲得したいのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMが量子コンピューティングを誰もが実験できるクラウドサービスとして提供

screen-shot-2016-05-03-at-1-40-55-pm

量子コンピューティングはまだきわめて初期の研究段階だが、IBMは量子コンピューターをクラウドサービスとして研究者たちに利用させることにより、関連分野の進歩を加速したいと望んでいる。大胆で意欲的な考えだがしかしそれは、量子コンピューティングによる計算処理を理解しようとする試行の、まだごく小さな一歩にすぎない。

関心のある人びとは、IBMがIBM Quantum Experienceと呼ぶ5キュービット(qubit)の量子コンピューターにアクセスできる。実際のハードウェアは、ニューヨーク州のIBM Research Lab(IBM研究所)にある。IBMは関心者たちに、プログラミングインタフェイスと、実験的なプログラムを実際に量子コンピューターの上で動かす機会を提供する。

重要な課題のひとつは、量子コンピューターが莫大な冷却システムを必要とすることだ。ハードウェアの外部の空間よりも低温でなければならない場合もある(冷房ではなく冷却が必要)。さらにまた、それらは多くの情報を維持するが、それらのどれもが、必ずしも静的ではない。それらの情報をすべて、意味ある分析ができるまでの間、可利用に維持することは、たいへんな仕事だ。こういった課題は、鉛筆の先端に卵を均衡状態で乗せることに似ており、それが落ちたら落ちた理由を究明しなければならない。IBM ResearchのExperimental Quantum Computing Group(実験的量子コンピューティンググループ)のマネージャーJerry Chowは、そう説明する。

IBMがこのプロジェクトのために作ったプログラミング言語は、まるで音楽の作曲用の言語のようだ(下図)。プログラマーは量子オブジェクトを“何かに”ドラッグすることによって、プログラムを書く。

IBM Quantum Computing programming dashboard

写真提供: IBM

 

Pund-IT, Inc.の主席アナリストCharles Kingによると、量子コンピューターと従来のコンピューターでは、本質的な違いが二つある。

Kingはこう説明する: “ひとつには、従来のコンピューターが二進数の原理に基づいて設計されている(そこでは半導体のゲートの開閉がon/offないし0/1を表す)のに対し、量子システムは“キュービット”を利用する。その状態は、onまたはoffまたはon-off両様であり、そのようなシステムは量子力学の現象を利用してデータに対するファンクションを実行する。その現象とは、重ね合わせや絡み合い(エンタングルメント)などだ。

IBMが作った量子チップは、5キュービットで動作する。Chowの予測では、今日の最速のスーパーコンピューターの能力を超えるためには、50から100キュービットぐらいで動くマシンが必要だ。それは遠い先の話だが、スタート地点としてはしかし現状で十分だ。

シリコンチップ上のデジタルコンピューターにはMoore’s Law(ムーアの法則)というものがあったが、量子コンピュータの進歩に関してはそんな単純な法則がない。IBMはまだシリコンを使っているが、もっと確実性のある利用のためには、超えなければならない大きなハードルが二つある。まず第一に、コンピューターを作ること。第二に、それをどうやってプログラミングするかだ。IDCで高性能コンピューティングを担当しているEarl Josephが、そう説明してくれた。

“今回の実験は多くの人びとに、量子コンピューターのプログラミングのやり方を学び始める機会を与える。それによって、この新しいタイプの技術を利用する道が、開けていくだろう”、とJosephは述べる。

彼によると、ほかでもこのような実験が行われている。“NASA Ames(NASAのエイムズ研究センター)とGoogleは今、とてもおもしろいことに取り組んでいる。大きなホームランは、もっと汎用的で大規模な量子コンピュータから生まれるだろう。それは進化に似た過程であり、ほぼ数年間隔で、徐々により多くのアプリケーションが稼働し始めるだろう”。

IBMが今回のツールを提供することによって、量子コンピューティングに関する関心と理解が広まり、個人の関心者たちや諸機関、研究者たちなどのコミュニティが作られ、彼らの協働の中で未来のコンピューターに関する知識が進んでいくことを、期待したい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

量子コンピューティングの転換点が訪れている…10年後の実用化を展望

quantum

[筆者: Dario Gil](IBM ResearchのScience and Technology担当VP)

量子コンピューティングは、理論と実験の段階から、実用技術化とアプリケーションの段階へ移りつつある。

しかし量子コンピューティングの一般化に伴い、企業や政府にはそのポテンシャルを理解し、大学には量子コンピューティングと関連学科の教育を強化し、そして学生には将来性に富む新しい進路の存在を知るという、それぞれの責務が生じている。

量子コンピューティングの起源は、今や有名となった小さなカンファレンスにある。それは1981年にIBMとMITが共催した、コンピューティングの物理学に関するカンファレンスだった。

そのとき、ノーベル賞を受賞した物理学者Richard Feynmanが、量子理論に基づく新しい種類のコンピュータを発明してみろ、とコンピュータ科学者たちに挑戦状を送りつけた。そんなコンピュータがあれば、物質の実態をもっとよくシミュレートし、その振る舞いを予測できるようになるだろう、と。Feynmanによると、物質は電子や陽子のような素粒子で作られていて、それらを共通的に支配している量子法則が、その新しいコンピュータの動作も支配するのだ。

その後科学者たちは、Feynmanの二重のチャレンジに取り組んだ: 量子コンピュータの能力を理解することと、その作り方だ。最近Yorktown Heightsで行われたカンファレンスで何らかのコンセンサスが生まれたとすればそれは、量子コンピュータは今日のコンピュータとはまったく異なるもので、しかもそれは外見や素材だけでなく、そもそもできることが違う、ということだ。

量子コンピューティングの計算方式は、今日のコンピューティングと根本的に異なる。従来のコンピュータはビットを利用し、各ビットが1または0を表す。しかし量子ビット、キュービット(qubit)は、1と0の両方を同時に表せる。

したがって二つのキュービットは同時に、00, 01, 10そして11のステートでありうる。一つのビットが新たに加わるたびに、ありえるステートの総数は倍増する。キュービットを使うと計算を、従来のコンピュータよりも大幅に高速に実行できる。というよりも、従来のどんな大きさのどんな速さのコンピュータでも、50から100ぐらいのキュービットを使う量子コンピュータをエミュレートすることはできない。

近年では科学の進歩の頻度がとても速くなっているので、新しい種類のコンピュータの実現も現実的な急務になっている。研究者たちは、今や、ムーアの法則の限界にぶつかりそうになっているからだ。

昨年は学会誌などに量子コンピューティングに関する記事が8000以上登場したが、その多くは情報理論や物理学の分野からではなく、エンジニアリング(工学部)の教授たちからのものだった。それと同時に学会の意見は、もっとも将来性があると見なされるひとにぎりほどのアプローチへと、収束しつつある。

科学者たちは、量子コンピュータの能力を理解することと、その作り方を考えることに取り組んできた。

ここ何十年ものあいだ、いつになっても、本格的な量子コンピュータが作られるのは20年先、と言われていた。そうやって予測の地平線は、いつも遠ざかっていった。しかし今では、この分野のリーダーたちは、10年後には画期的な成功が実現すると見ている。

今学界と業界が集中しているのは、どんなコンピューティングタスクでもプログラミングでき実行できる汎用的な量子コンピュータの構築だ。

そのための大きなチャレンジは、高品質なキュービットを作り、それをスケーラブルなやり方でパッケージし、複雑な計算を完全なコントロールの下(もと)で実行することだ。とりわけ、熱や電磁波によるエラーを抑えなければならない。

テクノロジ企業やその研究者たちは、quantum annealingと呼ばれるアプローチに集中している。それは、それほど汎用的ではない量子コンピュータを作ることがねらいだ。これらのマシンは、ユースケースが極端に狭く限られている。しかし、汎用量子コンピュータのシミュレーションが量子的速度の強力な証拠を目下示しつつある中で、quantum annealing法が従来型のコンピュータよりも良い結果を作り出すかどうかについては、今のところ明らかではない。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

量子計算機のD-Wave Systemsがさらに$29Mを調達、1000キュービット機をR&D中

量子コンピューティングのD-Wave Systemsが今日、昨年末に2900万カナダドルの資金を調達していたことを発表した。

その前には同社は、昨年夏に2840万ドルを調達し、その後11月には約220万ドルを調達している。投資家は、これまでの数社の投資家のほかに、“大手の機関投資家”、D-Waveはその名前を明かしていない。

新たな資金によりD-Waveはそのハードウェアとソフトウェアの開発努力をさらに強化できる。プロセッサとしては同社は現在、次世代タイプの1000キュービットのシステムを開発中で、それはその前の512キュービットの製品よりも、量子コンピューティングの威力をより明確に見せつけることができるだろう。

実際にプロセッサを売っていくためには、GoogleやNASAなどのクライアントがquantum annealingを利用するソフトウェアを作る必要がある。それは多くのソフトウェアエンジニアにとって未踏の領域だから、D-Waveは顧客と協力しながら、量子計算機を買うことのメリットを訴えていかなければならない。

一般市販品としての量子計算機を初めて作った、というタイトルはD-Waveのものだが、今では同社以外の企業もいくつか生まれている。昨年の夏は、Y Combinatorが支援するRigetti Computingが、同じく商用の量子計算プラットホームを作るために、250万ドルを調達した

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Google、カリフォルニア大サンタバーバラ校と協力して人工知能のための量子コンピュータ開発へ

今日(米国時間9/2)、Googleはカリフォルニア大学サンタバーバラ校(UCSB)のJohn Martinisの率いる研究チームがGoogleの量子コンピュータ研究プロジェクトに参加したと発表した。Martinisのグループは量子コンピューティングの分野でトップクラスであり、超電導電量子コンピューティングを2008年に世界でもっとも早く実現したグループの一つだ。

Googleは以前から量子コンピューティングの研究を行ってきた。たとえば、D-Waveのコンピュータを、それが本当に量子コンピューティングであるのかどうかさえ不明な段階で、世界でもっとも早く購入したユーザーの1つだ。2013年の量子コンピュータの研究開始以来、GoogleはNASAやUniversities Space Research Associationの量子人工知能ラボと協力している。

今回の発表はGoogleが独自のハードウェア開発に乗り出したことを示すものだ。「Googleの量子人工知能チームは独自のハードウェア開発グループを擁することになった。これにより 最近の理論の進歩とD-Waveの量子アニーリング・アーキテクチャーの利用に基づく知見を利用した新しいデザインの量子最適化と推論プロセッサーの実現を目指すことができるようになった」とエンジニアリング担当ディレクターのHartmut Nevenは今日のブログに書いている

MartinisのグループはGoogleのサンタバーバラ・オフィスに本拠を移すが、UCSBの学生、大学院生が引き続き協力する。またUCSBの製造、測定施設の利用も続けられる。

Martinisは「Googleに参加したことにより、量子コンピューティングを機械学習アプリケーションに適用するチャンスが得られることに興奮している」と語った。ディープラーニング・ニューラルネットワークのパイオニアであるGeoff Hintonが2013年にGoogleに参加したことをMartinisはおそらく念頭に置いているのだろう。自ら設立したスタートアップ、DNNresearchがGoogleに買収されたのを機にトロント大学からGoogleに移った。

Nevenは「Googleは自ら量子コンピュータ・ハードウェアの開発に乗り出すが、今後もD-WaveとNASAと協力し、D-WaveのVesuviusマシンを利用していく」と述べた。

[原文へ]

(翻訳:滑川海彦@Facebook <A


量子コンピューティングの初の一般商用化をねらうRigetti Computingが$2.5Mのシード資金を獲得

これまで研究室やSFの話題だった量子コンピューティングがついに、その可能性を追究する技術から、商用のハードウェアの上で実際に仕事をする技術へと脱皮する。

Y Combinatorの今のバッチの一員であるRigetti Computingは、量子コンピューティングを軸とするコミュニティの育成をリードする企業の一つになることを、志願している。創業者でCEOのChad RigettはIBMやイェール大学の上級研究員だった人で、同社は、シミュレーションによる(量子コンピューティング用プロセッサの)プロトタイピングを反復することにより、この分野に継続的な性能の向上をもたらそうとしている。

Rigettの説明によると、同社が今後数年間の挑戦課題としているいくつかの問題解決が達成されれば、量子コンピューティングの性能の事前予測とコスト削減が可能になる。それらの問題の多くはハードウェアの量子的側面とは無関係なので、各回の反復で新たな回路を作ることなく、シミュレーションソフトウェアAnsysを使って、変更部分の迅速なテストができる。

4月にRigettiは、同社のシミュレーションを使用するテストの成果を投資家たちから評価され、AME Cloud VenturesやMorado Ventures、Susa Ventures、Tim Draperなどから250万ドルのシード資金を獲得した。その資金で同社は、バークリーの小さなオフィスから、もっと仕事のしやすいコンピューティングラボに移り、この分野の優秀な研究者たちをスカウトしたいと考えている。Rigettiは曰く、チーム編成には細心の注意をもって臨み、この技術分野における上位1〜2%の最高のPhDたちをつかまえたい、と。実際に今探りを入れている研究所や企業などの名前を挙げられないのは、同社の今後の研究の内容や方向性を外部に悟られないためだ。

今後数年間の(シミュレーションによる)プロトタイピングにより、Rigetti Computingは量子コンピューティングのための信頼性の高い、スケーラブルな、そして他社に比べて低コストなプロセッサを作れるようになり、それにより商業的なビジネス展開を図る予定だ。量子コンピュータが従来のプロセッサよりも桁違いに速いと言われている分野は、新薬や新素材開発のための化学反応シミュレーションや、今よりもずっと高度な人工知能、それに暗号技術などだ。

今すでに量子プロセッサを使っていると称するマシンがあることはあるが、それらはまだ、従来型のコンピュータを舞い上がる砂塵の中に遠く置き去りにするほどの、目覚ましい高速性を実現していない。Rigettiによると、二つの理由により、それももうすぐ変わるだろう、という。ひとつは、小型中型の量子コンピュータのための新しいアプリケーションの開発が急速に進んでいること。もうひとつは、量子マシンの計算力とシステムのサイズが飛躍的に成長していることだ。

Rigetti Computingの将来性は、同社がこの二つの波にうまく乗れるか否かにかかっている。量子コンピュータのためのソフトウェアの構築は、アプリケーションをPCからスマートフォンに移植するためにAPIに変更を加えるといった、簡単な話ではない。まず、自分が開発した最良最速と自負するハードウェアを、見込み客たちの胸元に押し付けることから、仕事が始まる。ユーザの手中にハードが実際にある、という状態の実現が早ければ早いほど、量子コンピューティングの違いを見せつけるソフトウェアの開発動機を、多くのソフトウェアデベロッパが持てるようになる。ハードの普及とソフトウェアの開発という両輪が順調に回転するようになれば、その後の成長にはほとんど限界がない。量子コンピュータは(理論的には)、1+1=2倍ではなく、1+1=2乗倍と言われる、文字通り指数関数的なスケーラビリティの世界だから。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


NSAは暗号解読のために量子コンピューターを開発しようとしている(ワシントンポスト報道)

国家安全保障局(NSA)は、ほぼあらゆる種類の暗号を破ることのできる未来的コンピューターを作りたがっている。Washington Postがエドワード・スノーデンから入手した文書による。しかし、まだ心配にはおよばない。なぜなら同局は、その最強セキュリティを破るのに必要な宇宙時代テクノロジーを実現する方法に近づいてすらいないから。

漏洩文書によると、そのコンピュータープロジェクトは、7970万ドルの研究プログラム「困難な標的に侵入せよ」の一部で、メリーランド州カレッジパークのある研究所が機密契約の下で開発していると推測されている。

暗号は、少なくとも古代ギリシャ時代からある、情報を無作為の文字列による雑音で混乱させる方法だ。秘密の指示書を持つもののみ、何が雑音で何がメッセージかを見分けられる。雑音、すなわちビットが増えるほど、試行錯誤でコードを解読することが困難になる。1024ビット暗号の解読には何年も(あるいはそれ以上)かかることがある。

量子力学は、物質が複数の状態で存在しうる、という少々直感的でない概念を利用している。量子コンピューターは、ビットが1および0である、あるいは複数の1および複数の0であるような問題を計算することができ、計算速度を指数的に増大させる可能性を持っている。

つまり、NSAは最先端の暗号をはるかに速く解読できるコンピューターを作るかもしれない。

一般論として、たとえ一組織であれ暗号を破る能力を持つことは、 ウェブ全体のセキュリティーを脅威に曝す恐れがある。しかし、量子コンピューター技術の進歩は、科学や医学にとっても利益がある。現時点では、利益も害も理論的なものでしかない。

ともあれ、Washington Postによると、このようなコンピューターは極めて脆弱であり、 NSAは基本的組立てブロックのいくつかに近づいただけだという。「それは大きな一歩だが、大規模量子コンピューターを作る上ではほんの小さな一歩だ」とMITの機械工学士、Llyod Sethは説明した。

これは、NSAが一方で、セキュリティー専門家たちに圧力と金をかけて侵入経路を作らせ、利用しようとしている理由だ。

Washington Postの記事全文はここで読める。

[画像提供:Flickr User elsamuko]

原文へ
 
(翻訳:Nob Takahashi)


量子計算機をNASA/Googleに売ったD-WaveのCEO Vern Brownellインタビュー

量子計算(quantum computing)のD-Waveにとって、今年はビッグな年だった。5月に同社は、NASAとGoogleが同社のD-Wave Twoコンピュータを共同購入して‘Quantum Artificial Intelligence Lab’(量子人工知能研究所)を作り、機械学習に関する最先端の研究を行う、と発表した。カナダのブリティッシュコロンビア州Barnabyの小さな企業であるD-Waveはこれまで、同社の量子計算技術に対して一部の科学者たちから批判も浴びてきたが、ここにきてNASAとGoogleが顧客になったことは、同社に大きな支持票が集まったことを意味する。

そこで、D-WaveのCEO Vern Brownellが先日サンフランシスコに来られたとき、本誌TechCrunchの本社にお招きして、D-Waveの概要と同社の過去から未来への軌跡について語っていただいた。日頃の本誌は量子力学や超伝道体などについて疎い方なので、通常のビデオインタビューよりも長くかかってしまった。でも、その17分はとても有意義な時間だった。そしてインタビューに応じていただいたBrownell氏は、とても心配りのできるお方だった(無知な私なんかに対して!)。

インタビューの最後に彼は、シリコンバレーのスタートアップ環境について語り、これからのファウンダやエンジニア、そしてとくに投資家たちは、もっと困難な問題に挑戦してほしい、と述べた。この部分が私はとくに好きだけど、それはだいたい16:10あたりだ:

“ちょっとがっかりしていることがあるとすれば、それは、世界の未来を大きく左右する本当に革新的な技術に、今の投資家たちがほとんど関心を示さないことだ。ゲーム企業やTwitter、Facebookなどの企業も立派だけど、人間の生き方を根本的に変えるものではない。でも、成果を生むために何年もかかるような革新的な研究やハードウェアの開発に取り組んでいるところは、投資も乏しいため、とても少ない。そのことが、とても不満だ。

でも、いつかは時計の振り子の振れる方向が変わって、技術開発よりも科学研究の方が重視される時代が来ると思う。ちょっとした思いつきではなく、新しい科学を技術に変えていくことの方が、ずっと重要なのだから。”

量子チップの動作原理や、D-Waveが浴びた批判、量子計算技術によるクラウドサービス、学問と技術の橋渡し、などなどの話題については、上のビデオをご覧いただこう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))