ノイズを制する者が量子コンピューターを制する
─ 大阪大学大学院教授・藤井啓祐氏に聞く(2)

FEATUREおすすめ
聞き手 桐原 永叔
IT批評編集長

量子コンピューターの実用化には、量子ビットの「重ね合わせ状態」をいかにキープするかが課題となっている。それはどのような方法で解決できるのか、イノベーションの方向性について伺った。

2022年12月15日 オンラインにて

 

 

藤井 啓祐(ふじい けいすけ)

大阪大学大学院基礎工学研究科システム創成専攻教授。大阪大学量子情報・量子生命研究センター副センター長。

2011年3月京都大学大学院工学研究科博士課程修了。博士(工学)。理化学研究所量子コンピュータ研究センター量子計算理論研究チームチームリーダー、東京大学工学系研究科物理工学専攻客員教授、情報処理推進機構(IPA)未踏ターゲット事業プログラムマネージャー、量子技術の普及のための一般社団法人 Quantum Research Institute 理事を兼任。量子コンピュータのソフトウェアベンチャー、株式会社QunaSys、最高技術顧問。

専門分野は量子情報、量子コンピューティング。特に、量子誤り訂正、誤り耐性量子計算、測定型量子計算、量子計算複雑性、量子機械学習。著書に『驚異の量子コンピュータ:宇宙最強マシンへの挑戦』(岩波科学ライブラリー) など。

大阪大学基礎工学研究科 藤井研究室

https://quantphys.org/wp/qinfp/

株式会社QunaSys

https://qunasys.com/

 

 

目次

日本企業が先行していた超伝導回路による量子ビットの研究

量子コンピューターの進化を握るノイズの制御

誤り訂正機能付きの大規模な量子コンピューターを目指す

汎用的な計算を可能にするゲート方式

量子コンピューターの開発レースはスタートしていない

 

 

 

 

日本企業が先行していた超伝導回路による量子ビットの研究

 

桐原 エンジニアリングの進化で言うと、第3次産業革命ぐらいまでは富国強兵的に国が主導でイノベーション起こしてきた歴史があります。分かりやすく言うと、戦争のために純粋科学を工学化してきた部分があります。しかし、量子コンピューターに関して言えば、民間企業が主導している印象を受けるのですが──。

 

藤井 2014年まではジョン・マルティニスはカリフォルニア大学にいましたし、その前には国の研究機関に在籍していました。そういう意味では、アメリカでも2014年までは国や大学が主導していたという見方もできます。むしろ日本のほうが民間主導で研究を進めてきたと言えます。1999年、当時NECの研究所に所属していた蔡兆申(ツァイ・ツァオシェン)氏*と中村泰信氏*が世界で初めて超伝導回路による量子ビットを実現しました。あの当時の日本の企業の基礎研究力は半端なかったと思います。半導体で大きな利益を出していた時代は、アメリカから「基礎研究にただ乗りしている」と文句を言われました。基礎研究はアメリカがやって、それを“カイゼン”して安価につくることで日本製品が世界を席巻したわけです。「君たちもゼロからつくりなさい。基礎研究にただ乗りするな」と怒られて、各企業が研究所をつくってお金にならない基礎研究をスタートし、その結果、生まれたのが超伝導量子ビットです。それが1999年です。Googleが創業したのはその前年です。創業1年目のGoogleには、当然量子コンピューターなんてキーワードはなくて、検索エンジンに注力していました。そのGoogleが、ある意味で量子コンピューターに関する基礎研究にただ乗りして、2014年にエンジニアリング・フェーズに入ったトップのサイエンティストグループを丸ごと抱え込んで、ただ乗りして世界のトップに立っているという状況です。

*蔡 兆申(ツァイ・ツァオシェン 1952-)台湾出身の物理学者。現在、東京理科大学理学部教授、理化学研究所創発物性科学研究センター超伝導量子シミュレーション研究チーム・チームリーダー。

*中村泰信(なかむらやすのぶ 1968-)日本の物理学者。現在、東京大学先端科学技術研究センター教授、理化学研究所創発物性科学研究センター超伝導量子エレクトロニクス研究チーム・チームリーダー。

 

桐原 なるほど、おもしろいですね。因果応報というか。

 

藤井 そうそう。逆パターンになっているんです。

 

 

量子コンピューターの進化を握るノイズの制御

 

桐原 量子コンピューターの継続的なイノベーションを考えたときにポイントになるのは、取り扱うビット数が増えていくとか、スピードが上がっていくとかということですか。

 

藤井 スピードが上がるということは恐らくないと思います。というのも、量子コンピューターそのものの単位スピードは物理的な限界で決まっていますから。むしろ量子ビットの数と精度が進化のポイントになってきます。

 

桐原 量子ビットの精度とは具体的に何を指すのでしょうか。

 

藤井 エラーレートを下げていくということです。現在の量子コンピューターの基本素子である量子ビットはノイズに弱く、計算中にエラーが起きやすいのです。量子コンピューターは、現在、最高性能の量子ビットでも、数千回に1回程度はエラーを起こします。たとえば50量子ビットの量子コンピューターでエラー確率が0.1%で、合計1000ステップの計算をしたら、約63%の確率でどこかでエラーが起き、半分以上は正しい答えを得ることができません。

 

桐原 量子ビットはノイズに弱いということですが、ノイズとはどういうものとして想像したらいいのでしょうか。

 

藤井 ノイズによって「量子性を失う」というふうに考えていただいたらいいです。量子コンピューターは、量子ビットの重ね合わせ状態をうまくキープして計算しないといけないのですが、重ね合わせ状態は、少しでものぞき見たら壊れるんですね。「鶴の恩返し」みたいなもので、扉を閉めている状態のときには鶴か女の人か分からない重ね合わせ状態になっているのですが、扉を開けた瞬間に、鶴か女の人かどっちか決まってしまいます。

 

桐原 「収縮」ですね。

 

藤井 波動関数の収縮(collapse)ですね。つまり量子状態が壊れてしまう。のぞき見ると必ず壊れるのですね。見なければいいじゃないかと思うかもしれませんが、ノイズと呼んでいる周りにある不純物や電磁波とかが覗いてしまう。それがノイズです。だから扉を開けようと思っていないのに開いてしまって、その結果、鶴なのか女の人なのかどっちかに決まってしまうのです。

 

桐原 なるほど。意図してなかったのに、風が吹いてきて扉が開いてしまうようなものですね。

 

藤井 それで量子状態がぼこぼこ壊れてしまうわけです。量子状態の重ね合わせをフルに使っての計算が実現できていないのが今の量子コンピューターです。

 

 

誤り訂正機能付きの大規模な量子コンピューターを目指す

 

桐原 一方で、先生が研究されているNISQ(エラーのある小・中規模の量子コンピューター)*はノイズありですよね。なぜわざわざノイズありと表記されるのでしょうか。

*NISQ:Noisy Intermediate-Scale Quantum deviceの略で、数年〜十年以内に実現可能と考えられている、小~中規模(量子ビット数〜数百個程度)の量子コンピュータの総称

 

藤井 ノイズを取り除けないからです。ノイズがあることを妥協して使いましょうということです。

 

桐原 なるほど。そうすると、この量子誤り訂正はどういう原理があるのですか。

 

藤井 量子誤り訂正はノイズの問題を根本的に解決する方法で、量子性を守りながら、ある特殊な状態をつくると一部を覗き見られたとしても、全体の量子情報は壊れないようにプロテクトすることができるんです。それを「量子誤り訂正符号」と言います。たとえば10個の量子ビットをうまく量子もつれ状態にしてやると、その10個のうちの1つが覗かれたとしても、10個すべてで表している量子情報は壊れないようにうまくタッグを組ませることができて、量子情報をキープしながら計算することができます。個々の量子ビットにはノイズが発生するのだけど、10個でタッグを組んで表している量子情報はエラーから訂正されて正しい情報になっていくというのがエラー訂正の考え方ですね。

 

桐原 それが「冗長化」という言葉で表される状態ですか。

 

藤井 そうです。冗長化があればいくらでも量子状態をキープしつづけることができるので、非常に複雑な計算が可能になります。

 

桐原 このあたりの研究は、実用性の話でいうとどんな感じで進んでいるのでしょうか。

 

藤井 今年(2022年)は「エラー訂正元年」と呼んでもいいでしょう。1個の量子情報を50個の量子ビットを使ってエラー訂正をするというデモンストレーションの実験が世界中で始まっています。IBMさんは400量子ビットを超える量子コンピューターを実現したと言っていますけど、まだまだノイズレベルが高いので、大規模な計算を精度保証しながら計算をするような量子コンピューターは、まだ実現していません。それがだいたい10年とか20年ぐらいのタイムスケールで目指しましょうという方向性で研究されています。

 

桐原 日本ではいかがでしょうか。

 

藤井 内閣府のムーンショットプログラムは、2050年に誤り訂正機能付きの大規模な量子コンピューターを目指すという方向性でやっています。ただし、先頭を走っているのはGoogleです。エラー訂正に関して、とことん追究しているのがGoogleで、中国、ヨーロッパのグループが後を追っています。特に米中の競争は壮絶ですね。

 

 

汎用的な計算を可能にするゲート方式

 

桐原 量子コンピューターの実用化の考え方としてアニーリング方式*とゲート方式*があります。研究開発の方向性としてはどのような違いがあるのでしょうか。

*量子アニーリング方式:特化型量子コンピューターと呼ばれ、「イジングモデル」と呼ばれる数式を解くことで、消費エネルギーが最小となる組み合わせ最適化問題の近似解を算出する。

*量子ゲート方式:汎用型量子コンピューターと呼ばれ、従来のANDゲートやORゲートなどの論理ゲートの代わりに量子ゲートを配置し、初期化、ゲート操作、測定の3ステップで計算が行われる。利点として、高速化が保証されているアルゴリズムが複数あることや設計性が高いことが挙げられる。

 

藤井 まず、アニーリング方式とゲート方式は根本的に違うことをご理解いただきたいと思います。組み合わせ最適化問題を解くというテーマに限定するなかで、既存の安くて設計しやすい半導体技術を使ってアニーリングに特化したアーキテクチャーをつくるという方向性は賢いと思います。これは、既存のコンピューターと比較して、より安くより早くという方向性です。一方、ゲート型の量子コンピューターが目指しているのは、既存のコンピューターではとうてい解けないものを解きましょうという方向性です。それを達成するための量子コンピューターをつくるのはとてつもなく難しい、ものすごく挑戦的なことですが、実現すればそれだけにリターンも大きい。その両方を同じ土俵で比較すると非常にややこしくなると思います。

 

桐原 そうなんですね。これは日本では両方とも研究されているのでしょうか。

 

藤井 されていると思います。むしろアニーリング方式は日本がものすごく力を入れていると思います。海外ではあまりやっていないですね。

 

 

量子コンピューターの開発レースはスタートしていない

 

桐原 現在、藤井先生の研究室ではどんな研究をなさっているのですか。

 

藤井 第3次AIブームをブレークさせたのはディープラーニングですが、このアイデアは実は第2次AIブームで出てきています。たとえば「誤差逆伝播法」であったりとか、「深層畳み込みニューラルネット」、「ネオコグニトロン」というコンセプトは1980年代の第2次AIブームの際に日本から出ていました。第3次AIブームというのは環境が整って、その前に出ていたアルゴリズムが花開くという図式なのです。そういう意味で、僕らの研究室でやっていることは、量子の世界で環境が整ったときに花開いて使われるような枠組みやアルゴリズムを見つけようという研究です。量子の世界におけるディープラーニングみたいなブレークスルーを生むような根本的なアルゴリムの枠組みをつくっていくことです。

 

桐原 日本の民間での量子コンピューターの研究開発は活発なのですか。

 

藤井 最近、活発化しています。富士通さんとかはかなり本気で量子コンピューターをつくりはじめていて、優秀な人をたくさん集めています。NTTさんは以前から大学顔負けのアカデミックな研究をやっています。他にもNECさん、日立さん、富士通さん、ソニーさんとかもやっておられますし、かなり力を入れはじめていると思います。

 

桐原 日本の産業力の国際的なポジションを取り戻す意味で、この分野での可能性を先生はどうお感じですか。

 

藤井 海外が先行しているんじゃないかみたいな話になることも多いのですが、先は長いので、まだスタートしたばかりだと思います。よくF1にたとえるのですけど、まだオープニング・ラップぐらいで、スタートすらしていないと思います。たしかに予選で1位ではないかもしれませんが、F1って50周とか60周を回るので順位は変わりますよね。途中でタイヤがパンクしたり、いろんなこと起こるわけです。まだまだ先は長いので、今の状態でどうこう言っても仕方がないという感じはします。

(3)に続く