量子コンピューターを理解するための 量子力学入門
第1回 量子コンピューターを巡る誤解-なぜ「計算が速い」と言えるのか?
誤解③:量子コンピューターはすでに実用化済み/間近である
実用化に必要な量子ビット数と「量子誤り訂正」
先に述べた、Googleが量子超越を実現した量子コンピューターは、53個の量子ビットで構成されていた。量子ビットが53個あれば、原理的には2の53乗個、つまり約1京(1兆の1万倍)個の数値を同時に入力できることになる。そう聞くと、すでに凄まじい計算速度が実現できそうで、実用化間近な気がするかもしれないが、実はそうではない。量子コンピューターを実用化するには、用途にもよるが100万〜1億個程度の量子ビットが必要だと言われている。現在実現している、もしくは数年以内に実現が計画されているのは、数十〜数百量子ビット程度の量子コンピューターなので、産業に役立つような計算はまだまだ困難なのだ。
なぜ実用化には、ここまで多くの量子ビットが必要なのだろうか? その大きな理由の1つは、計算のエラーを訂正する仕組みを量子コンピューターに組み込まない限り、意味のある計算結果を得ることができないからである。
コンピューターは機械的に計算を行うので、「人間のようなエラーは起こさない」というイメージをもっている人も多いかもしれない。しかし、たとえば、回路中の電流のある・なしで1と0を表す場合、回路には多かれ少なかれノイズが紛れ込む。その結果、コンピューターは0(電流なし)を誤って1(電流あり)と判断してしまうこともあるのだ。
そういったエラーを訂正する最も簡単なやり方は、0を000、1を111というように、複数のビットを使って表しておくという方法だ。たとえば、0を000と表しておけば、エラーが生じて真ん中のビットが1に変わり、010になったとしても、多数決で000が本来の値だと判断できる。3つのうち2つ以上に同時にエラーが起きることもあるので、完全にエラーをゼロにはできないが、同時に2つ以上のエラーが生じる確率は非常に低いので、エラーの発生確率を大幅に抑えることができるわけだ。このような仕組みを「誤り訂正」と呼ぶ。
量子コンピューターでも同じような仕組みが必要で、「量子誤り訂正」と呼ばれている。量子コンピューターの実用化にあたっては、1つの量子ビットに対して100〜1000個程度の量子ビットが必要だといわれている。現状の量子コンピューターは100量子ビット程度なので、実用化はまだまだ遠いと言わざるを得ないだろう。
観測せずにエラー検出・訂正する離れ業
しかも量子誤り訂正を行うこと自体、従来のコンピューターの誤り訂正よりもはるかに難しい。なぜなら、エラーを訂正しようと量子ビットの値を「
また、IBMは小規模な量子コンピューターをクラウド上で利用できるサービスを2017年から開始しており、他にも同様なサービスをMicrosoft、Google、Amazonなどが行っている。これらをもって「量子コンピューターは一部で実用化している」とみなしている人もいるかもしれないが、これらを「実用化」と呼ぶのは、少し無理があるだろう。これらの小規模な量子コンピューターでは、量子誤り訂正は実現できておらず、既存のコンピュターを超える速度で産業に役に立つような計算ができているわけではない。現状では、量子コンピューターを広く利用してもらうことで、「将来、量子コンピューターで何ができるのか」「量子誤り訂正ができない小規模な量子コンピューター(NISQ:Noisy Intermediate-Scale Quantum Computer)で何か役に立つ計算はできないか」を探っている段階だといえるだろう。