半導体から読み解く現代テクノロジー入門
第5回:ポストシリコン時代の到来──量子・光・スピントロニクスが描く未来

REPORTおすすめ
Author 伊藤 要介
IT批評編集部

ニューロモルフィック・コンピューティング

私たちの脳は、わずか20ワットほどの電力で1秒間に数千兆回の情報処理をこなす、最も効率的なコンピューターです。この“脳のような情報処理”を模倣しようという試みが、ニューロモルフィック・コンピューティング(neuromorphic computing)です。

ニューロモルフィックとは、「神経(ニューロン)を模した形(モルフィック)」という意味。トランジスタで構成された通常のコンピューターとは異なり、人間の脳の構造──すなわち、ニューロン(神経細胞)とシナプス(接続部)を物理的・構造的に再現することを目指します。

なぜ“脳型”を目指すのでしょうか?

従来のコンピューターは「ノイマン型アーキテクチャ」と呼ばれる構造に基づいており、記憶(メモリ)と演算(プロセッサ)が分離されています。このため、データをメモリから読み込み、処理し、また書き戻すという工程が発生し、それがボトルネックとなって高い電力消費や処理遅延を引き起こしていました。

一方、脳は“処理と記憶が同じ場所で同時に行われる”ため、圧倒的な効率を誇ります。ニューロモルフィックはこの構造を模倣し、演算と記憶の融合によって、AIに適した低消費電力かつ高速な情報処理を実現しようとしています。

ニューロモルフィックの基本構成と動作原理に関して、ニューロモルフィック・チップでは、電子回路を「人工ニューロン」と「人工シナプス」に見立て、並列に多数配置しています。各ニューロンが他のニューロンと接続されており、信号の強さやタイミングに応じて、重み(synaptic weight)が変化していく──つまり、学習が可能になります。

  • ニューロン: スパイク信号(パルス)を発し、情報を伝える
  • シナプス: ニューロン間の結合強度を調整する役割(学習の本質)
  • スパイキング・ニューラルネットワーク(SNN): 脳のように時系列で信号を処理するネットワーク

この構造により、たとえばカメラが“見る”だけでなく、瞬時に“判断する”ような処理──つまり、センシングとAI推論の一体化が可能になります。

実用事例と開発動向における代表的なニューロモルフィック・プロセッサとしては、Intelの「Loihi」シリーズが挙げられます。Loihiは数千個の人工ニューロンとシナプスをチップ上に実装し、従来のAIチップと比較して最大100倍のエネルギー効率を実現したとされています。

また、日本では理化学研究所が「ニューロスパイク・スーパーコンピューター」の開発を進めており、ブレインインスパイア型(脳型)の次世代計算モデルを模索しています。IBMの「TrueNorth」や、ヨーロッパの「Human Brain Project」など、世界中でニューロモルフィック技術の実証が進んでいます。

ニューロモルフィックとAIの未来に関して、AIの学習や推論にかかる電力は、現在大きな社会問題にもなっています。たとえば、GPTのような大規模言語モデルを一度トレーニングするだけで、数十万キロワット時の電力が必要になるケースもあります。

ニューロモルフィック・コンピューティングは、こうした負荷を根本から見直す可能性を秘めています。なぜなら、人間の脳は“学習と推論を自然に統合して行う”ことができるからです。今後は、デバイスそのものが“学びながら考える”という、新たな演算モデルが台頭する可能性があります。

先に紹介したスピントロニクスとニューロモルフィックの親和性は非常に高く、実際に「スピン型シナプス素子」なども研究されています。さらに、将来的には「量子ニューロモルフィック」といった形で、量子力学的な重ね合わせやもつれを取り入れた脳型チップの構想も検討されています。

量子コンピュータとの融合可能性

「ポストシリコン時代」という言葉を象徴する存在が、量子コンピュータです。従来のコンピュータが“0”と“1”の2値で情報を処理してきたのに対し、量子コンピュータはその前提を根底から覆す、新たな演算のパラダイムを提示しています。

量子コンピュータでは、情報の単位として「量子ビット(qubit)」が用いられます。qubitは、単なる0か1のどちらかではなく、「0でもあり1でもある」状態──いわゆる“重ね合わせ”をとることができます。

さらに、複数のqubitが互いに影響し合う「量子もつれ」という現象を利用することで、従来型コンピュータでは指数的に時間がかかる計算を、一度に並列処理できる可能性があるのです。

  • 重ね合わせ: 複数の状態を同時に保持し、並列計算が可能
  • 量子もつれ: 離れたqubitが連動することで、高速な情報伝播が可能
  • 干渉効果: 必要な計算結果を強め、不要な解を打ち消す仕組み

これにより、従来では数千年かかるような最適化・因数分解・シミュレーションが、数秒〜数分で実現できると期待されています。

2005年6月時点における量子コンピュータの開発には、極低温・真空・精密制御といった厳しい物理条件が必要で、まだ“汎用的”な量子コンピュータは実現していません。しかし、IBM、Google、IonQ、Rigettiなどが商用量子デバイスをすでにクラウド経由で提供しており、「NISQ(ノイズあり中規模量子)」の段階には到達しています。

日本国内でも、理化学研究所、東京大学、NTT、日立、NECなどが超伝導型・イオントラップ型・フォトニック型など、多様な方式で研究開発を進めています。

興味深いのは、量子コンピュータでさえも“完全にポストシリコン”というわけではない点です。量子ビットの制御、読み出し、冷却、誤り訂正といった周辺部分には、既存の半導体技術が不可欠です。

たとえば、量子チップを制御するためのCMOS制御回路、ミリ波帯のRF信号処理回路、さらには集積化に向けたパッケージ技術など、これらすべてがシリコンを基盤としています。つまり、量子コンピュータも「半導体技術の上に構築される次世代演算機」なのです。

とはいえ近年では、量子コンピュータを「他のポストシリコン技術と融合させる」動きも加速しています。

  • フォトニック量子コンピュータ: 光の量子状態をqubitとして扱う
  • スピントロニクス量子デバイス: スピン状態を量子情報キャリアとして利用
  • ニューロモルフィック量子: 脳型構造と量子力学の融合を模索

たとえば、NTTは「IOWN構想」の中でフォトニックネットワークと量子セキュリティ通信の統合を視野に入れており、光と量子を融合した次世代インフラ構築に取り組んでいます。また、オックスフォード大学やIBMの研究では、量子回路にスピン素子を組み込む実験が行われています。

量子コンピュータの根本的な革新性は、「演算とは何か?」という哲学的とも言える問いに立ち返らせる点にあります。

従来の演算は、論理ゲートによって構築された決定論的なプロセスでした。しかし、量子コンピュータは「不確実性」や「確率的振る舞い」そのものを計算資源として活用します。つまり、確定的な計算ではなく、最も“可能性の高い答え”を抽出するという、まったく異なるロジックで動作しているのです。

それはまさに、自然界の現象そのものを演算資源として活用するという、演算の物理的基盤の再定義であり、物質と情報の境界が融解していくプロセスでもあります。

本シリーズで見てきたように、ポストシリコン時代の情報処理技術は、

  • シリコンの限界を超える「物理現象の活用」
  • 演算・記憶・通信の境界を曖昧にする「統合的アーキテクチャ」
  • AI、IoT、量子、気候変動といった社会課題に応える「省電力性・柔軟性」

といった観点から、新たな地平を切り拓きつつあります。

そして何より重要なのは、これらの技術が互いに競合するのではなく、“補完しあいながら”共進化していく可能性があるということです。量子は究極の演算資源、スピンは記憶と省電力の鍵、光は通信と演算の次元を押し広げ、脳型構造は自然な知能を実現しようとしています。

シリコンの時代は確かに終わりつつあります。しかしそれは、新たな技術群がばらばらに立ち現れるということではなく、「次の計算の身体」が生まれようとしているプロセスなのかもしれません。

──その中心にあるのは、今も昔も変わらず、「演算する」という人類の「チ。」的営みだと感じてなりません。

1 2