ASI-Archが拓く創造と進化の時代
第4回 発明者はAIか人間か──DABUS事件と制度の現在地

REPORTおすすめ
Author 伊藤 要介
IT批評編集部

もしAIが人間の手を借りずに、設計や発明を自ら進めるようになったら、法制度や責任のあり方はどう変わるのでしょうか。2025年7月に発表されたASI-Arch(Artificial Superintelligence for Architecture)の研究は、こうした問いを現実のものとして私たちに突きつけたように感じます。今回は結論を急がずに、現在進行中の議論や制度設計の試みをいくつか紹介しつつ、どのような論点があるのかを探ってみたいと思います。

目次

責任の空白──AIは責任主体になり得るか

例えば、自ら仮説を立て、実験を設計して実行し、結果を分析して論文を執筆する。そんな研究プロセスのすべてを、AIがほぼ独力で担う時代が現実となったら、私たちはどのようなことを考えなければならないのでしょうか。ASI-Arch論文が示したのは、AIが発見した設計が社会に大きな影響を与えた場合、誰が責任を取るべきなのか、という「創造者不在の時代」に特有の倫理的空白の問題を浮かび上がらせたように思います。

従来の科学研究や技術開発では、責任の所在は比較的明確でした。

  • 論文には著者名の記載
  • 特許には発明者の氏名の記載
  • 事故などの問題が起これば企業や研究者が説明責任を負う

これらは全て「人間こそが知の創造者であり、その結果を引き受ける主体である」という近代的な前提に基づいています。

しかし、ASI-ArchのようにAIが自律的に仮説を立て、設計し、検証し、改良する時代が訪れると、この前提は大きく揺らぎます。たとえばASI-Archが設計したニューラルネットワークを企業が採用し、後に重大な不具合が発覚したとします。このとき責任はどこに帰属するのでしょうか。AIを開発した研究者なのか、そのAIを運用した企業なのか、それとも最初に設計を提案したAIそのものなのか。現行の制度にはこの問いに対する明確な答えは用意されていません。

たとえば2018年3月、米国アリゾナ州で起きたUberの自動運転車による歩行者轢死事故では、AIシステムの欠陥が指摘されながらも、最終的に刑事責任を問われたのはシステムの設計者や企業ではなく、運転補助をしていた人間でした。この判例は、AIによる判断の結果を人間が代わって責任を負う構図となっており、研究者マデリーン・エリシュが2019年に発表した論文における、責任の「モラル・クランプルゾーン(道徳的潰れゾーン)」の象徴と言えるでしょう。

AIが高度化すればするほど、こうした責任の空白は拡大するでしょう。ディープラーニングのような複雑なAIモデルは、その判断過程がブラックボックス化しやすく、人間が結果を完全に説明することは困難になっています。AIの判断が誤っていたとき、それを開発者の責任とすべきなのか、データ提供者の責任とすべきなのか、それとも使用者の責任なのか、明確な線引きはますます曖昧になりつつあるのです。

発明者は誰か──DABUS事件と主要法域の自然人要件

AIが設計や発明においても主要な担い手になりつつある現在、最初に直面する制度的な壁は知的財産(IP)法かもしれません。特許法や著作権法はこれまで、発明者や著作者が人間であることを前提に組み立てられてきました。ところがAIが人間の関与なしに有用な発明や表現を生み出すケースが現実化したことで、この前提と実態の間にズレが生じ始めています。

象徴的な事例としてしばしば取り上げられるのは、米国特許商標庁(USPTO)が、2020年にAI「DABUS(Device for Autonomous Bootstrapping of Unified Sentience)」が発明者とされた特許出願を却下したことでしょう。開発者のスティーブン・セイラー博士は、DABUSが自律的に考案したとする食品容器や緊急警告等について、発明者としてDABUSの名を記載し世界各国に特許を出願しました。しかし米国特許庁以外にも、欧州特許庁(EPO)、日本特許庁がいずれも「発明者は自然人に限られる」として出願を却下しました。米国では連邦巡回控訴裁判所が2022年にこの判断を支持し、2023年には最高裁も上告を退けました。

南アフリカでは、形式審査のみを行う制度のもとでDABUS名義の特許を認めたようですが、これは実体審査を経たものではなく、国際的な承認とはみなされていません。一方、日本では2024年5月には東京地裁が「発明は自然人に限られる」との初の判断を示したため、2025年1月30日に知財高裁もこれを追認しました。というように現在は主要国が足並みを揃えてAIを法的な発明者と認めない立場をとっています。

しかしながら、ここに大きなジレンマがあるのを感じるでしょうか。もしAIが生み出した発明に特許が認められなければ、企業はそれらを特許出願せず営業秘密(トレードシークレット)として囲い込む方向に進む可能性は否めません。特許制度の目的は発明の公開と技術の共有を通じて社会全体の発展を促すことにありますが、この仕組みが機能しなくなることで、かえって技術の独占と秘匿が進みかねないのではないでしょうか。

こうした状況を受けて、国際的にはAIと人間の共同発明という新しい法概念を導入すべきだという議論が出始めているようです。他にも、欧州委員会の「AI及び先進デジタル技術の責任に関する報告」では、

  • AIの関与度を開示すること
  • 責任の所在を人間の開発者や利用者に明確化すること
  • 制度は透明性及び説明可能性(Explainability)を前提に設計すること

といった方向性が示されています。AI自身に法的人格を与える議論は現時点では主流ではありませんが、人間とAIの協働を前提とした責任と権利の再設計は、欧州AI法(AI Act)や米国のAI責任法制でも徐々に具体化しつつあるようです。

著作権への波及──AI自律生成は著作物なのか

こういった権利主体の問題は特許にとどまらず著作権制度にも波及しています。米国では有名な「サルの自撮り」事件をきっかけに、著作権は人間以外には認められないことが確認され、2023年に、AIが自律的に生成した画像や音楽も同様に保護の対象外として著作権を認めない方針を明確化しました。日本でも文化庁が2023年に示した見解で「AIが自律的に生成した著作物に該当しないと考えられます」と明言、伴って内閣府も同年「利用者の寄与が簡単な指示に留まる場合は「AIが自律的に生成したAI創作物」と整理され、現行著作権法上は著作物と認められない」と明示しています。

もっとも、AIを利用するクリエイターが増えるなかで、人間の創作的寄与がどの程度あれば著作権が認められるのかは依然としてグレーゾーンです。生成AIの利用が広がるにつれ、著作権制度にもAI時代に適応した新たな指針が求められて続けていると言えるでしょう。

リソースの集中──計算資源・データ・人材の偏在が生むリスクとガバナンス

AIが研究・設計の主要な担い手になりつつある現在、その開発や運用に必要な計算資源やデータ、そして人材の集中といった新たな格差が生み出され始めていることも知っておいた方が良いでしょう。特に大規模言語モデル(LLM)や生成AIの開発には、桁違いのGPUリソースと膨大な学習データが不可欠となります。そのため、これらを保有する巨大テック企業や一部の政府機関が、AI開発の最前線を独占する傾向が強まっているのです。

実際OpenAIのGPTシリーズやGoogle DeepMindのGeminiシリーズ、AnthropicのClaudeといった最先端モデルの開発には、大規模なAIアクセラレータ(GPU/TPU/専用AIチップ)が投入されています。例えばMicrosoftはOpenAI向けにGPU約1万枚のスーパーコンピュータを構築したと公表し、GoogleはTPU v5p/v5eを1ポッド8,960チップとして提供(マルチポッドで拡張可能)AnthropicはAWSのTrainium/Inferentiaを主要な学習基盤としています。

その一方で、こうした計算資源の偏在は顕著になっていて、AI Index 2025では「計算需要の急増により、フロンティアAIの開発は産業界が優勢となり公共部門には遅れが生じている」と指摘しています。スタンフォードHAIのNRC白書でも、計算資源とデータアクセスへの公平化が研究の不平等を是正する鍵だと強調しています。また、大手各社によって、研究者・エンジニアの引き抜きといった人材獲得競争が加熱していることも多数報道されています。

リソース民主化の試み──NAIRRとEUのHPC・オープン支援とその限界

こういった不平等のリスクに対応するため、いくつかの国や地域はAIリソースの民主化を目指した取り組みを初めているようです。アメリカでは、NAIRR(National AI Research Resource)という構想を発表し、国立の計算資源や学習データ、基盤モデルを大学や公共研究機関に開放し、AI研究を民主化することを目指した取り組みを進めています。同様にEUでもHPC(High-Performance Computing)インフラの共同利用やオープンソースAIモデルの開発を支援し、研究者が企業と対等に競争できる環境を整えようとしています。

しかし、こうした取り組みが実際に巨大企業の優位性を崩せるかは未知数です。企業は圧倒的な計算資源とデータだけでなく、実サービスで得られるフィードバックループを通じてモデルを進化させ続けます。結果として「計算力を持つ者」と「持たざる者」の格差が拡大する懸念も残ってしまっているのが現状でしょう。

さらに、リソース格差がそのまま倫理や安全性の格差にもつながるという点にも問題があると感じないでしょうか。競争が激化する中で、一部の企業が安全性検証や倫理審査を後回しにして技術を市場に投入すれば、社会全体が予期せぬリスクに晒されることになるでしょう。AIモデルが金融取引や医療診断、防衛分野で誤作動を起こした場合、その影響は計り知れないものとなるのではないでしょうか。

ここで問われるのは、誰がAI開発のスピードと安全性のバランスを取るのかというガバナンスの問題ではないでしょうか。国際的な規制当局となるべきなのか、企業連合が良いのか、それとも公開された市民討議の場であるべきなのか。少なくとも今のところ技術のスピードに制度設計が追いついていないことだけは確かだと言えるでしょう。

公開討議が支える正当性──哲学的基礎と説明可能性・公開討議・未来への責任

AIが研究や発明の主体となる時代において、私たちは単に法制度を更新するだけでは不十分であることを感じていただけたのではないでしょうか。制度はあくまで社会が共有する価値観や合意に基づいて設計されるものであるため、その根底には「何を正義とし、誰が責任を負うべきか」という倫理的な問いが横たわっています。ここで必要となるのが、新たな責任倫理と合意形成の枠組みでしょう。

ドイツの哲学者ハンナ・アーレントは『人間の条件』(筑摩書房)の中で、人間の行為には常に「予期せぬ結果」が伴うと述べています。人間が意図していない結果が生じるのは、人間の行為が他者との関係で連鎖し、制御しきれない広がりを持つからです。もしAIが自律的に判断や設計を行う時代になれば、この「予期せぬ結果」はさらに複雑になるでしょう。アーレントは、だからこそ人々が対話を通じて責任の所在を確認し、未来への約束を取り交わす必要があると強調しました。ASI-Arch時代においてもこれは変わらず、むしろAIが行為者の一部を担うことになる分だけ、この合意の重要性は増すでしょう。

一方、ユルゲン・ハーバーマスは「討議倫理」(法政大学出版局)の中で、社会の正当性は透明で公開された対話を通じてのみ成立すると説きました。法や制度が正当性を持つためには、市民や専門家、企業、行政といった多様な主体が参加する公開討議のプロセスが不可欠だというのです。AIの判断や設計がブラックボックス化し、人々がその過程を理解できなくなれば、この公開討議の前提そのものが失われてしまうのです。

さらに、ハンス・ヨナスは『責任という原理』(東信堂)で、技術の影響が将来世代へ及ぶことを前提に「未来への責任」を倫理に組み込む必要があると説きました。長期的な責任の制度化はASI-Arch時代において不可欠と言えるでしょう。

以上を踏まえ、ASI-Arch時代における制度設計の柱は次の3点となるように思います。

  • 説明可能性(Explainability)の確保
    AIの判断や設計プロセスについて、人間が理解可能な形にし、意思決定の根拠を透明化する。
  • 公開討議と市民参加
    専門家や企業に限らず、市民社会も含めた多様な主体の参加によって制度の正当性を担保する。
  • 未来への責任の制度化
    基本権影響評価(FRIA)などを通じて、将来世代へのリスクを制度に組み込む。

これらは、すでにOECDのAI原則の透明性・アカウンタビリティ・参加性の理念とも整合し、欧州連合(EU)のAI法(Artificial Intelligence Act)においては、第13条(透明性)や第27条(FRIA)、第43条(適合性評価)などで具体的に制度化が進められています。

しかし、制度をいかに設計しても、最終的にそれを正当化し支えるのは社会全体の合意でしょう。アーレントが指摘したように、技術の影響が広がる現代社会では、制度の外側にある公共空間での対話こそが、責任と正当性の基盤を支えます。ASI-Arch時代における倫理は、専門家委員会や立法府だけではなく、市民や利用者、そして国際社会を巻き込んだ公開討議を通じて成立されていくのが望ましいのではないでしょうか。

となると、この討議の基盤となるのは、人間の「問いを立てる力」となるでしょう。ASI-Arch時代の責任の空白を埋めるにあたっては、「どのような未来を望むのか」という問いを立て、対話の方向性を定めるのは人間であるはずです。最終回となる次回は、このASI-Arch時代において人間にどのような役割が残されているのかを考えていきたいと思います。

人間の条件

ハンナ・アーレント (著)

千葉 眞 (翻訳)

筑摩書房

▶ Amazonで見る

討議倫理

ユルゲン・ハーバーマス (著)

清水 多吉, 朝倉 輝一 (翻訳)

法政大学出版局

▶ Amazonで見る

責任という原理

ハンス ヨナス (著)

加藤 尚武 (翻訳)

東信堂

▶ Amazonで見る