ASI-Archが拓く創造と進化の時代
第5回 問いは人間に残されるのか──AIとの協働と創造の未来哲学
AIが自律的にモデルを設計する時代が現実になりつつあります。では、人間はどのような役割を果たすのでしょうか。創造性や、意味づけ、価値判断といった営みは依然として人間に残されるのでしょうか。今回は連載の最終回として、これまでの議論を踏まえ、人間とAIの新しい関係を探ってみたいと思います。
目次
- 問いの三層構造──価値/戦略/最適化とASI-Archの射程
- 人間は未来の羅針盤か──AlphaFoldの示唆と“価値の問い”の不可代替性
- 物語の力──志向性と解釈が技術に与える意味
- 未来への責任──ヨナスの視点とEU AI法/OECD原則の射程
- AIとともに生きる未来へ──問いを立て続ける力が導く創造
問いの三層構造価値/戦略/最適化とASI-Archの射程
2025年7月ASI-Arch(Artificial Superintelligence for Architecture)がarXivに報告されました。人間の手を離れて複数のAIエージェントによって「仮説立案→実験設計→データ解析→改良」という研究サイクルを自律的に繰り返し、成果を評価するという従来にはなかった仕組みです。
この報告は、人間の設計や監督が不可欠だった従来の研究プロセスの担い手が人間からAIに移りつつある時代が訪れつつあることを示しています。かつて人間だけが担ってきた知的営為の主体が人間からAIに移行していくASI-Arch時代の到来を、否応なく意識せざるを得ないと感じます。
では、AIが科学的発見や技術設計を担うASI-Arch時代において、「人間にしかできないこと」とは何なのか、AIが科学的発見や技術設計を担う時代にあっても、人間が果たし続けるべき役割とは何なのでしょうか。
まずはASI-Archの仕組みを改めて整理しておきたいと思います。論文や解説によると、複数のAIエージェントによる「仮説立案→実験設計→データ解析→改良」という研究サイクルにおける“仮説立案”は、人間が与えた目的関数・評価指標・探索空間の内側で立てられるものだとされています。たとえば
「この線形アテンションの核関数をAからBに変更すると、データセットDで指標Mは向上するか?」
このような仮説は、AIが自律的に生み出しますが、その目的設定や評価指標、つまり「なぜその指標を上げることが重要なのか」「どの領域の課題を解くべきなのか」といった問いは、人間があらかじめ決めているとのことです。
この構図をわかりやすくするために「問い」を次の三層に分けて考えてみましょう。
- 上位の問い:価値・目的・社会的文脈の設定
例:「気候変動の緩和に向けて、どの課題を最優先に解決すべきか?」→人間が価値観や倫理観に基づいて決定する領域 - 中位の問い:戦略・実験計画の選択
例:「どのモデル構造を試せば精度を最大化できるか?」→人間とAIの協働領域(ASI-Archが自動化したという部分) - 下位の問い:パラメータや実装の最適化
例:「学習率を01%から0.02%に変えると精度は上がるか?」→実装・最適化レベルで、多くはAIで自動化可能な領域
ASI-Archが実現したといっているのは、主に中位から下位の問いにまたがる自動化だと考えられます。一方で、最上位にある価値や目的の設定、「そもそも何に関して、なぜ問うのか」と言う根源的なレベルには到達していないように読み取れました。
なお、ここでの解釈は査読前のプレプリントに基づくものであるため、今後の研究によって解釈が変わる可能性がある点は留意が必要です。
人間は未来の羅針盤か──AlphaFoldの示唆と“価値の問い”の不可代替性
AIが、かつて数年かかっていた研究を飛躍的に短縮する能力を持ちつつあることは、すでに皆さんも実感しているのではないでしょうか。たとえば2020年にDeepMindのAlphaFold 2がタンパク質の立体構造予測を高精度に実現し、生命科学における長年の難題を劇的に加速させたことは、まだ記憶に残っていることでしょう。その後の展開も目覚ましく、2024年には計算タンパク質設計に関わったデヴィッド・ベイカーと、AlphaFoldによるタンパク質構造予測に関わった、デミス・ハッサビス、ジョン・ジャンパーがノーベル化学賞を受賞し、この分野が新しい時代を迎えたことが世界的に認められる形となりました。さらにAlphaFold 3ではDNAやRNA、小分子などを含む複合体の相互作用予測も可能になったと『Nature』誌に報告され、AIが「科学の協働者」になりつつあることが改めて印象付けられました。
こうした成果は、AIが「科学の協働者」として確実に存在感を高めていることを示してきた流れだと言えるでしょう。しかし、ASI-ArchのようにAIが自律的な研究サイクルを回せる時代になっても、「どのような問いを立てるのか」といった価値・目的・社会文脈の設定となる上位の問いを決めるのは人間の役割として残っているのではないかと感じます。なぜなら、AIは与えられた目的のもとで実験計画を立て、パラメータを最適化することはできますが、「何を優先すべきか」「どの未来を選び取るべきか」という上位の問いを自ら設定することはできないからです。
ドイツの哲学者ハンナ・アーレントは『人間の条件』で、人間の行為は常に「予期せぬ結果」を生むと述べました。私たちが未来に向けて投げかける問いもまた、予期せぬ帰結を伴うかもしれません。だからこそ、問いを立てるには倫理的な想像力と社会的な対話が欠かせないものだと思います。
具体的に考えてみましょう。
- 課題A:30年後の気候安定のためにCO₂排出を最小化するにはどうすべきか?
ここで条件=目的関数を「CO₂排出の最小化」と明確に与えれば、AIは無数のシナリオを検討し、最適な削減案を提示できるでしょう。
しかし次のような課題になると事情が変わります。
- 課題B:30年後の人類の「最適な繁栄」を実現するために今やるべきことは何か?
ここで問題になるのは「最適な繁栄」とは何を意味するのか、という点です。寿命の延伸、経済成長、環境保全、公平性、幸福度などの価値観に依存せざるを得ません。どれを優先し、どう重み付けるのかは技術的な計算の問題ではなく、社会や文化、倫理観といった人間の合意形成に依存するからです。
AIは与えられた目的関数に従って計算をすることはできますが、目的関数や価値基準そのものを選び取ることはできません。その選択には社会的合意や倫理的判断が不可欠となるからです。
改めて三層構造で整理してみます。
- 上位の問い:価値・目的・社会的文脈の設定(人間の役割)
例:30年後にどんな未来を「望ましい」とするのか
環境重視か、経済重視か、公平性か、幸福度か - 中位の問い:戦略・実験計画の選択(人間とAIの協働領域)
例:与えられた価値基準=目的関数のもとで、どの技術・方策を試すか - 下位の問い:パラメータや実装の最適化(主にAIの領域)
例:モデル設計や実験条件の微調整
つまり、ASI-Archは中位〜下位の自動化を実現したと報告されているため、上位の「どのような未来を望むのか」という問いは人間の手に残されているのだと考えられます。
物語の力──志向性と解釈が技術に与える意味
AIは、与えられた条件のもとで途方もない計算をこなし、最適な解を導き出すことができます。けれども、その解が「何を意味するのか」という問いは、また別の次元の問題として残り続けるのではないでしょうか。たとえば新しい分子構造を発見したとしても、それが人類の幸福や環境の持続可能性にどのように貢献するのかは、単なる数値や計算結果だけでは判断できないでしょう。そこには、技術的な正しさと社会的な意味との間に横たわるギャップがあるからです。
哲学者エドモンド・フッサールは『イデーン』(みすず書房)で、人間の意識は常に「何かに向かう」という志向性を持つと論じました。意識は単なる情報の受け手ではなく、事象に意味を与え、それを世界の中に位置づける主体だと彼は言いました。AIがどれほど複雑なモデルを設計しても、人間の手に渡った時「この発見は人類の未来に何を意味するのか」を見極めるのは人間の意識の働きにほかならないでしょう。
またポール・リクールは『時間と物語』(新曜社)の中で、「人間は物語る存在であり、出来事や知識は物語として編まれることで初めて人間の経験に統合される」と述べました。科学的な発見や技術の進歩もまた、単なるデータの集積としてではなく、物語として語られるときに社会的な意味や倫理的な方向性を帯びるのではないでしょうか。
AlphaFoldは、この物語化の力をよく示していたように思えます。AlphaFoldがもたらしたのは単なるタンパク質構造予測の精度向上ではなく、「生命の設計図に迫る」という物語でした。だからこそ、その成果は科学者だけではなく広く社会に受け止められ、2024年のノーベル化学賞という形で、人類全体の物語の一部に組み込まれたのだと思います。
もしあなたが医療研究者で、新しい分子構造をAIが提示してきたとしたら、それをどう物語、どの未来のために位置づけるでしょうか。AIがどれほど自律的に研究サイクルを回せるようになったとしても、その成果をどのように理解し、どんな価値の文脈に結びつけるのかはあなたの役割として残され続けるのではないでしょうか。AIが提示する無数の「解」を前にして、人間がそれらをどう物語、どの未来の物語に編み込むのは、ASI-Arch時代においても変わらず人間が果たし続けるべき役割であるように思われます。
未来への責任──ヨナスの視点とEU AI法/OECD原則の射程
ASI-Arch時代の訪れにより、AIが生み出す成果は、医療、環境、経済、防衛など多岐にわたり、その影響は世代を超えてさらに広がっていくでしょう。だからこそ、技術の進歩に伴う「長期的な責任」をどう制度や倫理に組み込むかが問われているように思います。
ドイツの哲学者ハンス・ヨナスは『責任という原理』で、技術文明の時代においては従来の倫理では不十分だと指摘しました。古典的な倫理は主に「いま・ここにいる他者」に対する行為の是非を扱ってきましたが、ヨナスは、現代の技術が将来世代にまで影響を及ぼす以上、「未来への責任」を倫理に組み込まなければならないと説いたのです。
この視点をASI-Arch時代に重ねてみると、問いは次のように変わっていくのではないでしょうか。
- いまAIが生み出す解は、将来の社会にどのような影響を与えるのか
- 便利さや効率だけではなく、長期的な安全性や公平性をどう確保するのか
- 将来世代の声なき声を、どのように現在の制度に反映させるのか
前回で触れたEUのAI法(Artificial Intelligence Act)やOECDのAI原則が強調する透明性・説明責任・安全性といった規範は、まさにこの「未来への責任」を制度の形に落とし込もうとする試みと言えるでしょう。しかし、制度が整えばそれで十分なのかといえば、必ずしもそうではないのだと思います。
なぜなら、制度はあくまで「いま見えているリスク」への対処を前提に作られます。けれどもAIの進歩は予測を超えるスピードで進み、新しい技術はしばしば想定外の影響をもたらします。ヨナスが指摘したように、未来への責任を本当に果たすためには、単なるルールづくり以上に「倫理的な想像力」が求められるのではないでしょうか。
AIが生み出す可能性とリスクを前にして、私たちは何を守り、どのような未来を選び取りたいのか。これを決めるのはAIではなく、AIとともに生きる私たち自身であるはずです。
AIとともに生きる未来へ──問いを立て続ける力が導く創造
ASI-Archが示したのは、技術の未来像であると同時に、「知を問う主体」が揺らぎ始めている現実でした。哲学者ヒューバート・ドレイファスは『コンピュータには何ができないか』(産業図書)において、「知とは単なる情報処理ではなく、状況に埋め込まれた生きられた経験と不可分だ」と論じています。この視点からすれば、AIによる知的探究は、知の主体が「現場を持たない存在」へと移行する試みとも言えるでしょう。人間の役割とは、もはや答えを出すことではなく、「誰が、どのように解の責任を担うべきか」を不断に問い返す存在であり続けることなのかもしれません。
ハンナ・アーレントが『人間の条件』で指摘したように、人間の行為は予期せぬ結果を伴い、その意味づけは常に対話の中で再構築されます。ハンス・ヨナスが『責任という原理』で説いたように、私たちは技術がもたらす未来に対して責任を持たなければならないでしょう。そしてポール・リクールが『時間と物語』で描いたように、出来事は物語として編まれることで、初めて人間の経験となります。
ASI-Arch時代においても、私たちは依然として「意味を与える存在」であり続けるでしょう。問いを立てること、意味を編むこと、そして未来への責任を引き受けること。これらはすべてAIが肩代わりしきれない、人間の役割として残り続けるのではないでしょうか。
むしろAIが高度化するほどに、私たちの問いかけの質が未来を左右するようになるでしょう。どの価値を守り、どのリスクを受け入れ、どの方向へ進むのか。その選択はアルゴリズムの計算だけで決めることはできないでしょう。
近年、多くの識者がAI時代における質問力の重要性を指摘しています。例えば教育分野では「答えがあふれる世界で最も大事なのは、より良い質問を発する力だ」との声があります。
実際、生成AIが高度化しても「自分がわかっていないことを見つけ、それをAIに尋ねる力」は人間にしかできないとする見解もあります。質問力とは単に疑問を持つだけでなく、「なぜ今その問いが必要なのか」を考え抜く力でもあります。誰の課題意識を汲み取り、誰の未来に繋げる問いなのか、その文脈まで含めて問いを立てるところに、人間らしい倫理観や感受性が宿るのではないでしょうか。
だからこそ、私たちが共有すべきなのは、最終的な答えではなく、問いを立て続けるという態度なのかもしれません。AIが答えを出し続ける時代に、問いを問い続けることこそが、未来を形作る人間の創造的な力なのだと思えてなりません。
ハンナ・アーレント (著)
千葉 眞 (翻訳)
筑摩書房
E.フッサール (著)
渡辺 二郎 (翻訳)
みすず書房
ポール リクール (著)
久米 博 (翻訳)
新曜社
ハンス ヨナス (著)
加藤 尚武 (翻訳)
東信堂
ヒューバート・L. ドレイファス (著)
黒崎 政男 (翻訳)
産業図書




