人工知能+ロボットが社会を変える―フィジカルAIの最先端 尾形 哲也氏に聞く
第5回 人工知能とロボットの世紀に求められるコンセンサス

FEATUREおすすめ
聞き手 都築 正明
IT批評編集部

人間とともにあるスマートロボットは新たな社会像を形成する。なにをロボットに委ね/委ねないか、また人に及ぼすリスクと責任の所在をどう捉えるかである。ロボットに親和的な日本において、いかに合意形成をはかるのか――いま考えるべき課題は、そこにある。

取材:2026年1月20日 早稲田大学西早稲田キャンパス尾形哲也研究室

尾形 哲也(おがた てつや)

早稲田大学理工学術院基幹理工学部表現工学科教授。博士(工学)。早稲田大学次世代ロボット研究機構AIロボット研究所所長。AIロボット協会(AIRoA)理事長。国立情報学研究所大規模言語モデル研究開発センター客員教授。早稲田大学理工学部助手、理化学研究所脳科学総合研究センター研究員、京都大学大学院情報学研究科講師及び同准教授を経て、現職。日本ロボット学会理事、人工知能学会理事などを歴任。2025年よりAIロボット協会理事長などを兼任。JST CREST「実環境知能システム」領域研究総括。深層学習、生成AIに代表される神経回路モデルとロボットシステムを用いた認知発達ロボティクス研究、特に予測学習、模倣学習、マルチモーダル統合、言語学習、コミュニケーションなどの研究に従事。2021年IEEE ICRA2021 Best Paper Award In Cognitive Science、2023年文部科学大臣表彰科学技術賞(研究部門)など受賞。著書『ディープラーニングがロボットを変える』(日刊工業新聞社)のほか、『〈こころ〉とアーティフィシャル・マインド』(創元社)、『発達ロボティクスハンドブック』(福村出版)など共著多数。

 

目次

ロボット・AIとともに在る未来の世界線

日本という国の優位性と特異性

 

ロボット・AIとともに在る未来の世界線

――先生が想像していらっしゃる世界線について教えてください。ムーンショット型研究開発制度の目標3にある「一人に一台一生寄り添うスマートロボット」の実現のような。

尾形 過去に人間が想像したことはほとんど実現しています。その意味では時期はわかりませんが、スマートロボットは想像ができますから、おそらく実現されると思います。

その形態も人間に似せる必要は必ずしもないですが、似せられるとなったらヒト型ロボットはつくってしまうでしょう。まさに石黒浩先生が示しているものですね。人間そっくりにするのは、工学的には明らかに効率が悪い、もっと簡単なデザインでいい、そのほうが値段を下げられる……といろいろ言いつつも、人間に似せられれば似せてしまう。AIについても、人間そっくりである必要はない、感情を持たせる必要はないと言いつつも、感情的な機能は持たせられるなら持たせてしまう。今、若い人たちがChatGPTをチャッピーと擬人化しているのも、そのような現象かと思います。

――デバイスが個別化していったように、一人一台のロボットを持つ可能性もありますか。

尾形 一人一台が究極系ですが、その手前に公共の場に自然にロボットがいる社会がやってくると思います。社会にロボットが入ってきて、新しい社会性ができあがるイメージです。いまの生成AIはすでにそれをしているとも思います。

私はディープラーニングをはじめたころに、対話モデルはすぐにできると言うとともに、その際にはAIが感情労働を担うことは避けるべきだという立場をとっていました。つまりAIが耳障りがよく都合のよいことを言いつづけることで、人と人とがコミュニケーションしなくなる未来像は描くべきではないということです。先ほどお話しした介護ロボットが人を抱える際にも、ロボットが喋るよりも看護士や介護士の方々が話しかけるほうがよいはずです。力仕事や雑用はロボットがすればよいのですが、対話は人間がするというストーリーにするべきだというのが私の主張でした。そうしなければ、過度に感情移入したり、してはいけない判断をロボットに委ねたり相談したりする可能性は十分にある。現実に、若い人を対象にした「自分の隠しごとを相談できるのはだれですか」というアンケートをみると、1位がAIで2位が母親、3位が友だち、4位が先生で父親は5位……。

しかし現実としては、今方向に確実に向かっていきます。そういった社会をどのように健全に設計していくのか、ということが問題になると考えています。

――ChatGPTに依存して亡くなった少年の遺族がOpenAIとサム・アルトマンを提訴したカリフォルニアの例をはじめ、痛ましい事案はいくつか発生しています。知能という面では、人に似せるのとは違う方向で発展することもあるのでしょうか。

尾形 そことは離れた評価軸で発展していく可能性もありうると思います。先ほど強化学習が常に現実解にならないとは言いましたが、一旦、強化学習の評価軸が決まってしまえば(あと無限に近い試行錯誤が確保されれば)、常に人間の想像を超えるパフォーマンスを出してきたことは事実だからです。

例えば、将棋や囲碁は典型的で、最初期のモデルは人間を真似ていましたが、途中から自己学習させるようにしたら、ルールも教えてない段階で数時間経つと人間を超えるようになりました。なにをしているのかは人間にもわからないけれど、とても強い。数学では、人間が解けなかった問題(あえて解かなかった問題?)をAIが解いて、人間が後から確認するという事例が出ています。理論物理のありようも変わりつつあると言われます。またAlphaFoldがタンパク質構造予測もそうでしょう。このように人間に必ずしも倣わないアプローチは、今後も多くなってくるでしょう。

――AlphaFoldと粉体を計測するロボットが合わさると、製薬なども進みそうですね。

尾形 そうしたAI for Scienceの文脈も重要ですね。実験器具の扱いなど、いまのところ人間にしかできないスキルがあります。そこを実現可能なPhysical AI(ロボット)が開発されるかもしれません。この場合はヒト型でなくてもよいのかもしれません。きっかけとして人を真似ることはあったほうがよいと思いますが、その後はAIが自己学習を繰り返す方法はありえます。そうなると、人間の設定した目的でヒト型のロボットをつくるのとは別の軸で、汎用型ロボットといいつつも人間の姿をしていないロボットの可能性もあり得ると思っています。最初は、人間の身体がよくできていてその姿を模倣するのだと思いますが、この辺の将来像は読めないところです。

 

日本という国の優位性と特異性

――フィジカルAlの分野で日本が世界にプレゼンスを示すには、なにが必要なのでしょう。

尾形 日本人には、一部の新しい技術に対して慎重になる傾向があります。“ニコニコ動画”とYouTubeであれば、ニコ動の方が画面に流れるコメント機能など面白い工夫があります。“2ちゃんねる”のコンテンツが問題になったわけですが、現在のX(旧twitter)と比較してどうか、ということもあります。しかし、結局はYouTubeとXが強くなっているわけです。Winnyなどもよい例ですが、日本発で素晴らしい技術をもとにサービスをしても、なぜかすぐになくなってしまいます。新しさゆえに怪しまれる。ChatGPTも日本製であれば規制されていた可能性が高いのではないでしょうか。こうした社会情勢や世論との距離のとりかたが、かなり重要です。

逆にロボットによる介護について、日本はかなり需要が高い。海外では高齢者介護にロボットを使うことに関して、プライバシーや自尊心をベースに受け入れないケースもあると聞きます。また家事についてはどの国でも歓迎されるというのも面白いと思います。先端の研究を如何に社会に受け入れ得てもらえるか、特に日本で受け入れやすいコンテンツでプレゼンスを出すということですね。

――一方で、アニメキャラクターやVTuberが人気を博すように、急速に受容されていく可能性もありそうです。

尾形 前述したように、愚痴や怒りをAIが聞いてくれる時代がきても仕方ないですし、恋愛対象になるのも――倫理的な問題はあるでしょうが――厳密な規制をかけることはむずかしいでしょう。

――ロボットと仲良くする“ドラえもん”の国だから受け入れられやすいと言われますが、依存してしまう懸念も大いにあります。

尾形 1980年代には、ヒト型ロボットを作ったり、産業ロボットに名前をつけて呼んでいたりということが、海外からは奇異にみられたりしましたが、そこが日本の強みでもあり、危うさでもあると感じます。なにがよくてなにがよくないのかという大雑把なコンセンサスを、いまの時点でつくっていくことは重要でしょう。ES細胞やiPS細胞が樹立されたときにヒトのクローンをつくらないことを決めたり、原子力においても核兵器の拡散はしないように決めたりというコンセンサスを形成しました。後者は必ずしも守られているとはいえませんが、AIやAIロボットにより社会が変わっていくにあたって、そうしたものは必要です。自動車が登場したときに後から横断歩道や歩道をつくったり、信号機を設置したりしたように、社会のありようが変わらざるをえないと思います。

――法制度でいうと、EUはハードローで罰則のあるAI Actを制定し、アメリカは連邦法でAI覇権を目指すような大統領令が出されました。日本でも2025年9月にソフトローである「人工知能関連技術の研究開発及び活用の推進に関する法律」(略称:AI法)が施行されました。

尾形 日本のAI法では、著作者の権利を侵害しない限りはデータの利活用が自由だということになっています。また一部の人間を評価するAI、例えば人事評価支援などのアプリであってもグレーゾーン扱いです。問題が出た場合に柔軟に、アジャイル型で法を制定することを考えているのです。

また自由意志を持っている”かのようにみえる(人が感情移入できる)AI“は、すでに登場していますが、そこに責任や権利を与えることについてはまだまだ議論が必要でしょう。AIRoAでも、倫理や法、政治などの専門家に入っていただいて議論をしていきたいと考えています。

――その意味でも、ロボットにバイスタンダー(bystander:共にある者)やバディといった価値観をおく日本のメンタリティが意義づけられるかもしれませんね。

尾形 かつてアメリカで策定された“アシロマ AI 23原則”には、自己発達・自己生成するようなAIは厳格な管理と検証の下に置くことが記されています。同時期に私も理事を務めていた日本の人工知能学会では倫理指針が承認されました。第1条から第8条までは人工知能学会員の守るべき指針ですが、第9条には「人工知能が社会の構成員またはそれに準じるものとなるためには、上に定めた人工知能学会員と同等に倫理指針を遵守できなければならない」として、人工知能への倫理遵守の要請が示されています。つまり、AIに「私たちと同じルールを守ってね」といっているわけです。このことからも、日本人は、AIやロボットへの親和性が高いことが看取できます。先に示した2ちゃんねるやニコニコ動画のようなソフトウェアアプリと異なり、日本人は新しいハードウェアは受け入れやすい傾向にあると思っています。自動車でも家電でもコンピュータでもロケットでも、キャッチアップしたうえでリードしてきました。ロボットについても大きな可能性を持っているので、あとはソフトウェアとの融合だけです。その意味で、フィジカルAIには十分に優位性を示すポテンシャルがあると思っています。<了>