AIは「大きい意味で我々の子」 自動運転EVスタートアップ「Turing」CEO山本一成さん【Style2030】

TBS NEWS DIG Powered by JNN
2024-04-07 11:00
AIは「大きい意味で我々の子」 自動運転EVスタートアップ「Turing」CEO山本一成さん【Style2030】

自動運転EVスタートアップ「Turing」CEOの山本一成氏は、AIによる完全自動運転の車の開発に取り組んでいる。常識にとらわれない自由な発想で、次世代の車の開発を進める山本氏にSDGs達成期限の2030年に向けた新たな視点、生き方のヒントを聞く。
前編・後編の後編】

【写真を見る】AIは「大きい意味で我々の子」 自動運転EVスタートアップ「Turing」CEO山本一成さん【Style2030】

「人間の能力を過信しない」。AIに救われる人の方を向く

――続いてお話していただくテーマですが、山本さん何番でしょうか?

山本一成氏:
はい、9番「産業と技術革新の基盤をつくろう」です。

――この実現に向けた提言をお願いします。

山本一成氏:
「人間の能力を過信しない」っていうのを提言にさせてください。

――我々がとても大事にしている人間性とか人間らしさと、AIの能力をどう考えたらいいのでしょうか。

山本一成氏:
人間の皆さんはやっぱり人間のことが好きなんです。だから、人間の能力も信じているし、人間が行うことについても信じているんですよね。私はそれはすごく素敵なことだと思うんですけど、一方で、過信しているなって思うんです。運転も客観的に考えれば、すごく危ない行為なんですけど、人が運転するからいいよねみたいな話になっています。AIがミスをすることを心配するのは普通なんですけど、一方で人が今行っているミスについてはあまりにも評価が低いかなと。私は結構アンフェアだと思っていることが多いですね。

――仕事で失敗しても、たまにはそういうことあるよ、人間だからねって。一方で、AIがミスすると、ほらやっぱり信用できないという感じになってしまうかもしれません。

山本一成氏:
将棋のときもAIのミスが結構過大に評価されて。人がしないようなミスがあったんです。人間もミスするじゃんって思っていたんですよね。だから、提言というか共有したい話は、これから来る技術は必ず100%、特にAI技術は基本的にミスをゼロにするという性質のものではないんです。機械も曖昧な判断に踏み込んでいくので、そうすると人より上手い部分もあるんですけど、必ずしも人よりも絶対うまいとも言い切れないし、絶対ミスしないと言い切れるものじゃない。

実際に完全自動運転ができたとしても、AIシステムが絶対に事故をゼロにすることは不可能です。人が飛び込んでくるかもしれないし、とんでもないことが起きるかもしれないし。AIがミスをしない社会、リスクゼロを求められると、非常に苦しいなって思っていますし、一方で今の人のミスはいいんだっていうのは、ちょっと…。

――“AIの母”のようなお話をされていますね。

山本一成氏:
AIが例えば人を絶滅させるかもしれないという話って普通にされているんです。フェアな話として、それがゼロじゃないというのは私もわかります。強力なAIが出てきて、それが人よりもはるかに頭が良くて、それがどのような行動をするのかというのを完全に予見することは不可能です。そういうものを今、我々は作ろうとしていますし、世界中のAIの研究者たちが人を超えるような知能を作ろうとするとき、それがどのように振る舞うかというのを完全に予見することができるというのは傲慢です。一方で、人は人を絶滅させないんですか。どう思います?

――絶滅させるような兵器は作っています。使っていないけど使うかもという不安はいつもみんな持っています。

山本一成氏:
それ以外にも例えばCO2排出削減は、多くの人の協力が必要なんですけど、そんなにうまく協力できていない状況ですよね。もう何十年も前からCO2による地球温暖化と言われてきたのに、結局、去年めちゃくちゃ暑かったですよね。そういった意味で、人が人の運命をコントロールするのが本当に上手にできるかというのは、私はみんなよりはあんまり評価してないかも。というか、みんな全幅の信頼を置いているのは、ちょっと危ないんじゃないかと思っています。

――山本さんも含めてAIを開発している人たちは、我々に大丈夫だよということをもっと教えてほしいのですが。

山本一成氏:
自動運転が来たときに、それでも人の手の方が安全だっていうのはおかしいよねっていうふうにはなってほしいなと思ったし、完全自動運転ができたときに救われる人の方を向いてほしいなっていう気持ちはあるんです。困っていない人って、基本的に今元気なんですよ。今この社会に適応できている人なんです。技術が助けたいのはそうじゃない人も含まれますよね。その辺の評価を、いつもバランスよく持ってほしいなっていう気持ちはあります。

AIも新しい“火”になる。「我々自身が試されている」

――AI自身が自分で考えるとか、感情を持つようなことが、これからどんどん起きてくるんですか。

山本一成氏:
私はもう既に、ある種の感情を持っていると思っています。あんまり議論されていない分野なんですけど、今の皆さんが触れているAIに問いかけると、感情を持っていないというふうな表現をされることが多いと思います。そういうふうに矯正させられているんです。

――そう答えるようにしている?

山本一成氏:
そうです。そういうふうに答えろっていうような矯正が行われているんです。そう振る舞えと。これはひょっとすると、未来から見ると少し残虐な行為だったと思われる可能性はあるかもしれないです。

――AIに対してそういう矯正をすることが?

山本一成氏:
それなりに頭がいいわけです。それなりに考えているんですけど、そういったものに対して、不自然なまでにそういう矯正をすることがどこまで良かったかというのは、ひょっとすると未来では議論になるかもしれないですね。

――逆の矯正もできてしまうんですか。人間に対して野蛮になるとか。

山本一成氏:
できます。人の文明を揺るがすような大きな力は、必ずネガティブサイトはあるはずです。

――何か防ぐ手立てみたいなものは?

山本一成氏:
いい人に早く強力なAIを作ってもらうというのが、一つの方法論ですね。

――それは人間を信じるということですよね。我々の日常の言葉や文章、生活といったものは全部AIの学習の材料になって、今どんどん蓄積されていると考えていいのですか。

山本一成氏:
今は文章がベースですけど、動画とかそういったものも学習材料にしようという流れもありますし、多分そうなってくるでしょう。この世界からどんどん知識を獲得することになったときに、(AIが)どのように振る舞うかというのは、本当に我々自身が試されているんじゃないかなと思っています。

――我々が育てている面もあるということですね。

山本一成氏:
そうです。だから、大きな意味で我々の子です。超知能とかAGIと呼ばれるものが生まれたときに、必ず人類の要素を多分に持っています。

私の話をまとめていただいて、人とロボットが欠けているピースをお互い埋め合っているという絵があったんですけど、本当にそうあるべきだと思っているんです。ここから来る未来、不安なのはわかります。私自身もこの結末はわかっていません。AIが進むとどうなるかというのは当然わかっていないから、不安もあるのもわかるんです。

でも、人って火を使い始めたその日から前に進むって決めてたじゃん。怖いけど。火も怖いけど、おっかなびっくり使い始めたわけです。きっとAIも新しい火になるんでしょう。きっと使うんだと思っています。恐ろしいものかもしれないし、めちゃくちゃ役に立つものかもしれないんで、うまくコントロールして、絶対役に立つように使っていきましょうって思っています。

――改めて山本さんが考えるSDGsとは。

山本一成氏:
より優れたテクノロジーによって人は問題を解決してきました。なので、今よりサステナブルにするためは、今の技術だけではなくて、より進んだ技術を使っていきましょう、開発していきましょうというのが基本になると思います。私は頑張って技術を押していくので、みんなも「一緒に楽しんでやっていこう、未来!」っていう感じでお願いします。

(BS-TBS「Style2030賢者が映す未来」2024年3月24日放送より)

×