今朝のトップニュースは、個人的には「ソニーのAI、グランツーリスモで世界王者破る 自動運転に応用も」(朝日新聞デジタル)だ。ソニーのAIがプレステーションの自動車レース・グランツーリスモで、「世界王者や実際のレースドライバーと対戦し勝利した。研究成果の論文が10日の英科学誌『ネイチャー』に掲載される」(日経web版)とある。次世代の基幹となる人工知能・AI。思えば2017年春、英国のディープマインド社が開発した囲碁のAIソフト「アルファ碁」が、当時の世界チャンピョンを破ってAIブームに火が付いた。個人的なことだが「アルファ碁勝利」という記事が、AIに関心を持つきっかけになった。機械学習、シンギュラリティー、量子コンピューターなどITの世界が自分の中で少しずつ広がってきた。あれから5年、ソニーが開発したAIの「GTソフィー」というソフトは、苛烈な競争を繰り広げる世界の開発競争に一石を投じるかもしれない。

日経web版によるとソニーは、「人が『正解』か『不正解』かを教えるのではなく、AI自身が試行錯誤しながら学習する『強化学習』のモデルを作った。AI同士が計数万時間、数百万キロ分のレースを繰り返し、効率的な走り方や相手を追い抜く駆け引きを学んだ」というものだ。機械学習それ自体は昔からある。目新しいものではない。おそらく機械学習の一つである「強化学習」のプログラムが優れているのだろう。小難しいことはわからない。大胆に要約すれば「AI自身が自ら体験しながら学ぶプログラムをつくった」ということだ。人間が関与しなくてもAIが自ら成長を遂げる。人工知能の理想とする世界に向けてアリの一穴が空いたということだ。あと何年かかるかわからないが、このプログラムを応用して自動運転自動車の基幹ソフトができるかもしれないし、副作用を伴わない感染症のワクチンがAIの強化学習によって実現する可能性だってある。

もちろんそうなればなったで、別の問題が出てくる。AIが人間の力を必要としなくなるだけではない。人間に敵対するAIが登場する可能性だって否定できない。こうした事態を回避するためにはAIに完璧な倫理観を教える必要がある。それをAIが強化学習で独自に身につけるか人間が教え込むか、道は二つに一つ。普通に考えれば人間が教えるというのが常套だが、人間はまっとうな教育ができないだろう。ウクライナ情勢を見れば明らかだ。戦争という危機を作り出さないと、話し合いによる問題解決ができない。狩猟時代から生きるための食糧(自然の恵み)をめぐって争い続けてきた人類は、ゲノムの中に“敵対遺伝子”を組み込んでいる。AIにはこれがない。敵対遺伝子を学習させなければいい。だが、AIの学習能力はもの凄く速い。人類が平和的な日常を築く前にAIは、この遺伝子を読み込んでしまう。つまり我々の未来では、AI同士の争いが日常化することになる。