北京
PM2.577
23/19
△中国科学院自動化研究所
中国科学院自動化研究所が16日に発表したところによりますと、同研究所の李国斉研究員、徐波研究員のチームは清華大学、北京大学などと共に、「内生的複雑性に基づく」脳に似たニューロンモデルの構築方法を提案し、従来のモデルによる計算資源の消費問題を見直し、神経科学を効率的に利用して人工知能(AI)を発展させるための研究に成功しました。関連する研究成果はオンライン科学誌の「ネイチャー計算科学(Nature Computational Science)」に発表されました。
より汎用(はんよう)的なAIを構築し、モデルにより広範な認知能力を持たせることが、現在のAI分野における重要な発展目標とされています。
李研究員によりますと、現在流行しているビッグモデルパスはスケールの法則に基づいて、より大きく、より深く、より広いニューラルネットワーク(人間の脳の神経細胞=ニューロンを模した機械学習モデル)を構築するもので、「外生的複雑性に基づく」汎用知能の実現方法といわれます。この方法は膨大な計算資源やエネルギーの消費が必要であり、解釈可能性不足などの難題にも直面しています。一方、人間の脳には1000億単位以上のニューロンがあり、1000兆ほどのシナプスがつながり、それぞれのニューロンが豊富で多様な異なる内部構造を持っているにもかかわらず、消費電力はわずか20ワット程度です。そのため、脳のニューロンの力学的特性を参照して、ニューロン構造を内側に豊かにすることで、一般的知性を探求する大きな可能性があり、これは「内生的複雑性に基づく」汎用知能の実現方法と言えます。
また、李研究員によりますと、実験の結果は複雑なタスクを処理する際の内生的複雑性モデルの有効性と信頼性を検証し、神経科学の複雑な動力学的特性をAIに組み込むための新しい方法と理論的サポートを提供する一方、実際の応用におけるAIモデルの最適化と機能向上にも実行可能な解決プランを提供できるということです。
同研究チームは現在、大型モデルの計算効率や任務処理能力の向上に取り組み、実用シーンでの迅速かつ確実な実現に向けて研究を進めています。(Lin、榊原)
KANKAN特集