Research Results 研究成果
ポイント
概要
大阪大学大学院基礎工学研究科の菊辻 卓真さん(博士後期課程修了)、森 勇介さん(博士前期課程修了)が金 鋼准教授、松林 伸幸教授と共に、分子科学研究所の岡崎 圭一准教授と九州大学の森 俊文准教授と協働し、「説明可能なAI」と呼ばれる人工知能の技術XAIにより、化学反応において活性化した状態の遷移状態にある分子構造を説明できることを世界で初めて明らかにしました。
一般に化学反応は反応前にある反応物と反応後の生成物を区別し、その中間に遷移状態と呼ばれる活性化状態を取ります。遷移状態を正確に理解することは、反応にどれだけの時間がかかるのかを正確に予測することに直結するだけでなく、より高い効率で生成物の獲得を目指す反応工学において重要であり、これまでも遷移状態に関する理論が数多く提案されてきました。しかしながら、遷移状態は極めて不安定な状態であり、実際にどの分子構造が遷移状態に対応するのかを理解することは難しいとされてきました。
特に、コンピュータシミュレーションによって分子構造のデータが多数収集されるなかで、どれが遷移状態なのかを特定し、なぜ反応物へ戻らず生成物の方向へ反応が進むのかを説明することが求められていました。今回、共同研究グループは、タンパク質の構造変化(異性化反応)についてのコンピュータシミュレーションと「説明可能なAI」と呼ばれる人工知能の技術XAIを融合する研究を展開し、遷移状態となる分子構造を特定するだけでなく、化学反応の成否を決める要因が何かを説明できることを明らかにしました。これにより、人工知能を用いることで、遷移状態を的確に予測し、所望の反応物を高効率に選択する理論的方法を構築しました。本研究成果は、米国物理学協会が発行するJournal of Chemical Physics誌の2022年4月21日(木)出版号に掲載されました。
用語解説
※1 遷移状態
化学反応において反応物から生成物へ遷移する過程の途中にある不安定な活性化状態のことを言う。遷移状態理論においてはポテンシャルエネルギー曲面の鞍点に相当する。
※2 説明可能なAI
深層学習の発展により高度な画像、テキスト、音声認識ができるようになったが、深層学習はブラックボックス型の学習モデルであり、なぜ内部でそのように予測したのか理解しにくいのが課題である。そこで学習結果に説明性を与える「説明可能な人工知能 (Explainable AI: XAI)」の技術が注目を浴びている。本研究では、XAI のうち局所的な説明性を与える LIME(Local Interpretable Model-agnostic Explanations)とSHAP(SHapley Additive exPlanations)の2種類の手法を用いて遷移状態を予測したデータに対する入力変数の寄与率を定量化した。
論文情報
本研究成果は、米国物理学協会が発行するJournal of Chemical Physics誌の2022年4月21日(木)出版号に掲載されます。
著者名:Takuma Kikutsuji, Yusuke Mori, Kei-ichi Okazaki, Toshifumi Mori, Kang Kim, and Nobuyuki Matubayasi
DOI:https://doi.org/10.1063/5.0087310
研究に関するお問い合わせ先