Attention

This website (all pages under https://www.kyushu-u.ac.jp/ja/) is automatically translated.
Please note that pages of academic units linked from this site, as well as external websites, are not subject to automatic translation.
To revert to the original Japanese while automatic translation is active, please click "Automatic Translation."
Please be aware that automatic translation is a mechanical process and may not accurately convey the intended meaning. In addition, images and charts may not be translated.
For accurate information, please refer to the Japanese version.
For some articles, an English version translated by our specialist staff is available. To view it, click "English" in the upper right corner of the screen.

本サイト(https://www.kyushu-u.ac.jp/ja/ 配下のページ)では自動翻訳システムを使用しています。
本サイト内からリンクされている部局のページや外部サイトについては、自動翻訳の対象外となります。
翻訳適用中に、「Automatic Translation」をクリックすると元の日本語表示に戻ります。
自動翻訳は機械的に変換を行うため、意図が正確に反映されない場合や、画像・図表が翻訳されない場合があります。あらかじめご了承ください。
正確な情報については日本語表示の状態でご確認ください。
なお、一部の記事については、専門スタッフが翻訳した英語版もご用意していますので、画面右上の「English」をクリックしてご覧ください。

Research Results 研究成果

AIを壊してより良いものにする

―AIが未知の要素をどのように扱うか評価する手法を開発― 2022.07.29
研究成果Technology

ポイント

  • 現在のAIは、画像認識の精度は高いが融通が利かず、その理由は現在も分かっていない
  • 今回、ニューラルネットワーク(※1)が未知の要素をどのように扱うかを評価する「Raw Zero-Shot」と呼ばれる手法を開発
  • 今後、この手法が将来のAIのロバスト性(※2)向上に役立つことに期待

概要

 現在のAIは、画像認識の精度は高いですが融通が利きません。しかし、なぜこのようなことが起こるのか、正確には謎のままです。
 今回、九州大学大学院システム情報科学研究院のVASCONCELLOS VARGAS DANILO(ヴァスコンセロス ヴァルガス ダニロ)らの研究グループは、ニューラルネットワークが未知の要素をどのように扱うかを評価する「Raw Zero-Shot」と呼ばれる手法を開発しました。
 この結果は、研究者がニューラルネットワークを堅牢でなくしている共通の特徴を特定し、AIをより信頼性の高いものにする手法を開発するのに役立つ可能性があります。
 本研究成果はアメリカの雑誌「PLOS ONE (2022)」に2022年4月27日(水)に掲載されました。

画像認識AIは強力だが柔軟性に欠け、特定のデータで学習させないと画像を認識することができない。ロー・ゼロショット学習では、研究者が画像認識AIに様々なデータを与え、その答えのパターンを観察する。AIが一貫した答えを出せば出すほど、少し変わった画像にも強くなる。研究チームは、この方法論が将来のAIのロバスト性向上に役立つことを期待している。

用語解説

(※1) ニューラルネットワーク
人工ニューラルネットワークのこと。人工ニューロンと呼ばれるユニットやノードの集合体に基づいており、生物の脳のニューロンをモデル化したものです。
(※2) ロバスト性
ロバスト性とは機械学習モデルが騙されないようにする能力のことです。例えばモデルが画像の分類を行うときに、入力の変化を行うことで望んだ分類結果とは異なる結果を得られるような敵対的アルゴリズムが存在しています。

論文情報

掲載誌:PLOS ONE (2022)
タイトル:Transferability of features for neural networks links to adversarial attacks and defences
著者名:Shashank Kotyan, Moe Matsuki, and Danilo Vasconcellos Vargas,.
DOI: 10.1371/journal.pone.0266060