Research Interests

現在は「本物の脳(天然知能)」と「計算機の脳(人工知能)」における視覚認識の振る舞いの差に着目し、より堅牢でヒトに近い振る舞いを示す人工知能モデルの確立を目指して研究を行っています。

1. 敵対的サンプル(Adversarial Examples)の解明

深層学習モデル(CNN等)において、人間の目には判別不能な微小な摂動を加えるだけで誤認識を引き起こす「敵対的サンプル」の問題に取り組んでいます。 この脆弱性は、自動運転や顔認証などの社会実装における大きな障壁となるだけでなく、脳の視覚野の構造を参考にしたはずのCNNが、なぜヒトとは全く異なる誤認識を起こすのかという学術的な問いを含んでいます。

2. 深層学習モデルの堅牢性(Robustness)向上

敵対的サンプルに対する防御手法として、以下の多角的なアプローチを検討・検証しています。

  • 線形性仮説の検証: 高次元線形モデル特有の振る舞いが誤認識を招くという仮説に基づいた、ネットワークの非線形性の解析。
  • 生物学的知見の導入: 脳の自発的な活動メカニズムをヒントに、ノイズ注入(Parametric Noise Injection)等によるモデルのロバスト性向上。

3. バイオインスパイアードAIの確立

脳における情報処理の仕組みを人工知能モデルへと還元し、現在のAIが抱える「脆さ」を克服した次世代のアルゴリズム構築を目指しています。この研究を通じて、逆に人工知能の振る舞いから脳の情報処理の謎を解き明かす、双方向的な理解の深化を狙いとしています。