サイトアイコン IT NEWS

メイン大が説明可能なAI「ProtoPNet」を開発!

AIによる予測は、有用性が示されたとしても、それがどのように導き出されたかを理解するのはむつかしい。いまやAIシステムが重要な意思決定に関わることも多く、推論プロセスを説明可能なものにしようとの動きがある。

そんななかメイン大学の研究者は、AIによる予測をユーザーが理解できるようなかたちにしようと取り組んでいるようだ。研究者の開発する機械学習アーキテクチャ「ProtoPNet(Prototypical Part Network)」は、画像とデータから予測を導き出すと同時に、その理由を説明することができる。

鳥の画像認識で予測の理由を説明してくれる

研究者は、説明可能なAIを示すために、まずは画像分類のベンチマークとして一般的な鳥の画像認識をテーマとして選んだ。ProtoPNetは、画像中の鳥の種類を予測し、その理由を説明する。

ProtoPNetをトレーニングし、鳥の種類を特定するための特徴を学習した。学習した特徴と、画像中の鳥のさまざまなパーツを比較して、その種類を予測する。

例えば、画像中の鳥の頭を認識して、さまざまな種類の鳥の特徴と比較する。予測を導き出した際には、頭がシジュウカラのものに似ているから…などとその理由が説明できるだろう。

乳がんの画像診断にも適用

鳥の画像認識はわかりやすい例だったが、これ以外にも研究者は、ProtoPNetを乳がんの画像診断に適用しようとしている。

マンモグラフィーによる画像から乳がんの兆候を発見するためには、医師はトレーニングを積む必要があるとのこと。ProtoPNetは乳がんの兆候を特定するための重要な部分とパターンを学習し、診断後に理由として示すことを目指す。

この説明可能なAIは、さまざまなアプリケーションに適用できて、推論プロセスの透明性を高めてくれそうだ。

参照元:UMaine computer scientist researches interpretable machine learning, develops AI to explain its discoveries/ UMaine News

モバイルバージョンを終了