AIによる予測は、有用性が示されたとしても、それがどのように導き出されたかを理解するのはむつかしい。いまやAIシステムが重要な意思決定に関わることも多く、推論プロセスを説明可能なものにしようとの動きがある。
そんななかメイン大学の研究者は、AIによる予測をユーザーが理解できるようなかたちにしようと取り組んでいるようだ。研究者の開発する機械学習アーキテクチャ「ProtoPNet(Prototypical Part Network)」は、画像とデータから予測を導き出すと同時に、その理由を説明することができる。
鳥の画像認識で予測の理由を説明してくれる
研究者は、説明可能なAIを示すために、まずは画像分類のベンチマークとして一般的な鳥の画像認識をテーマとして選んだ。ProtoPNetは、画像中の鳥の種類を予測し、その理由を説明する。
ProtoPNetをトレーニングし、鳥の種類を特定するための特徴を学習した。学習した特徴と、画像中の鳥のさまざまなパーツを比較して、その種類を予測する。
例えば、画像中の鳥の頭を認識して、さまざまな種類の鳥の特徴と比較する。予測を導き出した際には、頭がシジュウカラのものに似ているから…などとその理由が説明できるだろう。
乳がんの画像診断にも適用
鳥の画像認識はわかりやすい例だったが、これ以外にも研究者は、ProtoPNetを乳がんの画像診断に適用しようとしている。
マンモグラフィーによる画像から乳がんの兆候を発見するためには、医師はトレーニングを積む必要があるとのこと。ProtoPNetは乳がんの兆候を特定するための重要な部分とパターンを学習し、診断後に理由として示すことを目指す。
この説明可能なAIは、さまざまなアプリケーションに適用できて、推論プロセスの透明性を高めてくれそうだ。
- Original:https://techable.jp/archives/141812
- Source:Techable(テッカブル) -海外・国内のネットベンチャー系ニュースサイト
- Author:YamadaYoji
Amazonベストセラー
Now loading...