スタンフォード大がAIによる意思決定の不公平性を修正する手法!

アルゴリズムによる予測をもとにした意思決定が幅を利かせるにつれて、その不公平性が問題視されてきている。

こうしたなかスタンフォード大学の研究チームは、医療における予測アルゴリズムの不公平性を修正する手法について検討している。

オールマイティな修正はむつかしいとの結果に

研究チームは、予測アルゴリズムを修正するためのアプローチを評価すべく、スタンフォード大学の電子健康記録データを用いて、患者の死亡、入院期間延長、30日間以内の再入院を予測した。

その際、年齢、民族、性別、人種といったサブグループごとにデータセットを分割。さまざまな公平性の基準にて予測に修正を施している。最終的に、サブグループごとに公平性とパフォーマンスのマトリックスが得られた。

結果として、元の予測結果の不公平性を修正する各アプローチはうまく機能したが、信頼性が低下するなどパフォーマンスが犠牲になっていたとのこと。さらには、各アプローチは互いに矛盾しており、公平性についての特定の基準を満たせば、ほかが満たされないことが示された。

ケースによって公平性の基準を変えて対応

治療プログラムの対象患者を決定するアルゴリズムの例では、医療費の公平性を基準にしたことで治療機会が不公平なものに。黒人は白人よりも重病でないと治療プログラムが受けられないとの状況が発生した。

研究チームは、ツールの限界を把握しておき、ケースに応じた公平性の基準を適用することでアルゴリズムがうまく機能する可能性があるとしている。

ただ、複数の公平性の基準を適用してもなお機能しないケースもあり、その際はアルゴリズムの完全な放棄を検討する必要があるとしている。

参照元:When Algorithmic Fairness Fixes Fail: The Case for Keeping Humans in the Loop/ Stanford University HAI


Amazonベストセラー

返信を残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA