- Original:https://japan.cnet.com/article/35204671/
- Source:CNET Japan 最新情報 総合
- Author:
OpenAI、AIモデルの「幻覚」を軽減する手法を報告
OpenAIは新たな研究論文に関する投稿記事の中で、AIモデルをより論理的に動作させてハルシネーション(幻覚:AIが事実と異なる情報を勝手に作り出してしまう現象)を回避する方法を発見したかもしれないと述べている。