From長田 真毅
ChatGPT(生成AI)に関して、前に成澤が
「ChatGPTは嘘をつくことがある」って
言っていたんですが、
実は、その「ChatGPTがつく嘘」に
ちゃんと名前があるのを見つけました。
今日はその名前について
書こうと思うんですが、
ちなみにその名前、何というと思いますか?
ちょっと考えてみてください。
・・・
・・・・・・
・・・・・・・・・
正解は、
「ハルシネーション」と
言うのだそうです。
このハルシネーションと言う単語ですが、
ChatGPTに聞いたらこんな答えが返ってきました。
生成AIにおける「ハルシネーション」とは、AIモデルが現実とは異なる、または事実に基づかない情報を生成することを指します。これは特に、言語モデルや画像生成モデルなどの生成AIシステムにおいて見られる現象です。ハルシネーションは、以下のような要因で発生することがあります。
1.トレーニングデータの限界:
生成AIモデルは、トレーニングデータに含まれる情報に基づいて学習します。このデータが不完全、偏っている、または特定のパターンや例外を十分にカバーしていない場合、モデルは不正確または現実と異なる出力を生成することがあります。2.コンテキストの欠如:
生成AIモデルは、与えられた入力に基づいてのみ動作します。入力が不完全であるか、特定のコンテキストを欠いている場合、モデルは誤った解釈や不適切な応答を生成する可能性があります。3.オーバーフィッティング:
生成AIモデルがトレーニングデータに過度に適合し、新しい、見たことのないデータに対して一般化する能力が低い場合、予期しない結果やハルシネーションを引き起こす可能性があります。4.複雑な入力に対する解釈の困難:
特に複雑な問いかけや多義的な入力に対して、生成AIモデルが正確な解釈を行うことは困難であり、これがハルシネーションの原因となることがあります。
生成AIモデルが作り出すハルシネーションの防止や緩和のためには、より包括的で多様なデータセットを使用する、モデルの一般化能力を強化する、入力データの質を改善するなどの方法が採られます。また、モデルの予測を人間が監視し、誤った出力を修正することも一つの対策です。
とのこと。
他のサイトでも調べてみましたが、
内容はほぼ同じでした。
色々調べてみると、
どうやらChatGPTなどの生成AIは
・学習に用いたデータとは異なる事実の出力をしたり
・学習に用いたデータには存在しない事ことを出力したり
間違いにも2つ種類があるようなんですね。
あとは、質問がマニアックすぎるのも
生成AIが理解できなくて間違いやすいそうです。
こういったところに気を付けながら
ChatGPTなどの生成AIを
上手に使っていきたいですね。
ちなみに余談ですが、
元々「ハルシネーション」という言葉は
「幻覚、(幻覚によって生じる)幻、妄想」
という単語だそうで、
生成AIにおける「ハルシネーション」という単語は
この精神的な現象から派生したもので、
生成AIが実在しないデータや情報を
「生成」することを比喩的に表しているそうです。
正確なはずのシステムが
作り出す幻覚ってなんか面白いですね。
今日の話が参考になれば幸いです。
本日も最後までお読みいただき
本当にありがとうございました!
参考:ハルシネーション | 用語解説 | 野村総合研究所(NRI)
PS.
今回のサムネは
「ロボットが生み出すHallucination」
という言葉で生成した画像です。
めっちゃ未来っぽいですねw