前回の最後、生成AIの「ハルシネーション」について簡単に触れた。
ChatGTPでもハルシネーションは割と遭遇することがあった。
再度言うと、ハルシネーションとは「無いものをあるかのように言ってしまうこと」だ。
前置きなく「探してください」系の返信として発生する。
探し物をするときはChatGTPの回答は30%〜50%ぐらいの信頼度と受け取り、結果を必ず別の角度から確認すべきだ。
丸っきり信じるのは本当に危ない。
しかし、ファーストの質問の回答は方向性を知るガイドとしては使える。
一からGoogleで検索するよりは効率が良い。
このくらいの力加減で使うのが良いだろう。
直近で私が遭遇したハルシネーションは、A5SQLというSQLをGUIで取り扱うアプリケーションである設定を探してたときだ。
まず、ChatGTPに実現方法を聞いたら詳しく回答が返ってきたが、実際にそのメニューを見ると無い。
詳しくさらに突っ込んで聞くと、アプリケーション系の割とあるあるのパターンとして「バージョンが違うかも」との回答。
仕方ないので、目についたオプションのプルダウンやチェックボックスを一つ一つ試していって、欲しい設定が見つかった。
今回は欲しい設定が見つかったのでラッキーだったが、私は前に別のアプリケーションで欲しい設定が無くて諦めたことがある。
何度もChatGTPに聞いてバージョンを替えてインストールし直したけど、最後まで見つからなかったケースがあった。
Xで見た例では、法的な例をChatGTPに聞いたところ回答が返ってきたが、元資料を見ると無い条文が挙げられていたという投稿を見た。
法律面でハルシネーションが起こると非常に怖い。
「探し物において生成AIではハルシネーションがある」ことを前提に使用することは非常に重要なことだ。
ゆめゆめ忘れないようにしつつ、うまく生成AIと付き合っていきたい。