一般社団法人 全国個人事業主支援協会

COLUMN コラム

前回の最後、生成AIの「ハルシネーション」について簡単に触れた。
ChatGTPでもハルシネーションは割と遭遇することがあった。
再度言うと、ハルシネーションとは「無いものをあるかのように言ってしまうこと」だ。

前置きなく「探してください」系の返信として発生する。

探し物をするときはChatGTPの回答は30%〜50%ぐらいの信頼度と受け取り、結果を必ず別の角度から確認すべきだ。
丸っきり信じるのは本当に危ない。

しかし、ファーストの質問の回答は方向性を知るガイドとしては使える。
一からGoogleで検索するよりは効率が良い。
このくらいの力加減で使うのが良いだろう。

直近で私が遭遇したハルシネーションは、A5SQLというSQLをGUIで取り扱うアプリケーションである設定を探してたときだ。

まず、ChatGTPに実現方法を聞いたら詳しく回答が返ってきたが、実際にそのメニューを見ると無い。
詳しくさらに突っ込んで聞くと、アプリケーション系の割とあるあるのパターンとして「バージョンが違うかも」との回答。
仕方ないので、目についたオプションのプルダウンやチェックボックスを一つ一つ試していって、欲しい設定が見つかった。

今回は欲しい設定が見つかったのでラッキーだったが、私は前に別のアプリケーションで欲しい設定が無くて諦めたことがある。
何度もChatGTPに聞いてバージョンを替えてインストールし直したけど、最後まで見つからなかったケースがあった。

Xで見た例では、法的な例をChatGTPに聞いたところ回答が返ってきたが、元資料を見ると無い条文が挙げられていたという投稿を見た。
法律面でハルシネーションが起こると非常に怖い。

「探し物において生成AIではハルシネーションがある」ことを前提に使用することは非常に重要なことだ。
ゆめゆめ忘れないようにしつつ、うまく生成AIと付き合っていきたい。

The following two tabs change content below.

今成 匡志

IT業界20年、その中でフリーランスSEは10年になる40代エンジニアです。 新卒と35歳のときにリストラに会った氷河期世代でもあります。 個人的に最も興味あるのは、技術メインではなく「仕事が出来て稼げるSEはどのような性質があるか?」という点です。 もちろん技術そのものにも興味がありますし、技術がどのように世の中に使われているか?ということにも興味があります。 上に挙げたような切り口から記事を書いていきたいと思います。

この記事をシェアする

  • Twitterでシェア
  • Facebookでシェア
  • LINEでシェア