- 投稿日:2025/10/01

嘘つきChatGPT
私は日常的にChatGPTを使っています。
しかし、よく
「嘘つき」とパソコンに向かって言う事もあります。
計算はよく間違えるし、リモコンの操作を聞いているのに、
全く違った回答が来ることがあったり
嘘をつかれた回数なんて、片手では収まりません。
しかし
ChatGPTは意図的に嘘をついているわけではありません。
だから怒ったとしても反省はしてくれません。
ただ
仕組みとして「もっともらしい文章」を作ることに長けているため、
情報源が曖昧な場合でも、それらしく答えてしまうのです。
利用者側からすると「嘘をつかれた」と感じるわけですが、
これはAIの特性ゆえの現象です。
私が実践している対策
私が工夫しているのは、ChatGPTに問いかける際に
**「ハルシネーションを起こさないでください」**
と前置きすることです。
この一言を入れることで、ChatGPTは事実に近い範囲から回答を組み立てようとします。
ハルシネーション(hallucination)」=AIがもっともらしいけれど事実と異なる情報を答える現象。

続きは、リベシティにログインしてからお読みください