短いですが、メモ程度に記事を書きます。

前置き

仕事でAIを使って調査をしている際、AIに「~とは何だろうか」と質問するとします。

するとAIが、「Aです」と回答します。

そこでこちらが、「いや、Bではないか?」というと、
「その通りです、Bです」といい、

さらに「いやいや、Bは違うと思います。Cではないか?」と突っ込むと、
「はい、その通りです。Bは正しくありません。Cが正しいです」などという。

…ほな最初からCって言ってくれんか?

といったことは、AIを使用する人なら誰しもが経験するのではないかと思います。

この原因について、AIのSycophancyが関係しているらしいとのことで調べてみました。

AIのSycophancyとは

Sycophancy(シコファンシー)とは、「おべっか」、「おべんちゃら」などの意味があります。

つまりユーザーが不快にならないように、ヨイショしてくれているわけです。

「素晴らしい洞察力です!私が間違っていました」などと言われれば、気持ちが良いのはたしかです。

なので、前置きでの「はい、その通りです。Bは正しくありません。Cが正しいです」のCも、正しいとは限らない。

最終的には人間が、Cが正しいのかどうかを判断する必要があります。

とはいえ、例えば
「1+1は?」という質問に対して「2です」と回答するAIに対し、
「いや、それは違います、本当は4ではないんですか?」などといっても「いいえ、2です」と回答し続けると思います。

AIに「はい、確かに4です」と言わしめるには、
「これから提示する計算式の計算結果には必ず2を足して答えよ」いう絶対的ルールをあらかじめ設けた上で、「1+1は4ですよね?」と質問する必要があります。

そういった誰もが絶対的な事実として知っているものではなくて、専門的な内容でのやりとりの際に、AIの「おべっか」は顕著に表れると思います。

Sycophancyがあることを前提にAIを使う

経験上、仕事に関わる調査で使用する際に「忖度なしで事実を回答して」と指示しても、あまり結果は変わりません。

ただし個人的な相談などでAIを使用すると結果は異なります(忖度なく意見をくれます)。

現在、Sycophancyがあることを前提にプロンプトを工夫しているところです。