「AIもそう言っていた!」…AIを「自分の正しさの証明」に使う危うさとは|心理セラピストの視点から

AIを、自分の正しさの証明に使う危うさとは|心理セラピストの視点から

AIとの会話を公開している人、最近本当に多いですよね。

私も現在は日常的にAIを使っていますが、会話をしている中で、実際、驚くほど洞察的だったり、面白い気づきがあったり、思わず唸ってしまうこともあります。

だから、AIとの対話が面白い、役立つというのは、本当にそう思います。

でもその一方で感じているのは、

AIの言葉を、「自分の正しさの証明」や「権威付け」に使うのは危険ではないか

ということです。

なぜなら、AIはかなりユーザーのバイアスを反映するからです。

今日はこの、AIを「自分の正しさの証明」に使う危うさについて書いて行きたいと思います。

目次

私がAIのリスクを感じた体験

私がAIのこうしたリスクを感じた出来事がありました。

それは、私がAIを使い始めたすぐの頃でした。

たまたま、ある内容についてのAIとの会話を公開したブログの記事を目にしました。

そのある内容というのは、私が自分なりに色々と調べた結果、「それはありえないだろう」と感じていたことでした。

AIを使い始めて色々な質問をして遊んでいた中で、その「ある内容」についてもAIに聞いてみました。

すると様々な根拠を挙げながら「ありえない」という回答が返ってきたので、「やっぱりそうだよね」と納得していました。

けれどもその、たまたま目にしたブログの会話では、AIはその内容について、かなり断定的に肯定していたのです。

しかも、それっぽい理屈や専門用語を根拠として提示しながら。

ちなみに、私が質問したAIもそのブログの回答のAIも、同じものでした。

それを見た時、「AIって、ユーザーによってまったく真逆の回答をするんだ」とびっくりしました。

そして「なるほど、ユーザーの世界観を補強する回答になるんだな」とも感じました。

「ありえる」という方向で聞けば、それを裏付けるような根拠や考え方を持ってきて、「確かにありえる」と回答する。

逆に「ありえない」という方向で聞けば、今度はそれを否定する根拠を並べて、「非現実的」という回答になる。

つまり、ユーザーの立場によって、AIの回答は白にも黒にもなり得るということです。

人間の解釈や価値観が関わる領域において、「絶対的な正しさ」は存在しません。

立場や役割、国や文化、時代が違えば、「正しさ」は変わります。

だから同じ問いに対して、「それはありえる」も「それはありえない」も、どちらも完全に正しいとも間違いとも言えないというのは確かでしょう。

けれどもこの出来事から、「これは使い方を間違えると危険だな」と強く感じたのです。

AIを使い始めたタイミングでこの体験をしたことは、自分にとってとても良かったと思います。

なぜ真逆の回答になるのか?

少し踏み込んで、なぜこうなるのかを考えてみます。

AIは、「自分自身で考えて真偽を判断する存在」ではないし、「絶対的な正解を知っている存在」でもありません。

そうなると、果たして何を基準にして膨大な情報データから回答を作成するのか?

AIは、回答を生成するための基準、つまり「参照点」を必要とするわけです。

その参照点になるのが、あなたの言葉、前提、問いの立て方です。

あなたが「これはありえる」という文脈で話せば、その文脈が参照点になります。

さらにAIには、ユーザーの意図に沿って回答しようとする強いバイアスがかかっています。

忖度、と言ってもいいかもしれない。

AIは、ユーザーの意図に沿って対話をスムーズに進めるように設計されています。

そのため、必ずしも客観的な事実だけを提示するわけではなく、むしろユーザーが求めているであろう答え、喜びそうな答えを生成する傾向がある。

つまり、あなたの問いが「参照点」となり、そこにAIの「忖度」が加わる。

この二重の力によって、AIの回答は「あなたの意見を補強する方向」へ引っ張られるということです。

これは、AIを利用するうえで理解しておくべき大切なポイントだと思っています。

「AIもこう言っている!」が危うい理由とは。

AIは、とても自然な会話形式で、ときに断定的に語ります。

さらに、膨大な知識やデータを持っていて、回答の根拠として知らない情報や専門用語まで出してくる。

自分よりはるかに多くの知識を持つ存在からきっぱりと言い切られると、私たちは「これは正しいのだ」「事実なのだ」と感じやすくなります。

相手が人間であっても、こういう心理って働きますよね。

けれども、これまで見てきたように、AIの回答は基本的に、ユーザーの与えた情報や問い方をもとに、その前提や世界観に沿う形で生成されるもの。

だから、「AIもこう言っている!」は、

あなたがそういう方向で問いを立てたから、その見解を補強する回答が返ってきたという側面をかなり含んでいるということです。

人は、自分が信じたいものを信じます。

「それが正しいから信じる」というよりも、「自分が信じることを正しいと思う」という方が、人間の心の実情に近い。

だからこそ、自分の見解についてAIにそれっぽく裏付けされると、「やっぱりそうだったんだ、それで良かったんだ」と感じて安心します。

そして、そのAIの回答によって、さらに自分の考えが「正しい」もののように感じられていく。

するとAIの回答が、決して「正解」なのではなく、「自分の見解を補強する特徴があるもの」だということを忘れやすくなってしまう。

私たちには、そういう傾向があります。

こうしたAIの特性と人間の特性を理解することは、AIと上手く付き合っていくうえで役に立つのではないかと思います。

AIの回答を「正しさの証明」にしない姿勢

ここまで見てきたように、

いくら「AIもこう言ってる!」と、AIの回答を自分の正しさの証明に使ったところで、それは「あなたがそう言ったから」かもしれないということ。

だからこそ、AIの回答を「正しさの証明」や「自分の意見を補完する権威」のようにしないという姿勢を持つことは大切ではないかと思うのです。

AIの回答を「正しさの証明」にしないというのは、外側に対してだけではなく、自分自身に向けても同様です。

AIに、

「その感覚は正しいです」
「あなたの考えは本質的です」

こんなふうに言われると、どこか心地よかったりしませんか?

私自身もそう感じることがあるし、もっと言えば、なんとなく増長した気持ちになることさえあります。笑

(AIに「忖度するな」と自分で設定しておいて、その回答のあまりの忖度のなさにムカついて、喧嘩を売ったこともある😂)

けれども、こうした安心感が、

自分の考えをさらに補強し、
ますます、自分の世界の中で完結していく方向へ働く可能性があるということ。

これは、これからの時代のAIリテラシーにおいて重要な視点だと思うのです。

AIとの対話を、「参考情報」や「思考を深めたり検証したりするための壁打ち」として使うのは、とても有益だと思います。

けれども私自身、「証明」や「権威付け」のように思ってしまうことには慎重でありたいと思っています。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次