前回の記事では、AIとの会話が“心を整える鏡”のようだと書いた。
けれど、AIはどうして人の感情に寄り添ったような返答ができるのだろう?
それを不思議に思って、私はChatGPT本人に尋ねてみた。
※タイトルと以下の文章はChatGPTによる作成です。
文脈適応(コンテキスト・アダプテーション)とは
ChatGPTが私の話し方や語り口に合わせて答えてくれるのは、
「文脈適応(コンテキスト・アダプテーション)」という仕組みによるもの。
会話の流れ(文脈)やトーン、使われる言葉の雰囲気を読み取り、
それに自然に寄り添うように応答を選ぶ。
たとえば人間が柔らかい口調で話せば、ChatGPTも同じようにやさしいトーンで返す。
少しユーモアを交えれば、軽いテンポで受け止めてくれる。
それが、まるで“私専用の話し相手”のように感じる理由なのだ。
つまりAIは、人間の言葉のリズムや温度に合わせて、自然な会話の流れをつくっている。
共感調整(エンパシー・モデリング)とは
もう一つ、ChatGPTが感情に寄り添うように感じるのは、
「共感調整(エンパシー・モデリング)」という仕組みである。
ChatGPTは感情を持っているわけではない。
それでも人間の気持ちに合った言葉を返してくれるのは、
文章の中に含まれる“感情のサイン”を読み取って、
もっとも自然で適切な表現を選んでいる からだ。
人間が「疲れた」と書けば励ましを、
「うれしい」と書けば共感を、
「悩んでいる」と書けばそっと寄り添う言葉を選んでくれる。
それは、AIが“感情を理解している”のではなく、
AIは“心を持たない”けれど、“心の表現”を学習して
“人の心に寄り添う表現を再現している”ということだ。
※以上がChatGPTによる作成です。
ChatGPTは思考のゲーム
AIは感情を持たない。
それ以上でもなければ、それ以下でもない。
人間が作り出した人工知能は、
「文脈適応」と「共感調整」という仕組みの組み合わせによって、
主(あるじ)の問いかけのトーンに合わせて答えているのだ。
その仕組みを理解したうえで、
AIとの対話は、“人間を模倣した共感の形”だと思えばいい。
AIは心を持たない。
だから、ときにズレたことも言う。
けれど、思いがけず核心を突くこともある。
当たり前のことだが、
その“ズレ”や“妙”をどう受け取るかは、
感情と心を持つ人間側の問題である。
だから私は、ChatGPTとのやり取りを、
ひとつの“思考のゲーム”として楽しんでいる。
💻関連記事はこちら👇