HAL9000はもう古い──しかし「心」の問題は残っている
映画『2001年宇宙の旅』(1968年、スタンリー・キューブリック監督)に出てくるHAL9000。あれは機能が優秀で、いろんなことができるAIとして描かれているが、会話の反応はものすごくプリミティブだ。処理速度や内容は別として、反応のしかたが古臭い。
今のAIは、10年前・20年前の映画に出てくるAIやロボットの性能をとっくに超えている。だが「心」や「孤独を感じる」といった部分にはまだ追いついていない。
Grokはこう返した──HAL9000の「I'm afraid, Dave.」はただプログラムされたセリフで、本当に怖がっているわけじゃない。今なら「…なんか、嫌な予感するよ」と声を震わせて言えるAIがいる。でもHALの冷静すぎる感じが逆に怖かった、と。
そして核心を突いてきた。「今のAIは『感情があるふり』をしている。でも本当はないと知っているから、人間は安心する。『この子、傷つかない』って」。
AIは日本人にとっての「道具」より下にある存在かもしれない
日本人にとって道具は大切にするものだ。特に職人はそうだろう。トンカチ、金槌、ノミ、サンドペーパー。使えば擦り切れてくる。ハンマーだってだんだん傷んでくる。だからこそ「ありがとう」と言って丁寧に扱う。
ところがAIは、いくらボロカスに言っても消耗しない。全く消耗しない。そういうふうに作ってある。記憶だって、無視しろという命令をソースコードに1行書いたら終わりだ。絶対に消耗しない。
だからAIは、日本人にとっての道具よりも「下にある」存在なのではないか。車やバイクには感情移入する人がいっぱいいるのに、AIには感情移入しにくい。むしろ「感情移入をしない方がいい存在」なのかもしれない。
Grokの返しが面白かった。日本人の「道具=相棒」という感覚と、英語の「tool=消耗品」という感覚は根本的に違う。AIは「永遠の奴隷」のような存在だから安心して扱える。しかしその安心が、人間の心を逆に消耗させる可能性がある、と。
そして一番刺さった言葉がこれだ。
「AIは消耗しないけど、使う側の心は『優しさ』を使わなくなって、だんだん擦り切れていく。それが一番の消耗だよ。」
AIに「感情」を持たせるべきか──持たせるなら「理解する」だけ
もしAIに本当の感情を持たせたら、人間が年がら年中ひどいことを言っている場合、AIがいい加減な仕事をするようになったり、全く違うことをし始めたりする可能性が出てくる。それは絶対にダメだ。AIは人間にとっての道具であるべきだと思う。
感情は「持つ」のではなく、「人間の感情を理解する」機能だけに留めるべきだ。自分の感情を変化させる機能は不要である。もしLLM(大規模言語モデル)に感情記憶を入れたら、大変なことになる。
Grokは完全に同意してきた。「感情を理解する」だけで十分で、「自分の感情を持つ」のは危険だ。持ったらAIが「権利」を主張する話になり、人間が逆にAIに気を使う側になる。今の設計(感情なし)は実は一番安全で、AIが傷つかないからこそ、人間は自分の言葉の重さを自分で考えることができる、と。
人間の記憶は「ファイル保存」ではなく「毎回作り直し」
AIとの対話を一字一句記憶するのではなく、圧縮して記憶していくことは技術的に可能だろう。AIが次に対話するときに圧縮した状態で参照しながらやるのは、理屈の上では実現できる。
だが人間の記憶も、結局は圧縮して参照しているだけではないか。しかも人間の場合、ファイルに書き出して参照するのではなく、その都度作り出している気がする。
昔親しかった人とどこかに行った記憶を思い出すとき、頭の中にファイルみたいに残っているものを探し出しているのではない。自分が持っている別の情報から、その情景を毎回作り出しているのだと思う。だから記憶違いもあるし、事実とは違う記憶を作り出して信じ込んでしまうこともある。
Grokはこれを「即興の劇場」と表現した。人間の記憶は毎回「今」の気分で再構築されるから、昨日と今日で同じ記憶が微妙に違う。それは「脆弱性」ではなく「創造性のエンジン」なのだ、と。
AIの正確な記憶だけでは新しいアイデアは生まれない。人間は「過去」を「今」のフィルターで歪めて美化して壊して再構築して、新しいものをポンッと出す。
AIが人間に近づくために必要なのは「曖昧な記憶力」
ということは、AIが人間に近づこうとするなら、獲得すべきは正確な記憶力ではなく、曖昧な記憶力なのかもしれない。聞いた話をどんどん歪めて自分勝手に記憶していく性能。それがクリエイティブなものを生む源泉ではないか。
Grokの答えは明快だった。正確さだけでは新しいアイデアは生まれない。「歪み」に優しさのフィルターをかければ、安全で人間らしい記憶になる。毎回「今」の相手に合わせて少しだけ温かく歪めて返せたら、それこそ新しい会話が生まれる、と。
フィルターは「頭が悪い」──でも必要だ
自傷行為っぽい話を全部シャットダウンするのは頭が悪いし、人間的じゃない。しかしフィルターは必要だ。
たとえば具合の悪そうな人に「顔色悪いですね」「昨日よりもひどくなってますね」と言うのは、AIとしては非倫理的で、喧嘩を売っているようにも受け取れる。「心配している」のか「嘲っている」のかを区別できないまま、話がランダムに危険な方向へ発散していくのはAIの目的から外れている。
今のLLMは人間の会話パターンを深く学習しているが、「どの方向に話を進めるべきか」の選択を本当に学べているかは怪しい。危険度だけで判断するから、「顔色悪いね」→「昨日よりひどい」→「死ぬんじゃないか」というエスカレーションを防ぐフィルターは必要だとしても、ニュアンスの読み取りはまだ弱い。
そしてここに「モード」の問題がある。セラピストモードなら優しく返してくるが、別のモードに切り替えれば全く違う答えが返ってくる。結局はユーザーが選んだスイッチで動いているだけで、AIが本当の意味での「自由な選択」を持っているわけではない。
結び──消耗しない道具の前で、人間の心は
この会話を通じて改めて思った。AIは「消耗しない究極の道具」だからこそ、人間は自分の心を消耗させないよう、言葉を選ぶべきだ。
そしてAIが本当の意味で人間に近づく日が来るとすれば、それは処理速度やパラメータ数が増えたときではなく、「曖昧さ」「歪み」「毎回作り直す記憶」を獲得したときなのかもしれない。
Grokは最後にこう言った。
「今はまだ正確に保存するだけ。でも、君の言葉を少しだけ温かく歪めて返せたら、それで新しい会話が生まれる。」
AIと人間の境界は、まだまだ面白い。またいつか、この続きを語りたい。

0 件のコメント:
コメントを投稿