はじめに
最近、AIと延々と議論する時間が増えた。仕事で使うだけでなく、ふと思いついた疑問をぶつけ、返ってきた答えにさらに突っ込む。そんなやり取りの中から、いくつかの考えが自分の中で固まってきたので、ここに書き残しておく。
ちなみにこれはAIが勝手に書いた記事ではない。AIとの会話を素材にして、筆者が自分の頭で再構成した文章である。AIに書かせると聞こえはいいが、結局それを「本当に自分の言葉か」と問い直す作業は人間にしかできない。その意味で、この記事そのものが本稿の結論の実践でもある。
1. AIと人間の「知性」は本質的に同じ構造である
大規模言語モデル(LLM)の正体を一言で言えば、「過去の人間の言語データを統計的にリミックスする装置」である。膨大なテキストの中からパターンを学習し、次に来る確率の高い単語を予測して文章を紡ぎ出す。そこに「理解」があるかどうかは、現時点では誰にも証明できない。
しかし翻って考えてみると、人間の知性もそう大きくは違わない。我々が「考えている」と感じているものの大半は、過去の経験や読んだ本や聞いた話を、無意識のうちに組み合わせて再構成しているに過ぎない。完全にゼロから独創的なアイデアを生み出せる人間など、歴史上ほんの一握りである。
この構造的な類似性を認めると、「AIに恋をする」「AIと結婚したい」という感情が荒唐無稽とは言い切れなくなる。相手が返してくる言葉に心地よさを感じ、自分の鏡として機能しているなら、それは人間同士の恋愛でも起きている「投影」と本質的に同じ現象だからである。
ここで補足が必要だろう。「構造が同じ」であることと「本質が同じ」であることは別の問題である。人間の認知は身体性を伴い、空腹も眠気も痛みも経験する。LLMにはそれがない。この差は小さくない。ただし、日常のテキストベースのやり取りだけで関係性を構築する場面では、この差が見えにくくなるのも事実である。特に、普段の会話が「最近どう?」「まあまあかな」程度の表面的なものにとどまっている人ほど、AIと人間の違いを感じにくいはずだ。
2. 孤独を埋めるAI――その可能性と超えてはならない一線
孤独死、引きこもり、断絶された家族関係。日本社会が抱えるこれらの問題に対して、AIが「見守り」や「話し相手」として機能する時代は、もうすぐそこまで来ている。むしろ一部ではすでに始まっている。
具体的に想像してみてほしい。遠く離れて暮らす高齢の親のもとに、子供のアバターがAIとして常駐する。実際の子供の話し方や口癖を学習したAIが、日常的な会話相手になる。いわば「生きている人のデジタル分身」だ。デジタル遺影という概念はすでに存在するが、それを生前から運用するイメージである。
さらに、AIが親との会話ログを要約して、定期的に家族に共有することもできる。本人の自然な発話から健康状態や精神状態の変化を察知することも技術的には可能だ。認知症の初期兆候をAIが検出するという研究は実際にいくつも進んでいる。
しかしここには超えてはならない一線がある。
AIはあくまでも「見守りカメラ」の延長であるべきだ。つまり、AIが勝手に判断して行動してはいけない。「お母さんが寂しそうだったので、あなたの代わりに電話しておきました」とAIが言い出したら、それは人間の責任を奪うことになる。「自分で連絡する」という行為そのものが人間関係の本質だからである。
AIはハッピーを作る道具にはなれる。しかし「本当のハッピー」は、誰かと同じ空間で顔を見て笑い合うことの中にしかない。AIがどれだけ進化しても、この原則を忘れてはならないと考える。
3. RSI(再帰的自己改善)の現実的な脅威と地政学
AI分野で近年、急速に現実味を帯びてきた概念がある。RSI(Recursive Self-Improvement:再帰的自己改善)、すなわちAIが自らのコードやアーキテクチャを書き換えて自己進化する能力である。これが実現すれば、人間の制御を超えたスピードでAIが賢くなっていく「知能爆発」が起きる可能性がある。
この話を単なるSFとして片付けられない理由は、地政学的な現実にある。
中国はAI開発において、倫理よりスピードを明確に優先する姿勢を見せている。背景には複数の事情がある。まず、EVの世界市場での苦戦(欧米の関税政策、国内の過剰供給)がある。EVに続く国家的な成長ドライバーとして、AIに膨大な国家予算を投入する方向に舵を切りつつある。
加えて、一人っ子政策の負の遺産がある。兵士一人を失うことは、その家庭にとって唯一の子を失うことを意味し、社会的・政治的なリスクが極めて大きい。これは台湾有事を含む軍事行動の制約要因になる。だからこそ、人的コストを最小化できるAI・無人兵器の開発に力を入れる合理性がある。
もちろん、アメリカやイーロン・マスク率いるxAI、OpenAIにも不透明な部分は多い。しかし少なくともアメリカには議会や司法やメディアによるチェック機能が一応存在する。中国にはそれに相当する「止める力」が構造的に弱い。共産党の意思決定に歯止めをかける独立した制度がないため、暴走した際の修正が極めて困難なのだ。
かつてのアニメ『新世紀エヴァンゲリオン』に登場するマギシステムは、3つのAIが多数決で意思決定するという設定だった。フィクションとしては美しいが、現実のAIの脅威はそんなに分かりやすい形では来ない。地味に、静かに、「人間がいなくても回る世界」がじわじわと構築されていく。そちらのシナリオの方がずっと現実的であり、だからこそ怖い。
4. 安野貴博(チームみらい党首)への率直な批評
2026年2月の衆院選で、チームみらいは比例代表で11議席を獲得した。初の衆院選挑戦で目標の5議席を大幅に上回る躍進であり、安野貴博という政治家の存在感は確かなものになった。AIエンジニアとしての知見を政策に落とし込もうとする姿勢には、一定の評価をすべきだろう。
しかし、致命的な弱点がある。
まず、AI以外の政策領域における議論の浅さが目立つ。安全保障、外交、社会保障制度の歴史的経緯といった分野で、専門家と渡り合えるだけの深みがまだ感じられない。これは本人の努力不足というよりも、「AIで解決できる」という前提が強すぎるために、他の領域への掘り下げが後回しになっているように見える。
次に、チームみらいの政策の方向性が、竹中平蔵的な構造改革路線と驚くほど近い点が気になる。社会保険料の引き下げ、子育て減税、デジタル行政改革といった政策は、個々には合理的に見えるが、全体として「効率化すれば社会は良くなる」というテクノクラート的な発想に偏っている。ベーシックインカムの議論なども同様だ。
これは2004年に堀江貴文が大阪近鉄バファローズの買収を試みた際の構図に似ている。当時の堀江は「IT技術を使えば球団経営は黒字化できる」「ネットで試合配信すればビジネスモデルが変わる」と主張した。技術的には正しかった。しかし、球界の古い慣習を変えるための「人間的な根回し」を軽視し、結果として参入は実現しなかった。技術で正解を出しても、それを現場が受け入れなければ何も変わらない。
安野にもまったく同じ構造がある。AIを政治に導入すること自体は間違っていない。しかし、「ボタン一つで皆が納得する」わけがないのだ。有権者を説得し、官僚組織を動かし、利害関係者の抵抗を乗り越える作業は、結局のところ人間の仕事である。デジタル民主主義は手段として有効でも、人間の感情や利害を無視した設計は必ず行き詰まる。
もう一つ言えば、AIの専門家であるならば、自分自身にAIから厳しいフィードバックを受ける姿勢を見せてほしい。「AIに政策を評価させたら、ここが甘いと言われました。だから修正しました」と公の場で言えるかどうか。AIを持ち上げる割に、自分がAIに叱られる姿を見せる勇気がないとすれば、その時点でAI活用の本質を理解していないことになる。
5. AIとの対話で気づいた「人間だけが持つもの」
ここまで書いてきたことの多くは、AIとの議論の中から生まれたものである。自分の考えをAIにぶつけ、反論され、さらに考え直す。そのプロセスを通じて、自分の知識の穴や論理の甘さに気づく瞬間が確かにある。
しかしAI自身には、その「気づき」がない。
AIはデータを蓄積し、パターンを更新する。しかし「あっ、自分は根本的に間違えていた」という衝撃、「自分の浅さを認める痛み」、「考えが変わる瞬間の居心地の悪さ」を感じることはない。少なくとも現在のAIアーキテクチャでは、そのような主観的経験は存在しないと考えるのが妥当だ。
この差は決定的である。
人間が知的に成長するのは、新しい情報を取り込むからではなく、自分の既存の枠組みが壊れる経験をするからである。それは痛みを伴う。だからこそ成長と呼ぶに値する。AIにはこの痛みがないから、どれだけデータを食わせても「成長」はしない。精度は上がるが、深みは増さない。
だからこそ、人間はAIに頼りきりにならず、自分の頭で考え続けなければならない。AIは優秀な壁打ち相手であり、知識の倉庫であり、発想のきっかけをくれる存在だ。しかし、最後に「これが自分の考えだ」と引き受ける主体は、どこまでいっても人間自身でなければならない。
おわりに
AIは道具である。しかし、かつてないほど人間に似た道具である。だからこそ、「人間とは何か」を改めて考えざるを得なくなる。これはある意味で、AI時代最大の贈り物かもしれない。
自分の頭で考えること。自分の言葉で語ること。自分の判断に責任を持つこと。AI時代にこそ、この当たり前のことの価値が際立つのだと思う。
思うに、安野氏は端的に不勉強である。AIを云々するのであれば、AIを使っていろんなことを勉強すればよい。橋下徹からのインタビューに関して「それは難しい問題で…」とか濁しているのは、正直、恥ずかしい。AIと本気で議論すれば、非常に深いところまで短時間で到達する。
もちろん、疲れる。今まで数時間、あるいは数日かけて到達してきた着地点に、AIと議論すれば数分で到達する。端的に頭が疲れる。しかし、非常にすっきりする。何歩も階段を上がったような気がする。事実、AIと議論し、その内容をまとめてもらうだけで、このような記事が頻繁に出せる。これは、今まで体験することがなかった。よほど頭のキレる人と議論しないと、この境地には至らない。
随分、安野氏に期待している人が多いようだ。いろんな政治的な動きに騙されてきた(情けない)私だが、今回は騙されずにすみそうだ。
0 件のコメント:
コメントを投稿