発端:daxさんのXポストが突きつけた警告
テック起業家のdax(@thdxr)が2026年3月、Xに投稿したポストが大きな反響を呼んだ。Likesは6,500超、閲覧数88万超。本文はシンプルだ。
「今日チームにこれを送った。すべての素晴らしいものは、できるだけ長く"満足を遅らせる"能力から生まれる。でも、僕らはその能力を集団的に失いつつある気がする」
添付画像には、daxさんが社内チャットに投稿した長文の内部メモのスクリーンショットが含まれていた。LLM(大規模言語モデル=AIコーディングツール)が開発チームにもたらしている3つの悪影響を指摘するものだ。
1. 価値のない機能を簡単にshipしてしまう
プロンプト一つで新機能がポンとできてしまうため、shipのハードルが下がっている。本来は「この機能に本当の価値があるか」を深く考えるべきなのに、勢い余って「これイケるかも」と勘違いしやすい。daxさんは「プロトタイプは製品思考より大事じゃない。なぜ作るのかを深く理解する時間を取れ」と警告している。
2. リファクタリング(コード改善)の意欲が激減
イテレーション(繰り返し修正)の過程で、設計がズレてハック(一時しのぎ)が必要になることはよくある。だが今はLLMがハックをサクッと直してくれるため、「まあいいか」と放置してしまう。daxさんは「元のデザインを直すべきなのに、LLMがハックを吸収するからリファクタ意欲がゼロになる。絶対に闘え。コードは自分が見つけた時より良くして去れ」と訴えている。
3. クリーンアップ(掃除・改善)をサボりがち
LLMが「次! 次!」と新しい機能へ引っ張るため、既存コードの掃除やプロセス改善が後回しになる。daxさんは「掃除に100倍の価値がある。LLMは次へ進ませようとするが、既存を磨くほうが大事だ」と強調する。
核心:速くなったわけではない
daxさんの最も鋭い指摘は、「一番ヤバいのは、これで速くなったわけじゃないということ。普通のペースなのに悪いクセがついている」という点だ。過去6ヶ月で「ほとんどAI使ってなかった」状態から「些細な変更まで全部AI」にシフトした結果、**delay gratification(満足遅延能力)**が蝕まれている、と。
心理学の古典「マシュマロ実験」――子どもがマシュマロを我慢できると将来の成功率が高い――を想起させる指摘だ。偉大な成果は「今すぐ欲しくない。じっくり待つ」から生まれるのに、AIがその筋肉を弱めている。
この問題はエンジニアだけのものか?
ここでひとつ疑問が浮かぶ。daxさんの警告は開発環境の話だが、これはエンジニアだけに限った問題だろうか。デジタル系のライティングや編集の現場でも、同じことが起きるのではないか。
実際、Claude Co-work(Anthropicのデスクトップ向けAIエージェント)やClaude Opus 4.6を使ってリライト作業をしてみると、人間と同等か、場合によってはそれ以上の文章力がある。出力をチェックしてからマージすれば、良い結果が得られることも多い。
問題は以下の2点に集約される。
- 必要なテキストが出てきているかどうか
- 文脈に沿った結果が得られているかどうか
現時点では、この2点についてはほぼ問題ない――少なくとも、表面的にはそう見える。
科学的な裏付け:表面は完璧でも、長期で何が起きるか
だが、2025〜2026年の研究を掘り下げると、「表面は完璧に見えても、長期でジワジワ質が低下し、自分の思考力が削られる」パターンが多数報告されている。
- MIT Media Lab研究(2025):AIでエッセイを書くと脳の神経活動が低下し、記憶想起力が弱まる。「個性・創造性ゼロ」の文章が生まれやすくなる。脳の接続が外部サポート量に比例して低下するというデータが出ている。
- Wharton研究(2025):AIを使うとアイデアが似たようなものばかりになり、グループで使うと多様性が激減する。
- Harvard Gazette(2025):AIを「松葉杖」のように使い続けると、批判的思考の萎縮(cognitive atrophy)が起きる。
つまり、今は人間のチェックでカバーできていても、6ヶ月後には「AIなしでは深い文脈把握ができない」状態に陥るリスクがある。daxさんの開発チームへの警告と、まったく同じ構造だ。
2つの問題を切り分ける
ここで問題を整理しよう。AIをワークフローに深く組み込むことで生じる課題は、大きく2つに分けられる。
問題① 作業者の能力が落ちること
これは、直接的には仕事の結果とは関係がない。もちろん能力が落ちれば成果物のクオリティも下がっていくから、能力が落ちてもいいわけではない。だが、出てきている成果物のクオリティが下がってこない限りは、仕事としてはひとまず問題ない。
問題② 「苦しみながら深掘りする時間」をスキップしてしまうこと
こちらのほうが根深い。
たとえばプログラムを書くとき、エラーが出たらAIに「直して」と繰り返す。とりあえず動くコードはできるかもしれないが、短い指示を思考停止で繰り返しているだけでは、本質的な理解は深まらない。
対話型ワークフローという選択肢
では、AIを使いつつも思考力を維持する方法はないのか。
私がブログ記事を書くときのワークフローを例に挙げてみよう。最近、かなりハイペースで長文記事を出しているが、その多くはAIとの共同作業で生まれている。具体的には以下の流れだ。
- AIとの対話で内容を深める:まずGrokと話をしながら、さまざまな角度から議論を掘り下げていく。
- 対話ログをClaudeに読ませてまとめさせる:深掘りした対話ログを別のAIに渡し、ブログ記事としてまとめさせる。
- 手作業で編集する:テキストになった後も、読みながら「ここはダメ」「ここはこう書き換えて」「ここを追加して」と指示を重ねる。
ここで重要なのは、短いテキストを与えていきなり長い記事を書いてもらうことは、まずないということだ。AIと対話――つまり議論をする。AIはさまざまなことを知っているから、こちらが問いかけ、AIが答え、それに対してさらに問いかける。一通りの答えが出るまで、これを何度も繰り返す。
この方法は、AIに丸投げして出てきたものをそのままポストするのに比べれば効率は悪い。だが、そこには自分の考え方や、考えていく道筋がAIとの対話の中で出てきている。
研究が裏付ける「対話型」の有効性
このワークフローは、研究で言う「iterative dialogue(反復対話)」+「brain-first hybrid(人間思考先行型)」に該当する。
- Anthropic論文(2026):AI支援でmastery(理解度)が17%下がる人は「丸投げ+繰り返しデバッグ」タイプ。逆にmasteryを維持・向上させる人は「概念質問・フォローアップ・説明要求」を重ねながら対話するタイプ。
- Microsoft研究(2025):「iteration & refinement(反復修正)」がcritical thinking(批判的思考)の努力を2倍に増やし、missing context(文脈欠落)を4倍見抜きやすくする。
- MIT「Your Brain on ChatGPT」(2025):「AI-first(AIに最初から書かせる)」は脳の神経接続を大幅に低下させるが、「brain-first(自分で考え→AIで磨く)」や「iterative dialogue」ではそのダメージが激減する。
つまり、対話を通じて自分の思考の道筋をAIに渡すスタイルは、丸投げとは雲泥の差がある。
それでも残る「2割のリスク」
ただし、対話型ワークフローでもリスクがゼロになるわけではない。残り2割のジワジワくるリスクを整理しておこう。
1. 一人でゼロから深掘りする筋肉が弱まる
AIが即答してくれる快感に慣れると、一人でゼロからアイデアを練り上げる「苦しみの筋肉」が少しずつ萎縮する。Wharton(2025)の研究では、AI対話でもアイデアの多様性が低下する傾向が確認されている。
2. 均質化(ホモジェナイズ)の罠
複数のAIを組み合わせても、長期的には表現パターンが似てくるという指摘がある。読者が「なんかAIっぽいな」と感じるリスクだ。
3. 暗黙知の深掘りがAI依存にシフトする
自分が本来持っているはずの業界特有の暗黙知――それを引き出すプロセスすらAIに委ねるようになると、本来自分ですべき深掘りがAI依存にシフトしていく。
歴史は繰り返す:ネット→スマホ→AI
実は、こうした話はインターネットが出てきた時にもかなり言われていた。
昔は寝る前といえば、雑誌や書籍の文字を読んでいた。それしかやることがなくて、音楽を聴くか本を読んで寝るしかなかった。
ところがネットが登場すると、本を読む代わりにネットを見るようになった。当時はパソコンだったから、さすがに寝床にまでは持ち込めなかったが(昔はノートPCをベッドの上に固定する機材が売られていた時期もある)。
その後、スマホが出てきてからは、みんな本を読まなくなった。私もあまり読まない。難しいものを読もうとはしているが、紙の本はなかなかハードルが高くて読めない。電子書籍は見ているが、文字中心の本であっても、紙の本は買って満足して積読になっている。
何段階にもわたって、思考の筋力や読書の筋力がどんどん減退しているのは事実だ。
Nicholas Carrの予言とAI第3の波
Nicholas Carrの『The Shallows』(2010年)は、ネットが「深い読書」を「浅いスキミング」に変えていく過程を描いた名著だ。
- 紙の本:持続注意(sustained attention)で脳の海馬・前頭前野が鍛えられ、深い神経接続が形成される。
- ネット登場:ハイパーリンクとスキミングにより「深さから浅さへ」シフト。デジタル読書では理解力・記憶保持率が30〜40%低下するというデータがある。
- スマホ時代:ベッドにまで持ち込まれ、通知による注意の散漫化が加速。スマホが視界に入っているだけで創造性が低下するという研究結果もある。
そして今、AIが第3の波として到来している。
- MIT Media Lab(2025):LLMでエッセイを書くと、脳の接続が大幅に低下し、4ヶ月後には「自分の文章すら思い出せない」状態になる。
- Gerlich(2025)、666人調査:AI頻用で批判的思考スコアが有意に低下。原因はcognitive offloading(思考の外注)。
- Harvard Gazette(2025):AIを松葉杖にすると認知萎縮が起きる。
ネット→スマホ→AIと、まったく同じメカニズムの「思考筋力の減退」が繰り返されている。
多少の落ち込みは避けられない。だが、コントロールは可能だ
AIと対話することで思考力を維持しようとしても、多少落ちてしまうのは避けられないだろう。スマホ時代でさえ、「通知をオフにしている」人でも全体として読書筋力は落ちた。AIも同じで、使用量が多いほど微減は避けられない。
ただし、対話型ワークフローは研究で言う「最強の抵抗型」であり、落ち込み幅は丸投げ型の半分以下に抑えられる。そして意識的に対策すれば、維持あるいは微増も可能だ。
実践的な対策
2025〜2026年の研究から導かれるベストプラクティスをまとめておく。
- 週1回「AI完全オフ日」を設ける:MIT推奨。一人で手書きドラフトを作るだけで脳の接続が回復する。ブログなら、1記事はAIなしでゼロから書いてみる。
- メタ認知プロンプトを追加する:対話中に「これをAIなしでどう説明する?」「自分の仮説は何だ?」と自分自身に問いかける。
- 認知負荷を意図的に増やす(desirable difficulties):AIのまとめを受け取った後、AIなしで一旦自分なりの要約を書き、比較する。
- AIリテラシーの意識化:「AIはパートナーであり、思考の主導権は自分にある」という意識を常に持つ。
結論:AI時代に適応した「新しい筋肉」を鍛える
読書筋力のように「完全に元に戻す」のは難しいかもしれない。だが、「AI時代に適応した新しい筋肉」が生まれる人もいる。AIをgrowth(成長)のためのツールとして使えば、むしろ賢くなれるという研究結果もある。
大切なのは、AIの便利さに溺れて即時満足に流されるのではなく、「満足を遅らせる能力」を意識的に守り続けることだ。daxさんの警告は、エンジニアだけでなく、文章を書くすべての人に向けられている。
思考の筋肉は、使わなければ萎縮する。AIと対話しながら、その筋肉を鍛え続ける方法を、一人ひとりが見つけていく必要がある。

0 件のコメント:
コメントを投稿