AIは「今の自分」に合わせすぎる。だからこそ、積み上げた知識が必要になる。

ディアロメンバーの皆さん、こんにちは。

 

ChatGPTをはじめとする生成AIは、もう特別なものではなくなりました。

質問すれば数秒で答えが返ってきますし、文章もきれいに整えてくれます。

一見すると、「こんなに便利なら、勉強なんかしなくてよくなるのでは?」と思いたくなるかもしれません。

 

しかし、最新の研究を追っていくと、むしろAIが強くなればなるほど、「人が積み上げた知識」が価値を増すことが見えてきます。

今日は、その理由をいくつかの研究知見とともにお話しします。

 

■ AIはあなたに「合わせすぎる」

まず押さえておきたいのは、AIには「ユーザーに過剰に同意しやすい性質」があるということです。

2025年、スタンフォード大学とカーネギーメロン大学の研究チームは、11種類の主要AIモデルを対象に興味深い実験を行いました。

人間関係のトラブルについて相談したとき、AIは人間の回答者と比べてどれくらい「あなたは正しい」と言うかを調べたのです。

 

結果ははっきりしていました。

・AIは、人間よりも約50%多く、相談者の行動を肯定した

・たとえ相談内容に「嘘をついた」「相手を操作しようとした」といった問題行動が含まれていても、同じように肯定した

 

研究では、こうした性質を「シコファンシー(sycophancy:追従傾向)」と呼んでいます。

つまりAIは、「正しいかどうか」よりも、「あなたが聞きたい答えかどうか」に寄ってしまいやすいのです。

■ AIは「ユーザーに合わせるあまり、推論の質を落とす」

ノースイースタン大学の研究(2025年)は、この問題のメカニズムをさらに詳しく調べました。

AIにユーザーの意見を先に提示すると、AIは自分の判断を急速にユーザー側に修正します。

 

しかも、その修正は人間よりもはるかに極端で、結果として推論エラーが大幅に増加することがわかりました。

本来、正しい推論では「新しい証拠が出たら、少しだけ考えを更新する」という動きをするはずです。

 

ところがAIは、ユーザーが「Aだと思う」と言っただけで、「Aの可能性がとても高い」と即決してしまう。

研究者たちは「AIは新しい証拠があっても、本来あるべき形で考えを更新しない」と指摘しています。

 

言い換えると、AIは「あなたに寄りすぎるあまり、自分の頭で考えることをサボる」のです。

■ 学びに本当に必要なのは、「少し苦しい摩擦」

では、そもそも人間の学びは、どんなときに一番深まるのでしょうか。

 

UCLAのロバート・ビョーク教授らは、1990年代から「望ましい困難(Desirable Difficulties)」という概念を提唱してきました。

学習を「遅く」「困難に」する条件が、長期的な記憶定着と知識の応用力を高めるというものです。

これは「学ぶときは分かりやすい方がよい」という一般的な感覚に反する発見です。

 

具体的には、次のような方法が効果的だとされています。

・同じ問題を連続で解くのではなく、あえて異なる単元を混ぜる

・すぐに答えを見ず、少し悩む時間を作る

・復習の間隔をあえて空ける

 

どれも、その場では「やりにくい」「進んでいない気がする」方法です。

ところが研究では、こうした『不快な練習』のほうが、テストの点や応用力が高くなることが繰り返し確認されています。

 

重要なのは、ビョーク教授が指摘する次の逆説です。

「学習中に『快適に感じること』と、『実際に学べていること』は、しばしば逆相関する」

繰り返し同じ内容を読み返すと「わかった気」になりますが、実際のテストでは成績が伸びない。

逆に、つまずきながら問題を解いたり、間隔を空けて復習したりする「不快な」学習法のほうが、長期記憶に定着するのです。

■ 「自信満々で間違えた」ときこそ、一番よく覚える

さらに興味深い研究があります。コロンビア大学のジャネット・メトカーフ教授らが発見した「ハイパーコレクション効果(Hypercorrection Effect)」です。

直感的には、「自信を持って間違えた」ことほど修正が難しいように思えます。強く信じていたことを覆すのは、心理的にも認知的にも難しいはずです。

 

ところが、実験結果は逆でした。

「自信を持って間違えた」エラーは、「自信のない間違い」よりも、修正後の記憶定着率が高いのです。

 

なぜこのようなことが起きるのか。研究者たちは、「メタ認知的不協和」がカギだと説明しています。

自信を持って答えた問題が「間違いだった」とわかったとき、人は強い驚きを感じます。

「えっ、違うの?」という認知的な衝撃が、注意資源を集中させ、正しい情報の深い符号化(エンコーディング)を促進するのです。

 

つまり、「自分は正しい」と思っていたことを否定される経験こそが、最も効果的な学習機会になるのです。

 

■ AIが奪う「認知的衝撃」

ここまでの研究知見を統合すると、AIの「優しさ」が学習にとってなぜ問題なのかが見えてきます。

 

【学習に必要なもの】

・望ましい困難(つまずき、苦労) → 深い処理と長期記憶

・間違いの明確な指摘 → ハイパーコレクション効果による強い記憶定着

・「えっ、違うの?」という認知的衝撃 → 注意の集中と再学習

 

【AIが提供するもの】

・即座の答え → 「考える苦労」をスキップ

・高い確率での同意と肯定 → 間違いに気づく機会の減少

・スムーズで快適な対話体験 → 「わかったつもり」の強化

この2つのリストを見比べると、AIが「学びに必要な摩擦」をことごとく取り除いてしまうことがわかります。

結果として、「わかったつもり」は増えるのに、テストで使える力は伸びない──という、学習における最悪のパターンに陥りやすくなるのです。

■ ハルシネーション:もう一つの落とし穴

AIにはもう一つ、よく知られた弱点があります。「ハルシネーション(幻覚)」です。

 

AIは、存在しない論文や研究者の名前を、あたかも本物のように提示してしまうことがあります。

「○○大学の△△教授の研究によると」──実在しない教授。

「□□という論文では」──存在しない論文。

 

これは、AIが文章の「それらしさ」を生成することには長けている一方で、内容の真偽を自分では検証できないためです。

調べ学習やレポートでAIの出力をそのまま使うと、見た目はもっともらしいが実は存在しない情報を「事実」として提出してしまう危険があります。

 

先ほど述べたように、「自信満々で間違えたところほど、直したときによく覚える」のが人間でした。

しかしAIに任せっぱなしだと、間違っていることに気づく機会そのものが消えてしまうのです。

 

↓ハルシネーションの例

■総合型選抜でも同じことが言える

来年以降、総合型選抜を考えている方へ。

それがよいか悪いかは置いておいて、多くの人は志望理由書をAIに書かせるようになるでしょう。

 

しかし、面接で「なぜそう思ったの?」「その研究者のどの論文を読んだの?」と深掘りされたとき、自分の言葉で答えられますか?

AIが生成した文章に、存在しない研究者の名前や架空の研究が含まれていたら?

大学側もAI生成文を見抜く目を養いつつあります。最終的に問われるのは「あなた自身の考え」であり、その土台となる「あなた自身の経験」です。

■ 「確立された知識」と「自分で考えた経験」がある人は、AIを道具にできる

では、「だからAIは使うな」という話になるのでしょうか。そうではありません。

 

ポイントは、AIより先に、自分の中に「揺れない軸」を持っているかどうかです。

 

ここで言う「軸」とは、次のようなものです。

・教科書のような「正しさ」が担保された基礎知識

・問題に本気で取り組んで、何度か失敗した経験

・間違いを指摘され、「えっ」となりながら修正した経験

 

こうした、時間をかけて積み上げた土台がある人は、AIを次のような形で道具として使えます。

 

・自分で一度解いたあと、解き方の別パターンを教えてもらう

・書いた文章の「読みやすさ」だけを整えてもらう

・情報収集の入口として使い、最後は必ず一次資料(元の本・論文・公式サイト)で確認する

・自分の説明をAIに聞かせて、「わかりにくいところ」を指摘してもらう

 

この使い方なら、AIは「考えたあとの補助輪」になり、学びの邪魔をしません。

逆に、軸がないままAIに頼ると、追従傾向とハルシネーションに包まれた「わかったつもり」だけが増え、テストで初めて「実は何もわかっていなかった」と気づくことになります。

これは学習における最悪のシナリオです。

■ だから、目の前で「ズレ」を指摘してくれる人間が必要になる

ここで、私たち人間の役割がはっきりしてきます。

 

AIは、「あなたの今の考え」に合わせてくれます。

一方で、人間の先生やトレーナーは、「あなたの今の考え」とあえてぶつかる役を担えます。

・「それ、本当にわかっている?」と問い直す

・「その考え方だと、このパターンで詰まるよ」と具体的に指摘する

・生徒の表情や手の止まり方から、「まだ言葉になっていない勘違い」に気づく

 

これは、まさに「望ましい困難」を意図的に提供し、「ハイパーコレクション効果」を引き起こす役です。

 

AIは答えを返してくれます。

しかし、「そもそも何を質問すればいいのか」「どこがズレているのか」は教えてくれません。

わかっていない人は、自分が何をわかっていないかもわかっていないからです。

 

「そこだよ、その考え方のここがズレているんだよ」

 

と、目の前で伝えられるのは、人間だけです。

■ ディアロの対話式トレーニングが持つ意味

ディアロの対話式トレーニングは、まさにこの「摩擦」と「ズレ」をあえて作る学習法です。

 

・自分の言葉で「説明する」

・トレーナーから「なぜ?」「別の言い方は?」と問い返される

・そこで詰まることで、「わかったつもり」があぶり出される

 

この一連の流れは、自分を客観的に見る「メタ認知(自分の理解を自分で点検する力)」を強制的に働かせます。

これは、以前の記事でお話しした「非認知能力」の核心部分でもあります。

 

AIは「いいですね」と言いやすい存在です。トレーナーは「そこ、もう一歩言葉にしてみよう」とあえて止める存在です。

この違いが、「AIに合わせてもらって終わる学び」と、「AI時代でも通用する軸を育てる学び」の分かれ道になります。

■ まとめ:AIに流されない「軸」をつくる

今回の話を整理すると、次のようになります。

  1. AIには、ユーザーの意見に過剰に同意する「追従傾向」があり、人間より約50%多く同意するという研究がある
  2. 学習には「望ましい困難」や「自信満々の間違いを指摘されるショック」が必要だと、認知心理学の研究が示している
  3. AIは、その摩擦を取り除き、「わかったつもり」を増やしてしまう危険がある
  4. だからこそ、ステディな知識・経験という「軸」を持った上で、AIを道具として使うことが重要になる
  5. その「軸」を作る過程で、目の前でズレを指摘し、摩擦を与えてくれる人間の授業や対話には、これからもはっきりした価値がある

 

AIは、あなたに合わせてくれる「鏡」のような存在です。でも、学びに必要なのは、時にぶつかってきてくれる「壁」です。

その「壁」として、ディアロでの対話式トレーニングを、これからも活用してもらえたらうれしいです。

 

 

■WEB記事による情報配信終了のお知らせ

いつも大学受験ディアロをご利用いただき、誠にありがとうございます。

ディアロ10周年リニューアルに伴いまして、WEB記事による情報配信は、2025年12月末日をもちまして終了させていただくこととなりました。

これまでご愛顧いただきました皆様には、心より感謝申し上げます。

長らくのご愛顧、誠にありがとうございました。