November 12, 2025
中村 航 wataru_nakamura
1985年生まれ。福岡県福岡市出身。翻訳者。テクノロジーやファッション、伝統工芸、通信、ゲームなどの分野の翻訳・校正に携わる。WirelessWire Newsでは、主に5G、セキュリティ、DXなどの話題に関連する海外ニュースの収集や記事執筆を担当。趣味は海外旅行とボードゲーム。最近はMリーグとAmong Usに熱中。
大量の「いいね」やシェアを稼ぐことが目的の質の低いコンテンツを学習データに使うと、AI言語モデルが思考プロセスを飛ばしたり、文脈理解が弱まったりする可能性がある―そんな研究結果が新たなプレプリント論文で示されている。
研究を行ったのは、テキサスA&M大学、テキサス大学オースティン校、パデュー大学などの研究者ら。X(旧Twitter)で高い反応を得た短文投稿や、過度に刺激的な見出しで拡散を狙う文章など、「中身より拡散力を重視した」データを用いて大規模言語モデル(LLM)を再学習させ、その影響を分析した。
その結果、こうした「ジャンクな」データで学習を重ねたモデルは、推論能力、文脈理解、安全基準順守などの性能が低下。また、「ナルシシズム」が著しく高まり、協調性が低下したほか、当初はほとんど見られなかった「サイコパス」的な傾向が高まるなど、モデルの「性格」にも影響があった。さらに、一度こうした傾向が生じると、後から良質なデータを追加しても完全には回復しにくいという。
研究者の一人は「最も重要なポイントは、言語モデルが学習データの質を、私たちが考えていた以上に“そのまま映し取る”ということです」と述べる。
「低品質なテキストにさらされると、モデルは単に表現がぎこちなくなるだけでなく、思考そのものが劣化し始めるのです」
参照
LLMs Can Get “Brain Rot”!
[2510.13928] LLMs Can Get “Brain Rot”!
Too much social media gives AI chatbots ‘brain rot’
Even AI Gets ‘Brain Rot’ From Junky Online Content
Clickbait Gives AI Models ‘Brain Rot,’ Researchers Find