Vol.62 LLMの推論能力を支える「内部対話」のメカニズム
◆推論モデルにおける「複数の視点」の出現
推論モデル(リーズニングモデル)というのが多く使われるようになっていて、性能も高いし、今までのモデルと比べて能力の幅も高いという話なんですが、実質的にその推論モデルの内部で、「推論の途中で複数の視点や役割が現れて、それらの間で議論していることが実現されている」という指摘されました。
これは「Society of Thought(思考の社会)」って言うんですが、元々人間は1人で議論するよりは、複数人の異なる意見とか立場で話をすると、1人で考えるよりもいいものが生まれます。
これと同様にLLMの場合も、推論してる過程の中で、いろんなキャラクターが登場し、”問いを立てる役”だとか”視点切り替える役”、「ちょっと待って、こっちから見てみよう」とか「こっちの反対意見はどうだろうか」っていうような、1人でブツブツ言ってるだけなんですが、そういう役割が出ているのが分かっています。
◆介入試験による検証
これがたまたまそうかもしれないので、最近のLLM研究の面白いところとしては、特定のこういう能力を抽出して、それを強めたり弱めたりするような介入試験の方法がもう確立されて、どんどん進化しています。
具体的には、LLMって内部の能力を分解しにくいんですけれども、分解できるように「スパースオートエンコーダー」と呼ばれるものを活用します。
普通のニューラルネットワークは、例えば「猫」という概念はたくさんのニューロンでちょっとずつ関与する分散表現で表されています。
犬と猫の概念を扱うニューロンって通常はたくさんのニューロンで表現されるんですけども、それを特定の概念では1個しか発火しないようなニューラルネットワークを設定して、それで介入試験をしやすくするということが、この1、2年たくさん行われています。
最近のオープンモデルは分析用に大抵この「スパースオートエンコーダー」も追加モデルで作られてたりしています。
実際に会話があった時に、その会話文脈で強く発火する特徴を抽出して、その発火してるところをさらに強めると、そのモデルがもっと会話をするようになるし、逆に弱めると会話をしなくなるっていうような特徴が見つかります。
このニューロンを「カウントダウン」っていう多段算術の推論タスクで実際使ったところ、介入なしの時が正解率27%だったのが、会話的特徴を強めて、推論の中でずっとブツブツと会話をするみたいなモデルになると、正解率はほぼ倍に上昇して、逆に弱めると精度が低下したっていうことがわかりました。
◆ミンスキーの「思考の社会」とAIの並行進化
論文の中では、人工知能の祖みたいなミンスキーが、「人間はたくさんの人がいろんな役割で話したり、そもそも普通の人も実は頭の中で考えていて、表には出てこないけれど、知能的な処理をしてる」というのを言っていたんですが、AIも実際にそうなっていて、面白いねってことが指摘されていました。
こういう多様性が問題解決を改善するってことですね。
LLMで特徴的なのが、条件付けによって特定のキャラクターになりきることがかなり強くできます。「誰々のふりして」ってキャラクター設定すると、本当にその人になりきってやる能力は、下手したら人間を超えるぐらいできています。
そういったところは元々あったんですが、実際その思考過程で様々な視点・役割を切り替えて議論することは実現できるだろうと思います。字面で変わっているわけじゃなく、LLMの中で「すごい批判的な人のモード」になって喋って、次に「ちょっと楽観的な人のモード」になって、別の視点で言うとか。
そういうのは、人間よりもAIの方がしやすいだろうと。人間は人格を変えるって、本当に特殊な人でなければできないですが、LLMは機械的にできるだろうなって思いました。
◆強化学習と事前学習の関係
あとは、論文では「強化学習で正解のみを報酬とする」、先ほどの数学の問題を当てられるというようなことを強化学習の中だけで、勝手に会話する能力っていうのが出てきて、これ面白いねって話だったんですが、実際はおそらく、高い確率で事前学習データやSFT(Supervised Fine-Tuning)の中にすでに含まれていると思います。
さすがにそれをゼロから創発するって無理なので、含まれていたものが強化学習によって増幅された、「点数を上げるためにはこの能力をもっと喋った方がいい」となったというのが自然だと思います。
◆並列思考と新たな推論の形
最後に、推論(Reasoning)もなんだかんだ一次元でずっと考えていくわけですが、AIって何でもありなので、例えば、人間はできないけれど推論途中に分岐して、100人ぐらいがコンテキストを別々に独立に持って、並列で処理してお互い議論するとかは、実際やられてる研究も見たことあるし、できると思うので、人間が元々持ってた制約(特に同時に1個しか考えられないというもの)を持たないような並列性を持った思考を考えたりすると面白いなと思いました。
例えば、研究の中では画像や動画では、「動画空間で推論する」っていうのが既に出てます。
迷路とかの例ですが、「迷路を解きましょう」っていう時、頭の中で迷路を思いついて、今の位置からこう行ったら行けそうかなっていうのを、人間も頭の中で図形を表しながら考えると思うんですけれど。
そういったことは、もちろん逐次的にはできますが、パラレルにやるのは人間も想像がつかない世界なんですが、原理上はできます。だから人間が思考できないような、そういうパターンで考えたらどうだろうとかは出てくるんじゃないかなと思いました。

