大きさより思考の質:Samsung開発の小型AI「TRM」が業界に問う

AIの世界で、常識が覆る出来事が起きました。Samsungの研究者が発表した小型モデル「TRM」は、わずか700万パラメータでOpenAIやGoogleの大規模モデルを特定のタスクで上回っています。なぜ「小さいこと」が強みになるのか。その秘密を探ります。

ARCHETYP Staffingでは現在クリエイターを募集しています。
エンジニア、デザイナー、ディレクター以外に、生成AI人材など幅広い職種を募集していますのでぜひチェックしてみてください!

ボタンから募集中の求人一覧ページに移動できます。

「大きければ強い」という常識への挑戦

カナダ・モントリオールにあるSamsung先端技術研究所の研究者、アレクシア・ジョリクール=マルティノー氏が発表した小型AIモデル「TRM」が、AI業界に波紋を広げています。
このモデルの最大の特徴は、その「小ささ」です。AIモデルの規模を示す「パラメータ」という指標があります。これは人間でいえば「どれだけの知識や経験を持っているか」に近い概念で、一般的にこの数が多いほど賢いモデルとされてきました。
TRMが持つパラメータは700万。一方、OpenAIのo3-miniやGoogleのGemini 2.5 Proといった有名なAIは、その1万倍以上のパラメータを持っています。体重で例えるなら、60kgの成人と6gの小鳥ほどの差です。ところが、特定の問題を解く能力で比較すると、この小さなTRMが巨大なモデルと互角、あるいはそれ以上の成績を出しているのです。難易度の高い数独では87.4%の正答率、複雑な迷路パズルでは85%の正解率を記録しました。これは、業界トップクラスのAIモデルに匹敵する数字です。
ジョリクール=マルティノー氏は、SNS上でこう語っています。「難しい問題を解くには、大企業が何百万ドルもかけて作った巨大なモデルに頼るしかないという考え方は、罠だ」彼の言葉の背景には、現在のAI開発に対する懸念があります。ここ数年、AI業界は「より大きく、より多くの計算資源を」という方向一辺倒でした。しかし、巨大なモデルを作るには膨大な電力と専用コンピュータ(GPU)が必要で、資金力のある一部の企業しか開発できない状況が続いていたのです。同氏はさらに「大規模モデルの活用に重点が置かれすぎており、新しい方向性を探ることへの注目が不足している」とも指摘しました。
TRMは現在、誰でも無料で使えるオープンソースとして公開されています。企業でも個人でも、自由にダウンロードして改良し、自分のサービスに組み込むことができます。必要な計算資源も控えめで、数独レベルの訓練なら比較的手の届きやすいコンピュータ1台で可能です。
ジョリクール=マルティノー氏はこう続けます。「小さなモデルが、自分の答えを何度も見直して改善していくことで、莫大なコストをかけずに多くのことを達成できる」この「何度も見直す」というプロセスこそが、TRMの核心です
では、具体的にどのような仕組みなのでしょうか。

何度も考え直す「再帰的推論」の力

TRMの強さの秘密は、「再帰的推論」という仕組みにあります。これは、一度答えを出して終わりにせず、その答えを何度も見直して改善していく方法です。例えば、難しい数独を解くときのことを考えてみてください。最初に「この数字はここだろう」と入れてみて、他のマスを埋めていくうちに矛盾が見つかったら「やっぱり違った」と修正しますよね。TRMはまさにこの方法を使っているのです。問題を受け取ると、まず「仮の答え」を作り、それを自分で評価して修正する。この作業を最大16回繰り返すことで、徐々に正確な答えにたどり着いていきます。
さらに驚くべきは、TRMの構造の単純さです。AIモデルは通常、「層」と呼ばれる処理段階を何十、何百と重ねて複雑な問題を解こうとします。ところがTRMは、たった2層しかありません。その代わり、同じ2層を何度も通り抜けることで、深く考える仕組みを実現しています。高層ビルを建てる代わりに、2階建ての建物を何度も行き来する、といったイメージです。この方法は、今年初めに登場した「階層的推論モデル(HRM)」を大幅に簡略化したものです。HRMは2つの異なるネットワークを組み合わせる複雑な仕組みでしたが、ジョリクール=マルティノー氏は「これは複雑すぎる」と考え、余計な要素をそぎ落としました。研究の過程で、面白い発見もありました。層を増やしたりモデルを大きくしたりすると、かえって成績が悪くなったのです。これは「過学習」という現象で、訓練データに適応しすぎて新しい問題に対応できなくなってしまいます。
数独エクストリームでの87.4%という正答率は、前身のHRMの55%から大幅な向上です。特筆すべきは、TRMが巨大モデルのパラメータの0.01%未満しか使っていない点です。巨大モデルが「一度に大きく考える」のに対し、TRMは「小さく、しかし何度も丁寧に考える」ことで、同じかそれ以上の結果を出しています。ただし、誤解してはいけない点もあります。TRMは訓練の際に、大量のデータ加工や繰り返し処理を必要とします。TRMの効率性は、「最終的なモデルのサイズが小さい」という点にあるのです。
では、このTRMの登場は、AI業界にどんな問いかけをしているのでしょうか。

AIの未来に投げかけた問い

TRMの成果は印象的ですが、万能ではありません。このモデルが力を発揮するのは、数独や迷路、ARCパズルといった「グリッド状の問題」に限られています。つまり、TRMは自然な会話をしたり、自由な文章を書いたりする汎用的なAIではありません。
TRMが公開されると、研究者の間で活発な議論が巻き起こりました。支持者たちは「小さなモデルが巨大モデルを超えられる証拠だ」と称賛しました。一方で、批判的な意見も少なくありません。研究者のユンミン・チャ氏は「TRMは何度も繰り返し処理するため、結局たくさんの計算をしている。モデルは小さいが、処理時間が劇的に短くなるわけではない」と指摘しています。機械学習研究者のセバスチャン・ラシュカ氏は、TRMを「まったく新しいAI」というよりも「HRMをシンプルにした改良版」として位置づけています。
ここで浮かび上がるのが、AI開発における根本的な問いです。「とにかく大きくすればいい」のか、それとも「何度も考え直す仕組みが大事」なのか。過去数年間、AI業界は「より大きく、より多くのデータを」という方向に進んできました。ChatGPTの元になったGPT-4や、GoogleのGeminiといったモデルは、数千億から数兆のパラメータを持ち、莫大な計算資源を投入して作られています。TRMが示しているのは、別の道があるかもしれないということです。問題の種類によっては、巨大なモデルで一度考えるよりも、小さなモデルで何度も考え直す方が効果的かもしれません。特に、論理パズルのような「じっくり考える」タイプの問題では、サイズよりも思考プロセスの質が重要なのかもしれないのです。
ジョリクール=マルティノー氏は、今後の可能性についても触れています。将来的には複数の答えを生成できる版も開発できるかもしれません。また、「小さい方が良い」という原則が、モデルの複雑さやデータサイズが増えるにつれてどこまで通用するのかも、未解決の課題として残されています。
オンラインで形成されつつある意見は、「TRMの適用範囲は限定的だが、そのメッセージは重要だ」というものです。ひたすら拡大する方向だけでなく、丁寧に考え直す方向もある、と。TRMは、資金力のある大企業以外の研究者にとっても扱いやすい選択肢を提供しています。研究論文が伝えているのは、実用的なツールであると同時に、こんなメッセージです。AIの進歩は、ますます大規模なモデルに頼る必要はない。小さなモデルに丁寧に考える方法を教える方が、大きなモデルに一度だけ考えさせるよりも、時には強力になりうる。TRMは、そんな可能性を私たちに見せてくれたのです。

まとめ

いかがだったでしょうか?
TRMが示したのは、「大きければ良い」という単純な答えではありません。何度も見直し、丁寧に考えるプロセスこそが重要だということです。700万という小さなパラメータで巨大モデルと競合できる事実は、AI開発に新しい選択肢を提示しました。これは技術の話だけでなく、私たちが仕事で問題に向き合うときの姿勢にも通じるかもしれません。

参考記事:Samsung AI researcher’s new, open reasoning model TRM outperforms models 10,000X larger — on specific problems

ARCHETYP Staffingではクリエイターを募集しています

私たちはお客様の課題を解決するweb制作会社です。現在webサイト制作以外にも、動画編集者や生成AI人材など幅広い職種を募集していますのでぜひチェックしてみてください!
また、アーキタイプではスタッフ1人1人が「AI脳を持ったクリエイター集団」としてこれからもクライアントへのサービス向上を図り、事業会社の生成AI利活用の支援及び、業界全体の生成AIリテラシー向上に貢献していきます。
生成AIの活用方法がわからない、セミナーを開催してほしい、業務を効率化させたいなどご相談ベースからお気軽にお問い合わせください!

ボタンから募集中の求人一覧ページに移動できます。

クリエイター登録して、案件情報を受け取る!

クリエイター登録