
ChatGPTやGeminiを使ったことがある方なら、一度は経験があるはずです。AIが自信満々に間違った情報を教えてくれる瞬間を。この現象は「幻覚(ハルシネーション)」と呼ばれ、現在のAI技術における最大の課題です。しかし、この問題を根本から解決する可能性を秘めた技術が注目を集めています。それが「ニューロシンボリックAI」です。
ARCHETYP Staffingでは現在クリエイターを募集しています。
エンジニア、デザイナー、ディレクター以外に、生成AI人材など幅広い職種を募集していますのでぜひチェックしてみてください!
ボタンから募集中の求人一覧ページに移動できます。
なぜAIは堂々と嘘をつくのか – 現在のLLMが抱える根本的問題

2023年、アメリカの法学教授ジョナサン・ターリー氏が、ChatGPTから身に覚えのないセクシャルハラスメントの告発を受けたという出来事が話題になりました。ChatGPTは存在しない記事を引用し、同氏を加害者として名指ししたのです。OpenAI社の対応は、ターリー氏に関する質問には一切回答しないようプログラムを変更することでした。
現在のLLM(大規模言語モデル)は、膨大なテキストデータを学習して統計的なパターンから「次にくる単語は何か」を予測するシステムです。人間のように論理的に考えているわけではなく、あくまで確率に基づいて回答を生成しています。LLMは「理解」ではなく「確率」で動いているため、もっともらしい嘘を堂々と語ってしまいます。チェーン・オブ・ソート(段階的思考)という手法で人間の思考プロセスを模倣することはできますが、これも訓練データのパターンを真似ているに過ぎません。さらに深刻なのは、LLMの訓練に必要なデータ量が爆発的に増加していることです。現在では、LLM自身が生成した合成データを訓練に使わざるを得ない状況になっており、これにより古いモデルの誤りが新しいモデルに引き継がれる悪循環が生まれています。
事後的にモデルの精度を上げるコスト(事後モデル整合)も急上昇し、モデルが複雑になるほど、どこで間違いが生じているかを特定することも困難になっています。LLMはステレオタイプを増幅したり、西洋中心的な回答を提供したりする問題も抱えており、これらの誤情報に対する説明責任が欠如しています。
現在のアプローチでは、段階的な改善だけでは幻覚問題を解決できません。近い将来実現が期待されるエージェンティックAI(AIに休暇予約や請求書支払いなどのタスクを任せるシステム)が普及すれば、この問題の影響はさらに深刻になる可能性があります。では、その解決策として注目される技術とは何でしょうか。
ルールで武装したAI – ニューロシンボリックAIという新たなアプローチ

ニューロシンボリックAIは、ニューラルネットワークの予測学習に加えて、人間が信頼性の高い思考を行うために学習する形式的ルールをAIに教え込みます。具体的には、「もしAならばB」という論理ルール、「A=BかつB=CならばA=C」という数学的ルール、そして単語や記号の意味といったルールを組み合わせます。例えば、「雨が降っていれば外のものは通常濡れる」というルールをAIが持っていれば、個別の事例をすべて記憶する必要がありません。このルールは、見たことのない新しい物体にも適用できるからです。
これらのルールの一部はAIシステムに直接入力され、他の部分はAIが訓練データを分析する「知識抽出」で自身が推論します。ニューロシンボリックサイクルでは、部分的に訓練されたAIが訓練データからルールを抽出し、この統合された知識をネットワークに注入してから更なる訓練を行います。従来のLLMが確率的な推測に頼っているのに対し、ニューロシンボリックAIは明確なルールに従って動作するため、幻覚を起こしません。知識を明確で再利用可能な部分に整理することで、より効率的に学習します。
AI技術の進化を振り返ると、1980年代の第一世代はシンボリックAI、2010年代の第二世代が深層学習です。多くの専門家がニューロシンボリックAIを第三世代と位置づけています。
実用例として、Google社のAlphaFoldは薬物発見を支援するタンパク質構造の予測に、AlphaGeometryは複雑な幾何学問題の解決に、それぞれこの技術を活用しています。中国のDeepSeek社も「蒸留」という学習技術でニューロシンボリック的なアプローチを取っています。ただし、一般的なモデルでニューロシンボリックAIを完全に実現するには、まだ研究が必要です。
それでは、この技術が実現した時に私たちは何を期待できるのでしょうか。
完璧なAIへの道筋 – 技術的課題と実現への展望

ニューロシンボリックAIの優位性は具体的です。まず、AIがデータを大量保存する必要がないため、エネルギー効率と計算コストが大幅に改善されます。
説明責任も向上します。現在のLLMでは回答の根拠を追跡できませんが、ニューロシンボリックAIならユーザーがAIの判断プロセスを理解し、必要に応じて修正できます。
公平性も確保できます。「AIの決定結果は人の人種や性別に依存してはならない」といったルールを事前に組み込むことで、バイアスや差別の問題を根本から解決できる可能性があります。
しかし、技術的課題も存在します。最大の問題は、一般的なタスクに適用できるルールの識別と知識抽出の複雑さです。ChatGPTやGeminiのような汎用AIで完全に活用するには、さらなる研究が必要です。
現在のLLMメーカーがこの技術にどの程度取り組んでいるかは不明です。各社はモデルの思考能力向上を目指しているものの、同時に大量データでのスケールアップにも固執しています。AI技術が継続的に進歩するためには、少ない例から適応し、自己チェックし、マルチタスクを実行し、知識を再利用して確実に推論できるシステムが必要です。ニューロシンボリックAIは、これらの要求を満たす可能性があります。最も興味深いのは、この技術が規制の代替手段となる可能性です。チェック・アンド・バランスがアーキテクチャに組み込まれ、業界標準として確立されれば、外部規制に依存しない安全で信頼できるAIシステムを構築できるかもしれません。
道のりは長いものの、現在の幻覚問題を根本から解決する明確な道筋がここにあります。それは単なる技術改良ではなく、AIとの関わり方そのものを変える可能性を秘めた変化なのです。
まとめ

いかがだったでしょうか?
現在のAIが抱える幻覚問題は、確率ベースの予測システムという根本的な仕組みに起因しており、段階的な改善だけでは解決が困難であることがお分かりいただけたと思います。ニューロシンボリックAIは、ルールと論理を組み合わせることで、この問題を根本から解決する可能性を秘めています。技術的な課題は残されているものの、エネルギー効率、説明責任、公平性の面で大きなメリットをもたらし、将来的には規制に代わる技術的な解決策となるかもしれません。AIが私たちの日常により深く関わっていく中で、信頼できるAIシステムの実現は必要不可欠であり、ニューロシンボリックAIはその実現に向けた重要な一歩と言えるでしょう。
参考記事:Neurosymbolic AI Could Be the Answer to Hallucination in Large Language Models
ARCHETYP Staffingではクリエイターを募集しています!
私たちはお客様の課題を解決するweb制作会社です。現在webサイト制作以外にも、動画編集者や生成AI人材など幅広い職種を募集していますのでぜひチェックしてみてください!
また、アーキタイプではスタッフ1人1人が「AI脳を持ったクリエイター集団」としてこれからもクライアントへのサービス向上を図り、事業会社の生成AI利活用の支援及び、業界全体の生成AIリテラシー向上に貢献していきます。
生成AIの活用方法がわからない、セミナーを開催してほしい、業務を効率化させたいなどご相談ベースからお気軽にお問い合わせください!
ボタンから募集中の求人一覧ページに移動できます。