日本から世界へ!純粋な国産AI「Fugaku-LLM」の誕生

近年、AI技術は目覚ましい進歩を遂げていますが、その多くが国外の技術に依存しているのが現状です。そんな中、東京工業大学と東北大学、富士通、理化学研究所、名古屋大学、サイバーエージェント、AIベンチャー企業のKotoba Technologies(東京都港区)の合同研究チームは、全て国産のリソースを用いた独自の大規模AIモデル「Fugaku-LLM」を開発しました。
本記事では、「Fugaku-LLM」について詳しく解説していきますので、ぜひ最後までご覧ください!

ARCHETYP Staffingでは現在クリエイターを募集しています。
エンジニア、デザイナー、ディレクター以外に、生成AI人材など幅広い職種を募集していますのでぜひチェックしてみてください!

ボタンから募集中の求人一覧ページに移動できます。

「Fugaku-LLM」の特徴と性能

昨今のAIブームによって世界中でLLMの開発競争が行われていますが、日本はGPUでなくCPUをベースとしたLLMの開発に取り組み、独自の道を開拓しようとしています。2023年から東京工業大学、東北大学、富士通、理化学研究所などの研究機関が共同で、このプロジェクトに取り組んでいます。従来、AIモデルの学習には外国製のGPUが主流でしたが、最新のGPUの入手が困難になる中、「富岳」の国産CPUを使用することで、外国産のGPUに頼らない国産のLLMの開発に成功しました。技術的な面では、「富岳」に深層学習フレームワーク「Megatron-DeepSpeed」を導入することにより、行列演算の時間を大幅に短縮することが可能となり、計算速度と通信性能が向上しました。具体的には当初110秒かかっていた行列演算を18秒まで高速化することができました。
GPUを使わずともLLMの開発を可能にしてしまう日本の研究者の技術には脅かされますね!

独自データセットの構築と他社優位性

このセクションではFugaku-LLMの何が優れているかをより深掘りしていきます!
「Fugaku-LLM」の開発で特筆すべきは、全て国産のデータを使用した独自データセットの構築です。このデータセットは約4000億トークンを包含し、その60%以上が日本語で、残りは英語や数学、プログラミング言語など多様なコンテンツから成り立っています。完全に国内で生成されたデータセットにより、データの透明性と安全性が保証され、知的財産の保護が強化されました。また、全セクションでも触れましたが、Fugaku-LLMは国内のハードウェアで一から開発したモデルとなっており、国内初の純粋な国産AIモデルになると考えられています。
「Fugaku-LLM」を他社モデルと比較すると、国内の他社LLM より高性能となっており、特定の分野においてはOpen AIの提供するGPT-4と比較しても遜色のない、あるいはそれを超える性能も秘めております。
国産LLMがいずれ世界中のLLMを超える日もそう遠くないかもしれませんね!

まとめ

いかがだったでしょうか?
今回は国産AIモデルである「Fugaku-LLM」について解説してきましたが、今後はGPUを使わないLLMの開発が主流になる未来があるかもしれません。今後もFugaku-LLMの動向に着目していきましょう!

ARCHETYP Staffingではクリエイターを募集しています

私たちはお客様の課題を解決するweb制作会社です。現在webサイト制作以外にも、動画編集者や生成AI人材など幅広い職種を募集していますのでぜひチェックしてみてください!
また、アーキタイプではスタッフ1人1人が「AI脳を持ったクリエイター集団」としてこれからもクライアントへのサービス向上を図り、事業会社の生成AI利活用の支援及び、業界全体の生成AIリテラシー向上に貢献していきます。
生成AIの活用方法がわからない、セミナーを開催してほしい、業務を効率化させたいなどご相談ベースからお気軽にお問い合わせください!

ボタンから募集中の求人一覧ページに移動できます。

クリエイター登録して、案件情報を受け取る!

クリエイター登録