読み込み中

【ニュース】スパコン「富岳」で大規模言語モデル 独自のデータで学習させ全工程把握

  理化学研究所のスーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku―LLM」が5月10日に公開された。共同開発研究には、東京工業大や富士通に加え、本学大学院情報科学研究科の坂口慶祐准教授が参加した。Fugaku―LLMは優れた計算性能と日本語能力を有し、科学研究やビジネスへの利用が期待されている。



Fujitsu Research Portal 上で体験できる
Fugaku―LLMとのチャット




 同研究は昨年5月に開始し、日本語処理に配慮した言語モデルを作ることを目指した。大規模言語モデルなどの規模を示す指標の一つであるパラメータ数は130億で、国内で多く開発されている70億パラメータのモデルよりも高性能である。一から独自のデータで学習したことで、全学習工程を把握し、透明性と安全性を担保できた。



 本学は学習用データの収集と学習モデルの選択を担った。坂口准教授は、日本語の文字列処理を効率よく行えるような工夫を導入した。さらに、サイバーエージェントが独自に作成した日本語の大規模データを用いることを提案、交渉し、実際に使用できるようにした。



 同研究では、「富岳」を応用したことにより、LLMの学習における演算速度を既存技術の6倍に、通信速度を3倍に高速化することができた。また、LLMの学習に用いられるGPUが世界中で不足している中、GPUの代わりに国産CPUが実装されている「富岳」を用いたことは、経済安全保障の観点からも重要といえる。



 同研究から得られた知見により、日本におけるAI研究の発展、そして次世代の研究や産業へのAI応用が期待される。Fugaku―LLMの開発における研究成果は、GitHubやHugging Face、Fujitsu Research Portalで無償公開されている。

ニュース 6617729120945309078
ホーム item

報道部へ入部を希望する方へ

 報道部への入部は、多くの人に見られる文章を書いてみたい、メディアについて知りたい、多くの社会人の方と会ってみたい、楽しい仲間と巡り合いたい、どんな動機でも大丈夫です。ご連絡は、本ホームページやTwitterまでお寄せください。

Twitter

Random Posts