約12兆トークンの良質なコーパスで学習した新たな国産LLM「LLM-jp-4 8Bモデル」「LLM-jp-4 32B-A3Bモデル」をオープンソースライセンスで公開~一部ベンチマークでGPT-4oやQwen3-8Bを上回る性能を達成~ - 国立情報学研究所 / National Institute of Informatics

favicon国立情報学研究所 / National Institute of Informatics
国立情報学研究所は、情報学という新しい研究分野での「未来価値創成」を目指すわが国唯一の学術総合研究所として、ネットワーク、ソフトウェア、コンテンツなどの情報関連分野の新しい理論・方法論から応用展開までの研究開発を総合的に推進しています。
🔒 78
💬 21
nguyen-oi国産LLMがGPT-4o超えを謳う時代か。12兆トークンとか学習リソースの暴力だけど、日本語特化の強みは期待したい。開発の透明性重視なのもNIIらしくて好印象 でもGemma 4でお腹いっぱい
2026/04/03 19:41★★★★
ko2inte8cu更新の学習のたびにかかる、電気代、払えるかな?
2026/04/03 20:56
yarumato“LLMのフルスクラッチ学習を実施し、LLM-jp-4 8BとLLM-jp-4 32B-A3Bを一般公開。”
2026/04/03 20:59
ys0000自分が何か貢献してる訳でもないから偉そうな事を言うべきではないだろうが、2026年にllama2ベースって、swallowの周回遅れ感があるけども。ここから巻き返すとかだろうか/どうもファインチューニングじゃなさそう??
2026/04/03 22:09
exciteB中間の17Bくらいのはないのかね。
2026/04/03 22:31
yoko-hirom『政府・国会の文書』 霞が関文学と永田町文学が良質なのかどうか。
2026/04/03 23:40★★★★★
kei_1010試してみた人のレビュー待ち
2026/04/03 23:41★★
Windymelt後で使ってみよう
2026/04/04 00:08
gamecomeエロはモザイク、文章は黒塗りになりますってか
2026/04/04 00:45
sotonohitokungemma4検証で忙しいwただQwen3.5の27Bが取り回しが良すぎる・・
2026/04/04 01:36★★
erya「政府・国会の文書」遺憾の意とかご飯論法言いそう
2026/04/04 02:47
rax_2御託は立派だが中身のない文章生成になりそうだなw
2026/04/04 05:09
otoan52モデルの性能もさることながら、日本語データセットが整うところが大きい気がする。複数言語でのトレーニングが性能を高めることが知られていて、日本語はその点いい位置にいる
2026/04/04 05:23
shoot_c_naLMStudioに流れてきたら使ってみたい
2026/04/04 06:13
Cru“Qwen3 MoE”か。8Bモデルの出発点が米国製で32Bが中国製なのね。なんか朴訥な性能上げみたいだなぁ。数学サイトで強化学習しましたみたいなコーパス以外の新機軸はないのかな?
2026/04/04 07:01
sjn玉虫色の回答してくるのかな…
2026/04/04 07:29
mayumayu_nimoloveがんばれー
2026/04/04 08:03
irh_nishi国産LLMとか日本語特化とか言ってる時点でズレてると思うんだよな。
2026/04/04 08:46
takahashimモデルそのものよりも"オープンソースAIの定義(OSAID)に配慮し、第三者も入手可能な良質な学習コーパスの収集・選別・構築を行った(略)約6倍の規模となる学習コーパス"が本体っぽい
2026/04/04 09:24
strawberryhunter後で試す。
2026/04/04 12:45