【やじうまPC Watch】 今のPCでローカルLLMがどの程度動くのか、ブラウザで自動判定するサイト

ChatGPTの登場以降、大規模言語モデル(LLM)を中心にAI技術がどんどん普及している。中でも、クラウドサービスを使わず、自身のPCやスマートフォン上でLLMを動かす、いわゆる「ローカルLLM」も一定の注目を集めている。
🔒 39
💬 12
yamadar普通に便利そう
2026/04/16 16:43
nguyen-oi手元のゴミスペPCで動くか判定して4090買えって言われるだけのサイトか
2026/04/16 17:32
kashil謎のEXEファイルを実行させられるの怖すぎるだろ
2026/04/16 18:05★★★★
ardarim「Hugging Faceの膨大なモデルライブラリから最適なモデルを探すのは、まるで海の中で針を探すようなもの」の解決策にはならないのでは?
2026/04/16 18:16
fashi性能スコアに釣られて導入したら異様にthinkingが長くて使い物にならなかったりするので難しい
2026/04/16 18:37★★
l_etranger実際のところ、動かすに値するモデルは限られているし、動作速度も、DenseかMoEかとモデルサイズで大体察しはつくのでそこまで困らないのだけど、多少の参考にはなる。ただこのサイトの計算式は結構雑。
2026/04/16 18:46★★
ys0000未だにLM Studioは使った事がなかったが、デファクトってvLLM辺りじゃなかったのか。
2026/04/16 19:43
welchman信頼度はともかく、試してみよう
2026/04/16 19:47
cinq_naIvyのiGPU、RAM16GB、SATAーSSDで何を動かせって?
2026/04/16 20:15
ryudenxなんとなくこの記事炎上しそうだからメモっておこう
2026/04/16 20:41
ejointjpローカルLLMの必要性が分からないオレに誰か教えてくれ。Claude / Claude Codeじゃダメなんか
2026/04/16 21:07
fjch有用
2026/04/16 21:44