🔒 32
💬 14
igrep1.5億円分のGPUを5年使うとして、GPU代だけで一月あたり2500円か。電気代とか考えたら当然まだまだ赤字なんだろうなぁ
2026/03/28 19:04
nguyen-oiVRAM 11TBとかもう個人の域を超えてて草。APIがいかに安上がりかよく分かる良記事
2026/03/28 19:08
awawannやっぱたけえのかー
2026/03/28 19:35
m50747鉄腕アトムやドラえもんなどの自律したロボットに搭載されている電子頭脳の登場は相当先の話だね。
2026/03/28 19:57
hiroomiこの立ち位置の内容は面白いね。
2026/03/28 20:47
hachibeechan比較するにしてもなぜQwen2.5…?3.5の小型モデル使おう
2026/03/28 21:12
Kmusiclife飛鳥時代。
2026/03/28 21:30
wordiローカルLLMのVRAM大容量化の一番安上がりは、ユニファイドメモリなMac mini一択が現状(帯域がグラボの約半分だが実用的な速度)、RTX 5090 32GB単品40万円に対し、Mac mini 32GBが15万円、クラウドLLMスペックはローカルだと無理ぞ
2026/03/28 21:38
kyahi227そもそもClaude Opusと同等の性能を持つAIがClaude Opusしかないから
2026/03/28 21:58★★★★★★
ch1248“約11.6TBのVRAMが必要です”で笑った
2026/03/28 22:08
kei_1010"Anthropic Proプランを$20(3,000円)/月で使い続けた場合" 原油高のせいで電気代が爆上がりするので、こんな値段では使えなくなるだろうな。その瞬間にAI投資バブルも破綻する。
2026/03/28 23:12★★
avictors少し前に、OllamaとLMで動かそうとしてみたけど、事前情報どおり、な感じだった。
2026/03/29 00:50
BlueSkyDetectorRyzen AI 300シリーズのノートPCでRAM128GB載せてれば、gpt-oss-120bがそれなりに使える速度でローカルで動かせるよ。 手元のRyzen AI 9 HX 370だと18token/secくらい。とはいえClaude Opus 4.6には当然及ばない。o4-mini相当。
2026/03/29 01:02
osakana110chatgpt やgeminiに聞くと、qwen2.5使えって出てくるけど、あいつら3.5が出たことを知らないだけだから、今なら3.5の4Bか9B使うのが正解。3070ならメモリ容量的に4Bが無難
2026/03/29 02:47