「君のPC、どのローカルAIを動かせる?」がわかるWebサイト「CanIRun.ai」が便利。訪問するだけで自動判定(生成AIクローズアップ) | テクノエッジ TechnoEdge

今回は、サイトに訪問するだけで自分のPCでどのAIモデルがローカル動作するかを判定してくれるサイト「CanIRun.ai」(Can your machine run AI models?)を取り上げます。
🔒 185
💬 31
Seamlessアクセスした瞬間に手元のPCを判定→6段階で各モデルの動作レベルを表示。ブラウザ上で完結。他も調べられるためデバイス購入前にチェック可能
2026/04/22 09:12★★★
nguyen-oiこれ便利だな。ローカル環境で何が動くか不安な層には刺さる。とりあえずVRAMが全てって現実は変わらんが
2026/04/22 10:03
NunockyLMStudioの検索機能で欲しいやつ。数GB落としてくるのを待った後に "model load failed"の一言で終わってしまう悲しみから解放してくれ
2026/04/22 10:11★★★★
shaokuzスリザリン
2026/04/22 10:23
kabuqueryビックカメラとかの電気屋に展示されてるパソコンからアクセスしてみたいʕ•̫͡•ʕ•̫͡•ʔ•̫͡•
2026/04/22 10:30★★★★★★★★
rdlfMacBook Proにメモリをいっぱい積んだのでこの手の心配がなくなったけど、こんどはMacBook ProのGPUがクソなのが気になってくるという…
2026/04/22 10:46★★★★★
pgary“CanIRun.ai”
2026/04/22 11:09
haru_almond頭いいな
2026/04/22 11:21
naokun776CanItRun.crysisが出たら起こしてくれ
2026/04/22 11:38
Tomosugiへー、これは便利
2026/04/22 11:51
mouki0911すごE
2026/04/22 12:05
sotonohitokunこれ多分FP16でやってるけど大体量子化しちゃうから参考にならないと思う。全然大きいの走るし、Tokスピードも出る/訂正ありがとう。Spark持ちだが数値乖離が酷い。Qwen3.6や3.5はMOEなら50tokこえてるぞ(サイトは10tok程度)
2026/04/22 12:14
strawberryhunterファイルサイズでだいたいわかる。LM Studioは無理だと警告が表示されてるはず。Kimi Kシリーズはでかすぎて断念した。
2026/04/22 12:25★★★★
RXRHsZcJ6xnGXZR8TEZA6hAxzRd3mkDAI周りのニーズは数か月で大変化するからPCメーカーは怖くて追従できない。ローカルAIの需要が数年続いて確実にならないとPCの設計は変わらないだろうなぁ。
2026/04/22 12:27
K-Onoグラボ乗っけてない民ワイも挑戦してみよう
2026/04/22 12:45
hagakuress外付けGPUとGPUドックが欲しくなるなぁ。。
2026/04/22 12:56
natu3kanGPUが古すぎるとグラフィックメモリ不足で必要最低限の動作環境まで行かないんだよな。
2026/04/22 13:01
kkobayashisandybridgeで動くローカルAIはありますか?
2026/04/22 13:06
l_etranger>sotonohitokun サイトに表示されるデフォルトはFP16ではなく量子化Q4_K_Mになってる。モデル画面で確認可能。それはそれとしてこのサイトの計算は雑な部分が色々あり、あくまで参考程度と考えたほうがいいとは思う
2026/04/22 13:14★★★★★
Angelfish3578モデル自体がVRAMに乗っても、コンテキスト長の設定によって追加の必要VRAM量がGBレベルで変わるからそこだけ要注意
2026/04/22 13:37★★★★★★★★