双路e5 2686v4已就绪,然后呢
- 内容介绍
- 文章标签
- 相关推荐
双路e5 2686v4已就绪,然后呢
搞了个妖版 可以插四个显卡
用什么好呢 哪些显卡能支持tlink啊
我记得特斯拉100手可以的
我想跑个70b
搞几个洋垃圾 直接插满四个显卡
网友解答:--【壹】--:
好吧,我自己组的八卡没遇过问题,基本上到手测3dmark只要没事就能跑很久,到手有问题直接找商家换
--【贰】--:
魔改问题还是容易炸,朋友买了张4090 48g就g了,跑3dmark花屏
--【叁】--: So Big:
洋垃圾 直接插满四个显
2080TI 22G.
--【肆】--:
不说价位那就是h200
--【伍】--:
主推理,基本上看fp16,性价比最高就tesla t10,闲鱼1200左右,再往下就是p100、p40,但这几个又涨回原价了不划算
--【陆】--:
推理并不需要nvlink呀,pcie完全足够了
--【柒】--:
我洋垃圾都上场了 指定预算不到一张有头显卡的钱
--【捌】--:
家用?这玩意电费起飞了吧,功耗太高了这cpu
--【玖】--:
虽然但是目前70b没啥正经模型,再小一点儿的qwen3.5和gemma4还不错,30b左右
--【拾】--:
不支持tlink的哈 插四个没法用
--【拾壹】--:
佬想好配啥了吗,我也想搞一套洋垃圾来跑comfyui和本地大语言,能不能分享一下配置和价格
--【拾贰】--:
我有个想法就是双2080ti 22g+p40 24,不知道可不可行,佬你用什么主板
--【拾叁】--:
然后起飞一下试试
--【拾肆】--:
性价比高的就是各种魔改卡,2080ti 22g / 3080 20g / 4080s 32g / 4090 48g
--【拾伍】--:
我这想的是搞个768G内存机器来跑GLM5.1,带张4090,不知道能不能跑
--【拾陆】--:
我也想抄作业,搞个本地的模型看看能不能训练出来一个小说模型给我写小说看
--【拾柒】--:
现在用p100 硬跑qwen 30b 速度慢了点 能用
--【拾捌】--:
有方案了踢我下 我也想搞个 。最近刷到好多特斯拉100 mi50 洋垃圾,不过看了一圈都是架构偏佬 都在等大船靠岸。
双路e5 2686v4已就绪,然后呢
搞了个妖版 可以插四个显卡
用什么好呢 哪些显卡能支持tlink啊
我记得特斯拉100手可以的
我想跑个70b
搞几个洋垃圾 直接插满四个显卡
网友解答:--【壹】--:
好吧,我自己组的八卡没遇过问题,基本上到手测3dmark只要没事就能跑很久,到手有问题直接找商家换
--【贰】--:
魔改问题还是容易炸,朋友买了张4090 48g就g了,跑3dmark花屏
--【叁】--: So Big:
洋垃圾 直接插满四个显
2080TI 22G.
--【肆】--:
不说价位那就是h200
--【伍】--:
主推理,基本上看fp16,性价比最高就tesla t10,闲鱼1200左右,再往下就是p100、p40,但这几个又涨回原价了不划算
--【陆】--:
推理并不需要nvlink呀,pcie完全足够了
--【柒】--:
我洋垃圾都上场了 指定预算不到一张有头显卡的钱
--【捌】--:
家用?这玩意电费起飞了吧,功耗太高了这cpu
--【玖】--:
虽然但是目前70b没啥正经模型,再小一点儿的qwen3.5和gemma4还不错,30b左右
--【拾】--:
不支持tlink的哈 插四个没法用
--【拾壹】--:
佬想好配啥了吗,我也想搞一套洋垃圾来跑comfyui和本地大语言,能不能分享一下配置和价格
--【拾贰】--:
我有个想法就是双2080ti 22g+p40 24,不知道可不可行,佬你用什么主板
--【拾叁】--:
然后起飞一下试试
--【拾肆】--:
性价比高的就是各种魔改卡,2080ti 22g / 3080 20g / 4080s 32g / 4090 48g
--【拾伍】--:
我这想的是搞个768G内存机器来跑GLM5.1,带张4090,不知道能不能跑
--【拾陆】--:
我也想抄作业,搞个本地的模型看看能不能训练出来一个小说模型给我写小说看
--【拾柒】--:
现在用p100 硬跑qwen 30b 速度慢了点 能用
--【拾捌】--:
有方案了踢我下 我也想搞个 。最近刷到好多特斯拉100 mi50 洋垃圾,不过看了一圈都是架构偏佬 都在等大船靠岸。

