请教本地模型计算

2026-04-11 13:050阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

本地处理30列左右,最大几万行的excel数据的运算求和汇总类似于简单宏,大概需要什么显卡,5090或者4090能干的下来不?64G内存,准备弄一套在本地计算一些敏感数据

网友解答:
--【壹】--:

你需要的可能只是一个 python 脚本,把原始内容塞给 ai 自动处理是不明智的


--【贰】--:

确实, Python+主流数据处理库应该就可以.

最多就是鞭策一下 codex/claude code帮你完成程序


--【叁】--:

给客户的,本地部署收费高


--【肆】--:

写脚本为什么要本地部署?如果怕数据泄露,你可以弄一个脱敏的测试数据,然后给cc,cx写完了本地执行就可以了


--【伍】--: RTX 4070 12G + 32GB RAM现在有啥适合本地部署的模型

https://www.canirun.ai

自动检测。

RTX 4070 12G + 32GB RAM现在有啥适合本地部署的模型

GitHub - AlexsJones/llmfit: Hundreds of models & providers. One command to find what runs on your hardware. · GitHub
以及这个,自动检测本地合适的模型

先看看能跑哪些模型。


--【陆】--:

你这是固定的需求?丢给ai,ai只会写一个脚本给你处理。。。


--【柒】--:

4 张 5090 应该可以。

阅读全文
标签:快问快答
问题描述:

本地处理30列左右,最大几万行的excel数据的运算求和汇总类似于简单宏,大概需要什么显卡,5090或者4090能干的下来不?64G内存,准备弄一套在本地计算一些敏感数据

网友解答:
--【壹】--:

你需要的可能只是一个 python 脚本,把原始内容塞给 ai 自动处理是不明智的


--【贰】--:

确实, Python+主流数据处理库应该就可以.

最多就是鞭策一下 codex/claude code帮你完成程序


--【叁】--:

给客户的,本地部署收费高


--【肆】--:

写脚本为什么要本地部署?如果怕数据泄露,你可以弄一个脱敏的测试数据,然后给cc,cx写完了本地执行就可以了


--【伍】--: RTX 4070 12G + 32GB RAM现在有啥适合本地部署的模型

https://www.canirun.ai

自动检测。

RTX 4070 12G + 32GB RAM现在有啥适合本地部署的模型

GitHub - AlexsJones/llmfit: Hundreds of models & providers. One command to find what runs on your hardware. · GitHub
以及这个,自动检测本地合适的模型

先看看能跑哪些模型。


--【陆】--:

你这是固定的需求?丢给ai,ai只会写一个脚本给你处理。。。


--【柒】--:

4 张 5090 应该可以。

阅读全文
标签:快问快答