请教本地模型计算
- 内容介绍
- 文章标签
- 相关推荐
本地处理30列左右,最大几万行的excel数据的运算求和汇总类似于简单宏,大概需要什么显卡,5090或者4090能干的下来不?64G内存,准备弄一套在本地计算一些敏感数据
网友解答:--【壹】--:
你需要的可能只是一个 python 脚本,把原始内容塞给 ai 自动处理是不明智的
--【贰】--:
确实, Python+主流数据处理库应该就可以.
最多就是鞭策一下 codex/claude code帮你完成程序
--【叁】--:
给客户的,本地部署收费高
--【肆】--:
写脚本为什么要本地部署?如果怕数据泄露,你可以弄一个脱敏的测试数据,然后给cc,cx写完了本地执行就可以了
--【伍】--: RTX 4070 12G + 32GB RAM现在有啥适合本地部署的模型
RTX 4070 12G + 32GB RAM现在有啥适合本地部署的模型https://www.canirun.ai
自动检测。
GitHub - AlexsJones/llmfit: Hundreds of models & providers. One command to find what runs on your hardware. · GitHub
以及这个,自动检测本地合适的模型
先看看能跑哪些模型。
--【陆】--:
你这是固定的需求?丢给ai,ai只会写一个脚本给你处理。。。
--【柒】--:
4 张 5090 应该可以。
本地处理30列左右,最大几万行的excel数据的运算求和汇总类似于简单宏,大概需要什么显卡,5090或者4090能干的下来不?64G内存,准备弄一套在本地计算一些敏感数据
网友解答:--【壹】--:
你需要的可能只是一个 python 脚本,把原始内容塞给 ai 自动处理是不明智的
--【贰】--:
确实, Python+主流数据处理库应该就可以.
最多就是鞭策一下 codex/claude code帮你完成程序
--【叁】--:
给客户的,本地部署收费高
--【肆】--:
写脚本为什么要本地部署?如果怕数据泄露,你可以弄一个脱敏的测试数据,然后给cc,cx写完了本地执行就可以了
--【伍】--: RTX 4070 12G + 32GB RAM现在有啥适合本地部署的模型
RTX 4070 12G + 32GB RAM现在有啥适合本地部署的模型https://www.canirun.ai
自动检测。
GitHub - AlexsJones/llmfit: Hundreds of models & providers. One command to find what runs on your hardware. · GitHub
以及这个,自动检测本地合适的模型
先看看能跑哪些模型。
--【陆】--:
你这是固定的需求?丢给ai,ai只会写一个脚本给你处理。。。
--【柒】--:
4 张 5090 应该可以。

