自建公益站过程记录,站在巨人的肩膀上,基于new-api,从服务器到域名到防护全流程教程
- 内容介绍
- 文章标签
- 相关推荐
成果
【今天一看论坛私信,被举报了,原因是被认为违规推广,可能是一开始放了网址,所以现在改掉了】
目前只是小圈子自用的亲友api池子,并没有商用或者大规模使用的意图,所以racknerd感觉够用了,其他用途肯定可以换个更稳定的。
1 服务器
1.1 挑选机子
这里我选的机子:racknerd黑五特惠 1c1g
原因:
- 海外服务器,方便一些
- 网络性价比太好了
image720×803 26.9 KB
10刀,折合rmb70多一点,用过之后瞬间觉得以前华为云、阿里云、腾讯云。。。2tb bandwidth才70块钱,国内服务器这个价格似乎顶多1g+2m/s。。。
下单支付之后,racknerd发的邮件,包含初始信息
image632×785 35.4 KB
另外,racknerd没有花里胡哨的web控制台,就一个简单的php
image1219×901 50.1 KB
1.2 初始化服务器
先来一个apt update
todolist:
- 更改ssh端口
- 开启公钥验证,添加本地公钥到服务器
- 验证本地私钥登录是否成功
- 禁用密码登录(私钥登录成功情况下)
- 加上fail2ban
完成以上之后,开启防火墙ufw,端口只开ssh
2 域名
godaddy随便买个朗朗上口的域名,大概10-20rmb就有一年的。
买完去cloudflare添加域名,选择免费计划,加完按首页指示回godaddy改域名服务器,然后等cloudflare更新。
搜cloudflare tunnel,记录tunnel的token,先进下一步。
3 部署new-api
(机子遗留的docker-compose可能还是v1版本的,可以更新一下。)
git clone → 修改docker-compose
todolist:
- 添加cloud tunnel的服务配置到compose文件里面
- 修改compose文件里面new-api的postgre密码
- new-api端口改成
127.0.0.1:3000:3000,默认可能是3000:3000
改完配置运行起来,先用ssh转发服务器的3000,本地用浏览器先把new-api的管理员账户建好。
完成后回cloudflare改tunnel配置,加一些细节:
- 开启 Page Shield
- 开启 Bot Fight Mode
- SSL/TLS encryption: FULL
- 开启 Always Use HTTPS
- 开启 HTTP/3 (with QUIC)
- 开启 0-RTT Connection Resumption
image1474×806 48.6 KB
image1385×910 45.9 KB
image1392×925 52 KB
部署后最终状态
- ufw只开放ssh(已经改过端口)
- 外层用cloudflare全包
- 外人难以找到服务器ip,即使找到了ip也无法访问除了ssh之外的服务,ssh用fail2ban随时准备拉黑
4 New-api管理员使用
4.1 渠道管理
添加上游api渠道,每个渠道里面再加模型。newapi自带号池功能,可以用批量密钥(随机或轮询)。
image585×179 10.2 KB
4.2 模型定价
设置里面给未设置模型定价,没定价规划就给模型倍率设为1好了。
image1632×436 40.2 KB
4.3 用户管理
用户管理里面可以给每个用户单独添加额度。
image578×250 11.3 KB
4.4 playground
测试没问题即可使用了。
image1729×632 82.1 KB
image920×706 54.2 KB
致谢
选服务器:
https://linux.do/t/topic/1368367
newapi:
GitHub - QuantumNous/new-api: AI模型聚合管理中转分发系统,一个应用管理您的所有AI模型,支持将多种大模型转为统一格式调用,支持O...
AI模型聚合管理中转分发系统,一个应用管理您的所有AI模型,支持将多种大模型转为统一格式调用,支持OpenAI、Claude、Gemini等格式,可供个人或者企业内部管理与分发渠道使用。🍥 A Unified AI Model Management & Distribution System. Aggregate all your LLMs into one app and access them via an OpenAI-compatible API, with native support for Claude (Messages) and Gemini formats.
网友解答:--【壹】--:
要稳的话就算了,他们家经常不回消息,而且主打就是一个廉价
--【贰】--:
感谢分享
--【叁】--:
感谢分享经验 ,对新手经验增长
--【肆】--:
感谢分享
--【伍】--:
racknerd 血泪案例太多了
--【陆】--:
你的ollamacloud不封号吗?我之前全放在一个ip,200多个账号封的就剩两个。
--【柒】--:
感谢分享!
--【捌】--:
牛逼儿,不过为什么需要tunnel
--【玖】--:
感谢教程
--【拾】--:
哈哈 不是听说算是比较勤快回应了吗
我最近在看的时候他家的评价都是说客服还算可以
--【拾壹】--:
上游api渠道来自哪里
--【拾贰】--:
感谢分享
--【拾叁】--:
为了不开放端口吧,直接内网穿透了
--【拾肆】--:
感谢分享,小白有个问题.那么多账号从同一个IP发请求.怎么防止被关联或者封禁的?
--【拾伍】--: kvchiu:
racknerd
最近我也在考虑这家
看大家都蛮推荐的
--【拾陆】--:
感谢分享!
--【拾柒】--:
我蹬的ollamacloud,感觉他们家本身对白嫖就抓得不是很严
成果
【今天一看论坛私信,被举报了,原因是被认为违规推广,可能是一开始放了网址,所以现在改掉了】
目前只是小圈子自用的亲友api池子,并没有商用或者大规模使用的意图,所以racknerd感觉够用了,其他用途肯定可以换个更稳定的。
1 服务器
1.1 挑选机子
这里我选的机子:racknerd黑五特惠 1c1g
原因:
- 海外服务器,方便一些
- 网络性价比太好了
image720×803 26.9 KB
10刀,折合rmb70多一点,用过之后瞬间觉得以前华为云、阿里云、腾讯云。。。2tb bandwidth才70块钱,国内服务器这个价格似乎顶多1g+2m/s。。。
下单支付之后,racknerd发的邮件,包含初始信息
image632×785 35.4 KB
另外,racknerd没有花里胡哨的web控制台,就一个简单的php
image1219×901 50.1 KB
1.2 初始化服务器
先来一个apt update
todolist:
- 更改ssh端口
- 开启公钥验证,添加本地公钥到服务器
- 验证本地私钥登录是否成功
- 禁用密码登录(私钥登录成功情况下)
- 加上fail2ban
完成以上之后,开启防火墙ufw,端口只开ssh
2 域名
godaddy随便买个朗朗上口的域名,大概10-20rmb就有一年的。
买完去cloudflare添加域名,选择免费计划,加完按首页指示回godaddy改域名服务器,然后等cloudflare更新。
搜cloudflare tunnel,记录tunnel的token,先进下一步。
3 部署new-api
(机子遗留的docker-compose可能还是v1版本的,可以更新一下。)
git clone → 修改docker-compose
todolist:
- 添加cloud tunnel的服务配置到compose文件里面
- 修改compose文件里面new-api的postgre密码
- new-api端口改成
127.0.0.1:3000:3000,默认可能是3000:3000
改完配置运行起来,先用ssh转发服务器的3000,本地用浏览器先把new-api的管理员账户建好。
完成后回cloudflare改tunnel配置,加一些细节:
- 开启 Page Shield
- 开启 Bot Fight Mode
- SSL/TLS encryption: FULL
- 开启 Always Use HTTPS
- 开启 HTTP/3 (with QUIC)
- 开启 0-RTT Connection Resumption
image1474×806 48.6 KB
image1385×910 45.9 KB
image1392×925 52 KB
部署后最终状态
- ufw只开放ssh(已经改过端口)
- 外层用cloudflare全包
- 外人难以找到服务器ip,即使找到了ip也无法访问除了ssh之外的服务,ssh用fail2ban随时准备拉黑
4 New-api管理员使用
4.1 渠道管理
添加上游api渠道,每个渠道里面再加模型。newapi自带号池功能,可以用批量密钥(随机或轮询)。
image585×179 10.2 KB
4.2 模型定价
设置里面给未设置模型定价,没定价规划就给模型倍率设为1好了。
image1632×436 40.2 KB
4.3 用户管理
用户管理里面可以给每个用户单独添加额度。
image578×250 11.3 KB
4.4 playground
测试没问题即可使用了。
image1729×632 82.1 KB
image920×706 54.2 KB
致谢
选服务器:
https://linux.do/t/topic/1368367
newapi:
GitHub - QuantumNous/new-api: AI模型聚合管理中转分发系统,一个应用管理您的所有AI模型,支持将多种大模型转为统一格式调用,支持O...
AI模型聚合管理中转分发系统,一个应用管理您的所有AI模型,支持将多种大模型转为统一格式调用,支持OpenAI、Claude、Gemini等格式,可供个人或者企业内部管理与分发渠道使用。🍥 A Unified AI Model Management & Distribution System. Aggregate all your LLMs into one app and access them via an OpenAI-compatible API, with native support for Claude (Messages) and Gemini formats.
网友解答:--【壹】--:
要稳的话就算了,他们家经常不回消息,而且主打就是一个廉价
--【贰】--:
感谢分享
--【叁】--:
感谢分享经验 ,对新手经验增长
--【肆】--:
感谢分享
--【伍】--:
racknerd 血泪案例太多了
--【陆】--:
你的ollamacloud不封号吗?我之前全放在一个ip,200多个账号封的就剩两个。
--【柒】--:
感谢分享!
--【捌】--:
牛逼儿,不过为什么需要tunnel
--【玖】--:
感谢教程
--【拾】--:
哈哈 不是听说算是比较勤快回应了吗
我最近在看的时候他家的评价都是说客服还算可以
--【拾壹】--:
上游api渠道来自哪里
--【拾贰】--:
感谢分享
--【拾叁】--:
为了不开放端口吧,直接内网穿透了
--【拾肆】--:
感谢分享,小白有个问题.那么多账号从同一个IP发请求.怎么防止被关联或者封禁的?
--【拾伍】--: kvchiu:
racknerd
最近我也在考虑这家
看大家都蛮推荐的
--【拾陆】--:
感谢分享!
--【拾柒】--:
我蹬的ollamacloud,感觉他们家本身对白嫖就抓得不是很严

