自建公益站过程记录,站在巨人的肩膀上,基于new-api,从服务器到域名到防护全流程教程

2026-04-29 09:592阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

成果

【今天一看论坛私信,被举报了,原因是被认为违规推广,可能是一开始放了网址,所以现在改掉了】

目前只是小圈子自用的亲友api池子,并没有商用或者大规模使用的意图,所以racknerd感觉够用了,其他用途肯定可以换个更稳定的。

1 服务器

1.1 挑选机子

这里我选的机子:racknerd黑五特惠 1c1g

原因:

  • 海外服务器,方便一些
  • 网络性价比太好了

image720×803 26.9 KB

10刀,折合rmb70多一点,用过之后瞬间觉得以前华为云、阿里云、腾讯云。。。2tb bandwidth才70块钱,国内服务器这个价格似乎顶多1g+2m/s。。。

下单支付之后,racknerd发的邮件,包含初始信息

image632×785 35.4 KB

另外,racknerd没有花里胡哨的web控制台,就一个简单的php

image1219×901 50.1 KB

1.2 初始化服务器

先来一个apt update

todolist:

  • 更改ssh端口
  • 开启公钥验证,添加本地公钥到服务器
  • 验证本地私钥登录是否成功
  • 禁用密码登录(私钥登录成功情况下)
  • 加上fail2ban

完成以上之后,开启防火墙ufw,端口只开ssh

2 域名

godaddy随便买个朗朗上口的域名,大概10-20rmb就有一年的。

买完去cloudflare添加域名,选择免费计划,加完按首页指示回godaddy改域名服务器,然后等cloudflare更新。

搜cloudflare tunnel,记录tunnel的token,先进下一步。

3 部署new-api

(机子遗留的docker-compose可能还是v1版本的,可以更新一下。)

git clone → 修改docker-compose

todolist:

  • 添加cloud tunnel的服务配置到compose文件里面
  • 修改compose文件里面new-api的postgre密码
  • new-api端口改成127.0.0.1:3000:3000,默认可能是3000:3000

改完配置运行起来,先用ssh转发服务器的3000,本地用浏览器先把new-api的管理员账户建好。

完成后回cloudflare改tunnel配置,加一些细节:

  • 开启 Page Shield
  • 开启 Bot Fight Mode
  • SSL/TLS encryption: FULL
  • 开启 Always Use HTTPS
  • 开启 HTTP/3 (with QUIC)
  • 开启 0-RTT Connection Resumption

image1474×806 48.6 KB

image1385×910 45.9 KB

image1392×925 52 KB

部署后最终状态

  • ufw只开放ssh(已经改过端口)
  • 外层用cloudflare全包
  • 外人难以找到服务器ip,即使找到了ip也无法访问除了ssh之外的服务,ssh用fail2ban随时准备拉黑

4 New-api管理员使用

4.1 渠道管理

添加上游api渠道,每个渠道里面再加模型。newapi自带号池功能,可以用批量密钥(随机或轮询)。

image585×179 10.2 KB

4.2 模型定价

设置里面给未设置模型定价,没定价规划就给模型倍率设为1好了。

image1632×436 40.2 KB

4.3 用户管理

用户管理里面可以给每个用户单独添加额度。

image578×250 11.3 KB

4.4 playground

测试没问题即可使用了。

image1729×632 82.1 KB

image920×706 54.2 KB

致谢

选服务器:
https://linux.do/t/topic/1368367

newapi:

github.com

GitHub - QuantumNous/new-api: AI模型聚合管理中转分发系统,一个应用管理您的所有AI模型,支持将多种大模型转为统一格式调用,支持O...

AI模型聚合管理中转分发系统,一个应用管理您的所有AI模型,支持将多种大模型转为统一格式调用,支持OpenAI、Claude、Gemini等格式,可供个人或者企业内部管理与分发渠道使用。🍥 A Unified AI Model Management & Distribution System. Aggregate all your LLMs into one app and access them via an OpenAI-compatible API, with native support for Claude (Messages) and Gemini formats.

网友解答:
--【壹】--:

要稳的话就算了,他们家经常不回消息,而且主打就是一个廉价


--【贰】--:

感谢分享


--【叁】--:

感谢分享经验 ,对新手经验增长


--【肆】--:

感谢分享


--【伍】--:

racknerd 血泪案例太多了


--【陆】--:

你的ollamacloud不封号吗?我之前全放在一个ip,200多个账号封的就剩两个。


--【柒】--:

感谢分享!


--【捌】--:

牛逼儿,不过为什么需要tunnel


--【玖】--:

感谢教程


--【拾】--:

哈哈 不是听说算是比较勤快回应了吗
我最近在看的时候他家的评价都是说客服还算可以


--【拾壹】--:

上游api渠道来自哪里


--【拾贰】--:

感谢分享


--【拾叁】--:

为了不开放端口吧,直接内网穿透了


--【拾肆】--:

感谢分享,小白有个问题.那么多账号从同一个IP发请求.怎么防止被关联或者封禁的?


--【拾伍】--: kvchiu:

racknerd

最近我也在考虑这家
看大家都蛮推荐的


--【拾陆】--:

感谢分享!


--【拾柒】--:

我蹬的ollamacloud,感觉他们家本身对白嫖就抓得不是很严