利用 Cloudflare Email Workers + Workers AI 零成本实现邮件验证码自动提取网关
- 内容介绍
- 文章标签
- 相关推荐
项目代码:mail.zip (4.1 KB)
众所周知,cloudflare 的 Workers ai 有提供每天 10k 的神经元额度
并且提供 Email Routing 和 Email Workers 服务,可以对邮件进行转发和处理
上面脚本的作用就是利用 cf 提供的免费 ai 额度,把邮件丢给ai,从邮件里提取出验证码/验证链接,然后存储到 kv 里(默认有效期10分钟,过期自动删除),通过 api 暴露出来。这样其实感觉比写正则匹配更鲁棒。具体可以干什么用呢?比如可以做注册机的邮件后端?想必各位佬友很清楚用法了。默认用的文本模型是qwen3-30b,速度还行,每次处理一封openai的邮件消耗大概30个神经元,所以平均每天差不多可以处理300封邮件,应该够用了吧(
具体用法就是:
- GET https://your-workers-domain.workers.dev/{你设置的鉴权密码}/get?email=test@yourdomain.com
- 会返回下面格式的内容:
{
"code": "123456",
"url": "https://example.com/verify?token=abc",
"sender": "noreply@service.com",
"at": "2026-04-09T03:15:00.000Z"
}
压缩包里有代码文件和 readme,有疑问可以问 ai
就酱
--【壹】--:
为什么不用 用注册机注册出来的codex 5.1 作为邮件解析api 去解析邮件 来注册codex呢
--【贰】--:
收个验证码还要过一遍ai不会觉得慢吗
除非是一些更复杂的需求,oai验证码完全不需要
--【叁】--:
很快,转发到出验证码可以做到5秒以内
如果换其他更小参数量的模型可以更快
针对不同的验证码邮件当然是用专门的正则最快了
但这个项目主要是考虑通用和代码层面的简洁,维护成本也低
就算换其他厂商也一样可以用
--【肆】--:
理论上也是可以的,可以对接任何ai,只是感觉用外部llm api会增加故障点
而且cf每天送的,不用白不用
项目代码:mail.zip (4.1 KB)
众所周知,cloudflare 的 Workers ai 有提供每天 10k 的神经元额度
并且提供 Email Routing 和 Email Workers 服务,可以对邮件进行转发和处理
上面脚本的作用就是利用 cf 提供的免费 ai 额度,把邮件丢给ai,从邮件里提取出验证码/验证链接,然后存储到 kv 里(默认有效期10分钟,过期自动删除),通过 api 暴露出来。这样其实感觉比写正则匹配更鲁棒。具体可以干什么用呢?比如可以做注册机的邮件后端?想必各位佬友很清楚用法了。默认用的文本模型是qwen3-30b,速度还行,每次处理一封openai的邮件消耗大概30个神经元,所以平均每天差不多可以处理300封邮件,应该够用了吧(
具体用法就是:
- GET https://your-workers-domain.workers.dev/{你设置的鉴权密码}/get?email=test@yourdomain.com
- 会返回下面格式的内容:
{
"code": "123456",
"url": "https://example.com/verify?token=abc",
"sender": "noreply@service.com",
"at": "2026-04-09T03:15:00.000Z"
}
压缩包里有代码文件和 readme,有疑问可以问 ai
就酱
--【壹】--:
为什么不用 用注册机注册出来的codex 5.1 作为邮件解析api 去解析邮件 来注册codex呢
--【贰】--:
收个验证码还要过一遍ai不会觉得慢吗
除非是一些更复杂的需求,oai验证码完全不需要
--【叁】--:
很快,转发到出验证码可以做到5秒以内
如果换其他更小参数量的模型可以更快
针对不同的验证码邮件当然是用专门的正则最快了
但这个项目主要是考虑通用和代码层面的简洁,维护成本也低
就算换其他厂商也一样可以用
--【肆】--:
理论上也是可以的,可以对接任何ai,只是感觉用外部llm api会增加故障点
而且cf每天送的,不用白不用

