推荐一下Pi

2026-04-29 11:012阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

pi coding agent 是目前我感觉最好用的coding agent
配置和使用教程可以参考另一个佬的帖子

【最强AI Agent】 π 使用教程 开发调优
这篇贴子用于快速上手pi,要深入了解详细内容请看我贴出的原文链接 前言 按照的作者话来说,Pi Coding Agent是一个有主见且极简的Coding Agent,这段时间爆火的OpenClaw就是基于此工具包构建的。上手了一段时间后,我敢说这就是目前最好用的AI Agent CLI。 很多项目爆火后都会迎来各种低质量的issues和ai生成的pr,而pi这个名字非常有意思,会与数学信息产…

推荐的原因主要有两个

1. 轻量简洁

默认启用的内置工具只有四个(read, bash, edit, write),系统提示词极短
在我的使用场景,pi加了提示词,picodex加了一样的mcp
picodex里面分别发一个hi看一下输入的token
pi
7FDBEB1A-F4B5-4E76-8DCA-E89D8403CE62608×184 13.3 KB
codex
0FF5A50A-7EAA-4F5F-ADE1-F1E7046FDB69612×166 13.5 KB
体感上就是用pi上下文增长的速度比用claude code或者codex慢很多

2. 可扩展性强

pi 提供了丰富的 API,通过扩展可以做很多事情(比如接入 MCP、Plan 模式、Subagents 等)
社区提供的扩展,主题和skill:pi.dev/packages
分享一下我在用的扩展

  • pi-mcp-adapter:提供 MCP 支持
  • pi-notify:任务执行完发送系统通知
  • pi-ghostty:在 ghostty 终端展示 pi 的运行状态
  • @hsingjui/pi-hooks:移植 Claude code 的部分 hookspi
  • 还有两个是自己写的statuslineui的优化,把pi改成了这样
    0615BA79-EBB6-4D67-B981-7FE1675C368E2062×1308 137 KB
网友解答:
--【壹】--:

有个oh-my-pi,也是集成了不少东西,但是长任务执行的东西还是不太满意,之前搞了个rpc模式,用tg看不到过程,凑合用了几天


--【贰】--:

不用看别的,看我给你的回复就行,没有别的方式。
另外不建议用目前的 deepseek 模型,能力差。


--【叁】--:

安装完,配置好模型就能正常用,如果有不顺手的地方,可以找找有没有别人写的的扩展或者自己写一个,oh-my-openagent还是太重了


--【肆】--:

如果开发一个公司内部用的agent,从0自己搞(参考他们的理念),还是以某些比如pi啊或者CC源码啊来做合适?


--【伍】--:

佬,如果要达到oh my opencode 这种开箱即用的水平,难度大不大


--【陆】--:

应该是没有坏的,你可以再试试。我认识的一位佬友就是通过 codex 登陆使用 pi 的。


--【柒】--:

之前 codex 登陆好像坏掉了,就没有进一步尝试了


--【捌】--:

我也在慢慢用pi,配合mimo或者longcat都能跑的很顺很快。目前没做过大工程。中小型问题很舒服。


--【玖】--:

oh-my-pi加了太多东西了,和pi作者的理念有点不符合


--【拾】--:

感谢分享,有空去折腾一下试试,省token这个真不错。


--【拾壹】--:

本来是想着省token,又安装了一堆外挂更增加了context的长度。


--【拾贰】--:

大佬,模型设置为 deepseek 怎么设置啊?可以看看你的配置文件吗?


--【拾叁】--:

啥?这些有免费资源啊?我用的是 deepseek 官网的 key。

那个教程没怎么说第三方配置,我看了 github 上的,信息太多了,不知道填哪个。我再看看。


--【拾肆】--:

等会儿折腾一下,还没试过这个,省token还挺好


--【拾伍】--:

扩展不一定占上下文,扩展注入上下文或者注册其它自定义的工具才会占上下文
其实pi不装扩展也够用


--【拾陆】--:

可以在pi作者的这两个package的基础上开发,能省很多事@mariozechner/pi-ai@mariozechner/pi-agent-core,如果是coding agent,也可以直接fork@mariozechner/pi-coding-agent开发


--【拾柒】--:

直接使用内置 DeepSeek 模型提供商(Amazon Bedrock / Fireworks):

写入~/.pi/agent/auth.json

{ "fireworks": { "type": "api_key", "key": "..." }, "amazon-bedrock": { "type": "api_key", "key": "..." } }

或者自定义配置:

写入~/.pi/agent/models.json

{ "providers": { "deepseek": { "baseUrl": "https://api.deepseek.com/v1", "api": "openai-completions", "apiKey": "DEEPSEEK_API_KEY", "models": [ { "id": "模型名", "name": "DeepSeek XXX", "reasoning": true, "input": ["text"], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 上下文窗口大小, "maxTokens": 最大输出大小 } ] } } }

问题描述:

pi coding agent 是目前我感觉最好用的coding agent
配置和使用教程可以参考另一个佬的帖子

【最强AI Agent】 π 使用教程 开发调优
这篇贴子用于快速上手pi,要深入了解详细内容请看我贴出的原文链接 前言 按照的作者话来说,Pi Coding Agent是一个有主见且极简的Coding Agent,这段时间爆火的OpenClaw就是基于此工具包构建的。上手了一段时间后,我敢说这就是目前最好用的AI Agent CLI。 很多项目爆火后都会迎来各种低质量的issues和ai生成的pr,而pi这个名字非常有意思,会与数学信息产…

推荐的原因主要有两个

1. 轻量简洁

默认启用的内置工具只有四个(read, bash, edit, write),系统提示词极短
在我的使用场景,pi加了提示词,picodex加了一样的mcp
picodex里面分别发一个hi看一下输入的token
pi
7FDBEB1A-F4B5-4E76-8DCA-E89D8403CE62608×184 13.3 KB
codex
0FF5A50A-7EAA-4F5F-ADE1-F1E7046FDB69612×166 13.5 KB
体感上就是用pi上下文增长的速度比用claude code或者codex慢很多

2. 可扩展性强

pi 提供了丰富的 API,通过扩展可以做很多事情(比如接入 MCP、Plan 模式、Subagents 等)
社区提供的扩展,主题和skill:pi.dev/packages
分享一下我在用的扩展

  • pi-mcp-adapter:提供 MCP 支持
  • pi-notify:任务执行完发送系统通知
  • pi-ghostty:在 ghostty 终端展示 pi 的运行状态
  • @hsingjui/pi-hooks:移植 Claude code 的部分 hookspi
  • 还有两个是自己写的statuslineui的优化,把pi改成了这样
    0615BA79-EBB6-4D67-B981-7FE1675C368E2062×1308 137 KB
网友解答:
--【壹】--:

有个oh-my-pi,也是集成了不少东西,但是长任务执行的东西还是不太满意,之前搞了个rpc模式,用tg看不到过程,凑合用了几天


--【贰】--:

不用看别的,看我给你的回复就行,没有别的方式。
另外不建议用目前的 deepseek 模型,能力差。


--【叁】--:

安装完,配置好模型就能正常用,如果有不顺手的地方,可以找找有没有别人写的的扩展或者自己写一个,oh-my-openagent还是太重了


--【肆】--:

如果开发一个公司内部用的agent,从0自己搞(参考他们的理念),还是以某些比如pi啊或者CC源码啊来做合适?


--【伍】--:

佬,如果要达到oh my opencode 这种开箱即用的水平,难度大不大


--【陆】--:

应该是没有坏的,你可以再试试。我认识的一位佬友就是通过 codex 登陆使用 pi 的。


--【柒】--:

之前 codex 登陆好像坏掉了,就没有进一步尝试了


--【捌】--:

我也在慢慢用pi,配合mimo或者longcat都能跑的很顺很快。目前没做过大工程。中小型问题很舒服。


--【玖】--:

oh-my-pi加了太多东西了,和pi作者的理念有点不符合


--【拾】--:

感谢分享,有空去折腾一下试试,省token这个真不错。


--【拾壹】--:

本来是想着省token,又安装了一堆外挂更增加了context的长度。


--【拾贰】--:

大佬,模型设置为 deepseek 怎么设置啊?可以看看你的配置文件吗?


--【拾叁】--:

啥?这些有免费资源啊?我用的是 deepseek 官网的 key。

那个教程没怎么说第三方配置,我看了 github 上的,信息太多了,不知道填哪个。我再看看。


--【拾肆】--:

等会儿折腾一下,还没试过这个,省token还挺好


--【拾伍】--:

扩展不一定占上下文,扩展注入上下文或者注册其它自定义的工具才会占上下文
其实pi不装扩展也够用


--【拾陆】--:

可以在pi作者的这两个package的基础上开发,能省很多事@mariozechner/pi-ai@mariozechner/pi-agent-core,如果是coding agent,也可以直接fork@mariozechner/pi-coding-agent开发


--【拾柒】--:

直接使用内置 DeepSeek 模型提供商(Amazon Bedrock / Fireworks):

写入~/.pi/agent/auth.json

{ "fireworks": { "type": "api_key", "key": "..." }, "amazon-bedrock": { "type": "api_key", "key": "..." } }

或者自定义配置:

写入~/.pi/agent/models.json

{ "providers": { "deepseek": { "baseUrl": "https://api.deepseek.com/v1", "api": "openai-completions", "apiKey": "DEEPSEEK_API_KEY", "models": [ { "id": "模型名", "name": "DeepSeek XXX", "reasoning": true, "input": ["text"], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 上下文窗口大小, "maxTokens": 最大输出大小 } ] } } }