「开源」实时掌控你的反重力ide上下文情况--v1.11.2更新各种token消耗可视化数据,让你实时掌控配额 ,现在全平台可用

2026-04-11 10:181阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

本帖使用社区公益推广,符合推广要求。我申明并遵循社区要求的以下内容:

  • 我的项目是免费使用的,无收费(变相收费、赞助)部分:
  • 我的帖子已经打上 公益推广 标签:
  • 我的项目属于个人项目,与公司或商业机构无关:
  • 我的项目不存在QQ、TG等群组引流:
  • 我的项目不存在非运营必要的网站引流:
  • 我的项目不存在为他人推广、AFF:
  • 我的项目无关联的商业项目:
  • 我的 GitHub 项目无未开源部分: 是 (开源项目专用)
  • 我的站点存在登录,并已接入 LINUX DO Connect:
  • 我帖子内的项目介绍,AI生成、润色内容部分已截图发出:
  • 以上选择我承诺是永久有效的,接受社区和佬友监督:

以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出


免责声明,由于底层google提供的数据,所以相关数据不一定准确,仅供参考

更新token可视化的各种截图

image1338×1930 162 KB

image1360×1854 131 KB

image1378×965 37.4 KB

image1370×999 55.5 KB

image1382×1379 58.4 KB

image1347×1916 160 KB

image1318×1198 65.3 KB

image536×1164 54.6 KB

从 v1.10.1 到 v1.11.2 又更新了什么

模型活动监控 + 预估步数追踪(v1.11.2)

这个版本最大的更新。现在插件能实时追踪每个 AI 模型的推理调用、工具使用、消耗 token 和耗时了。

状态栏多了一个紧凑的活动指示器,显示推理/工具调用次数,点击直接跳转到 Activity 标签页。活动数据通过 globalState 持久化,Antigravity 重启不丢数据

还加了几个实用功能:

  • 配额重置自动归档:配额重置的时候会自动保存一份活动快照,方便回溯
  • 预估步数追踪:API 只返回最近约 500 步的数据,超出部分现在会基于主要模型进行估算
  • 低配额通知:任何模型的剩余配额低于阈值时会弹出警告
  • 配额颜色阈值调整:80%/20% 分界,更符合直觉

代码层面又做了一次拆分,把之前单体的 webview-panel.ts 拆成了 8 个聚焦模块

还修了几个 bug:配额耗尽时 remainingFraction 默认值从 1 改为 0(之前 LS 不返回这个字段的时候会显示满配额)、归档数据完整性修复、恢复重复事件修复、预估步数归因错误修复。

感谢 @NightMin2002 的贡献(PR #17)。

WebView UI 打磨(v1.11.1)

这个版本主要是界面细节优化:

  • 卡片式折叠面板:所有折叠区域从之前简陋的分隔线,升级成了圆角卡片容器,带悬停高亮和自定义展开/收起箭头按钮
  • 自定义数字微调器:把浏览器默认的数字输入框替换成了 [−] [+] 按钮,观感一致了

感谢 @NightMin2002 的 UI 优化贡献(PR #15)。

交互式设置面板 + 全面自定义 UI(v1.11.0)

这个版本加了个完整的设置界面。WebView 面板现在有两个标签页:Monitor 和 Settings,不用再去 VS Code 设置里翻配置项了。

Settings 标签里能直接调的东西:

  • 自定义压缩预警阈值:150K-900K 预设可选,提前收到压缩警告
  • 状态栏配额指示器:带颜色的模型配额直接显示在状态栏
  • 当前模型重置倒计时:追踪你正在用的模型什么时候重置配额
  • 状态栏显示开关:可以单独隐藏/显示状态栏的各个元素
  • 暂停/恢复轮询原始 LS 数据查看Git 信息显示

同时修了 StatusBarManager 停用时的定时器泄漏。CSS 也提取到了 webview-styles.ts,所有 38 个测试全部通过。

感谢 @NightMin2002 的贡献(PR #14)。

状态栏配额摘要 + 自动刷新(v1.10.3)

悬浮提示再次升级:

  • 每个模型的配额百分比,带颜色指示(≥60% / ≥40% / <40%),还有每个模型的重置倒计时和计划/等级显示,用 Markdown 表格排版
  • 用户状态自动刷新:模型配额和计划信息每 ~60 秒自动刷新一次,数据通过 globalState 持久化,重新加载时秒显示

感谢 @NightMin2002 的跟进贡献(PR #13)。

跨平台工作区 ID 连字符修复(v1.10.2)

一个关键 bug 修复。之前 buildExpectedWorkspaceId() 只在 Windows 上把连字符(-)替换成下划线(_),macOS 和 Linux 上没处理。结果就是如果你的项目文件夹名带连字符(比如 my-projectschic-diff),工作区发现会匹配到错误的 LS 实例,状态栏显示的是另一个工作区的过期数据。

现在三平台统一处理了。

感谢 @FlorianHuo 的报告和修复(PR #12)。


说一下这几个版本的总体变化:从 v1.10.1 到 v1.11.2,插件从一个"上下文监控工具"进化成了一个"AI 使用全方位仪表盘"。现在不光能看上下文用了多少,还能看每个模型的活动统计、配额状态、自定义各种显示偏好,而且所有配置都有 GUI 界面,不用手动改 JSON 了。

特别感谢两位社区贡献者 @NightMin2002 和 @FlorianHuo,这几个版本的大部分功能都是他们贡献的 PR。

从 v1.8.0 到 v1.10.1 又更新了什么

WebView 监控面板(v1.10.1)

这个版本最大的亮点。现在点击状态栏会打开一个完整的仪表盘侧边面板,不再是之前的 QuickPick 弹窗了。

面板里能看到的东西:

  • 账户计划、用户等级、Prompt/Flow Credits 余额
  • 每个模型的配额用量,带颜色进度条(绿 → 黄 → 红),还显示重置时间
  • 当前会话的上下文使用情况、模型、步骤数、压缩状态
  • 同工作区内其他会话列表
  • 隐私遮罩:面板顶上有个盾牌按钮 ,一键遮住姓名和邮箱,状态跨刷新持久化
  • 可折叠区域:计划限制、Feature Flags、团队配置、Google AI 额度这些默认折叠,不会一上来就信息爆炸
    web view panel_cn2062×1860 159 KB

所有数据都来自已有的 GetUserStatus API 调用,零额外网络请求

这个功能感谢 @NightMin2002 的贡献(PR #10)。

悬浮提示也升级了,现在包含每个模型的配额百分比和颜色指示

语言切换 + 代码大重构(v1.10.0)

之前是硬编码的中英双语,现在改成了三种显示模式可选:仅中文、仅英文、双语。通过 Switch Display Language 命令切换,也可以在详情面板底部直选。偏好用 globalState 持久化,关了重开还在。

底层支持了完整的 i18n 模块(src/i18n.ts),80+ 个翻译 key,所有用户可见的字符串都走这套。

同版本还有个重要更新:Claude 4.6 的上下文限制从 200K 更新到了 1M,反映 2026-03-13 正式发布的 1M 上下文窗口。所以现在用 Claude 的时候子智能体切换不再导致上下文上限变化了。

代码层面做了一次大重构:把 838 行的 tracker.ts 拆成了四个模块:

  • src/rpc-client.ts — RPC 通信层
  • src/models.ts — 模型配置和显示名称
  • src/constants.ts — 所有字符串和数字常量
  • src/i18n.ts — 国际化系统

测试从 v1.9.0 的 10 个涨到了 37 个,新增了 tracker.test.ts(16 个)和 statusbar.test.ts(11 个)。

Gemini 3 Flash 模型 ID 修复(v1.9.0)

这个是关键 bug 修复。Gemini 3 Flash 后端偷偷把内部模型 ID 从 M18 改成了 M47,不更新的话插件直接识别不到这个模型,上下文上限显示会出问题。

通过实时 LS 探测确认了 M18 确实被移除,替换为 M47,标签还是 “Gemini 3 Flash”。插件保留了 M18 作为向后兼容的旧别名,确保历史对话数据不受影响。

Antigravity Context Window Monitor v1.8.0 更新帖

原帖 「开源」再也不用猜上下文还剩多少了 —— Antigravity 上下文窗口监控插件 - 开发调优 - LINUX DO

简介

之前发过一次这个插件的帖子,当时还只支持 macOS,Windows 和 Linux 都没做。

然后昨天vibe了一下,现在三平台全部支持了 —— macOS、Linux、Windows 都能用。

老规矩先说这东西干嘛的:在 Antigravity IDE 右下角状态栏实时显示你当前对话的上下文 token 用量,比如 125k/200k, 62.5%功能具体介绍见github readme readme

用过 AI 编程助手的都懂,聊着聊着上下文窗口就满了,模型开始"失忆"或者压缩历史,但你根本不知道什么时候会触发。装上这个插件就一目了然。


从上次发帖到现在都更新了什么

Windows 全面支持(v1.7.0 ~ v1.8.0)

这是最大的更新。之前 Windows 一直是 Coming soon 状态,现在终于搞定了。

进程发现用的 wmic.exe(原生命令,没有 PowerShell 的冷启动开销),端口发现用 netstat -ano(大概 25ms,是 Windows 上最快的方案了)。PowerShell 的 Get-CimInstance 作为 fallback ,三终端都有完善的fallback机制

v1.7.1 修了bug:Windows 下驱动器号的冒号要编码成 _3A_,之前没处理对,多工作区环境会连到错误的 LS 实例,状态栏一直显示"无对话"。

v1.8.0 又加了 wmic 可用性缓存,降低了轮询开销。

Linux 支持(v1.6.0)

进程发现用 ps,端口发现优先 lsoffallback 到 ss -tlnp。同时支持 x64 和 ARM64。在 Docker (Ubuntu 22.04) 里测试通过的。

双层压缩检测(v1.5.1)

压缩检测从单层升级到了双层:

  • 主层:比较连续两个 checkpoint 的 inputTokens,下降超过 5000 tokens 就判定为压缩。这个天然免疫 Undo 误报,因为 checkpoint 数据是不可变的
  • 降级层:跨轮询比较 contextUsed 变化,带 Undo 排除守卫(stepCount 减少时跳过)

之前的单层检测经常被 Undo 操作搞出误报,现在基本不会了。

基于内容的 Token 估算(v1.4.0)

之前两次 checkpoint 之间的 token 增量是用固定常量估的(用户输入 500 tokens,模型回复 800 tokens),很不准。现在改成了根据实际步骤文本内容的字符数来估算,精度提升了一大截。固定常量只在步骤数据结构缺失时作为 fallback。

同版本还加了动态模型显示名称,通过 GetUserStatus API 获取,不再依赖硬编码。

一堆 Bug 修复和稳定性改进

这次更新修复了一些问题,挑几个比较重要的说:

  • 加了 isPolling 重入锁,防止 RPC 调用超时的情况下 pollContextUsage() 并发执行
  • pollGeneration 代计数器,restartPolling() 的时候旧的轮询链会静默退出,不会再产生孤儿定时器
  • probePort 支持 AbortSignal,扩展停用时可以取消正在进行的请求
  • contextUsed 计算修正,之前漏了最后一个 checkpoint 的 outputTokens
  • 批量步骤拉取限制并发数为 5,长对话不会再瞬间发几百个 RPC 请求爆掉
  • 状态栏在数据有缺失时显示 标识,不再只在 tooltip 里藏着

已知问题说几个

  • 同一文件夹开多个窗口,数据会混在一起。这是底层限制导致的(共享 workspace URI),解决方法就是不同窗口开不同文件夹
  • Antigravity 有个硬编码的 7500 token 总结阈值, token 实际计数可能有轻微偏差,但是底层是使用的实际使用数据进行探测的
  • 用 Claude 的时候,Antigravity 可能会偷偷调 Gemini 2.5 Flash Lite 当子智能体,这时候上下文上限会临时跳到 1M,Claude 回来之后又变回 200k。这不是 bug,是 Antigravity 的正常行为,插件只是如实反映
  • 新建对话默认显示 0k/1000k,跟模型聊了之后才会更新
  • 如有bug敬请谅解

怎么装

  1. 直接从 Open VSX Registry 安装
  2. 或者下载 .vsix 文件,通过 扩展 → 从 VSIX 安装
  3. 装完重启就生效,右下角就能看到

悬停看详细信息,点击看所有会话列表。


项目地址

github.com

GitHub - AGI-is-going-to-arrive/Antigravity-Context-Window-Monitor: Real-time display of the current session's context...

Real-time display of the current session's context window usage and remaining amount for Antigravity

直接下载

open-vsx.org

Open VSX Registry

昨天发帖没注意,现在分享开源项目需要加模板,修改之后发出。
路过觉得有用的佬给个 star 吧 。顺便求Github主页的Memory-Palace 项目的star,同时欢迎大家来使用,推荐使用skills+mcp的方式。龙虾版本的也在全力开发中,进入尾声,进行windows和mac上的压力测试

网友解答:
--【壹】--:

更新了可视化相关的,需要用的欢迎看一看


--【贰】--:

有一种说法是反重力本身是支持的,因为之前我用过反重力,很容易触发提示词过长的问题,而现在没有这样过,即使输入长达300k文档,又或者反代进行使用是支持1M的,它都是可以正常回复的,说白了就是反重力自己的问题,它里面自动压缩上下文遗留在过去,强制让克劳德全程只能保持150k到200k左右上下文,只能说被反重力给害了,限制太大了,只有等官方自己解决了


--【叁】--:

支持佬友,已严肃star

MacOS中功能正常:

image1296×842 111 KB


--【肆】--:

现在不清楚,因为我是看到别人说有1。
然后有人提了pr,就merge进来了


--【伍】--:

好的吧,刚从最新版回退回去,最新版一直提示忙,让我重试,感谢回复


--【陆】--:

感谢大佬!


--【柒】--:

这个还蛮实用


--【捌】--:

太强了佬友,下周干活了试试


--【玖】--:

1.15.0重新下载下最新版的,之前没有把更新的内容打包进入vsix


--【拾】--:

要对话一轮才会更新。然后同一个文件夹中打开的多个窗口不准,底层技术限制导致的,readme中有写


--【拾壹】--:

感谢分享


--【拾贰】--:

windows 1.19.6版本的反重力,下载了1.15,一直提示LS not found


--【拾叁】--:

更新antigravity吧,新版的antigravity底层接口更新了,旧版的探测技术不适用了。
如果还是不行你私信我把,我看看是什么情况


--【拾肆】--:

佬,反重力的opus4.6确认更新1M上下文了吗,我看对话里的上下文都没有超过300K的时候,还是会被压缩


--【拾伍】--:

这个好啊,感谢佬友,辛苦了!


--【拾陆】--:

貌似有几个小问题,配合不会根据会话自动切换,只能手动?
我使用的是opus,但是配额显示的是gemini:

image880×890 113 KB


--【拾柒】--:

只能说,未来可期这块


--【拾捌】--:

反正不知道antigravity现在输出了7500token强制summary的这个情况解决了没