「开源」实时掌控你的反重力ide上下文情况--v1.11.2更新各种token消耗可视化数据,让你实时掌控配额 ,现在全平台可用
- 内容介绍
- 文章标签
- 相关推荐
本帖使用社区公益推广,符合推广要求。我申明并遵循社区要求的以下内容:
- 我的项目是免费使用的,无收费(变相收费、赞助)部分: 是
- 我的帖子已经打上 公益推广 标签: 是
- 我的项目属于个人项目,与公司或商业机构无关: 是
- 我的项目不存在QQ、TG等群组引流: 是
- 我的项目不存在非运营必要的网站引流: 是
- 我的项目不存在为他人推广、AFF: 是
- 我的项目无关联的商业项目: 是
- 我的 GitHub 项目无未开源部分: 是 (开源项目专用)
- 我的站点存在登录,并已接入 LINUX DO Connect: 否
- 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
- 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
免责声明,由于底层google提供的数据,所以相关数据不一定准确,仅供参考
更新token可视化的各种截图
image1338×1930 162 KB
image1360×1854 131 KB
image1378×965 37.4 KB
image1370×999 55.5 KB
image1382×1379 58.4 KB
image1347×1916 160 KB
image1318×1198 65.3 KB
image536×1164 54.6 KB
从 v1.10.1 到 v1.11.2 又更新了什么
模型活动监控 + 预估步数追踪(v1.11.2)
这个版本最大的更新。现在插件能实时追踪每个 AI 模型的推理调用、工具使用、消耗 token 和耗时了。
状态栏多了一个紧凑的活动指示器,显示推理/工具调用次数,点击直接跳转到 Activity 标签页。活动数据通过 globalState 持久化,Antigravity 重启不丢数据。
还加了几个实用功能:
- 配额重置自动归档:配额重置的时候会自动保存一份活动快照,方便回溯
- 预估步数追踪:API 只返回最近约 500 步的数据,超出部分现在会基于主要模型进行估算
- 低配额通知:任何模型的剩余配额低于阈值时会弹出警告
- 配额颜色阈值调整:80%/20% 分界,更符合直觉
代码层面又做了一次拆分,把之前单体的 webview-panel.ts 拆成了 8 个聚焦模块。
还修了几个 bug:配额耗尽时 remainingFraction 默认值从 1 改为 0(之前 LS 不返回这个字段的时候会显示满配额)、归档数据完整性修复、恢复重复事件修复、预估步数归因错误修复。
感谢 @NightMin2002 的贡献(PR #17)。
WebView UI 打磨(v1.11.1)
这个版本主要是界面细节优化:
- 卡片式折叠面板:所有折叠区域从之前简陋的分隔线,升级成了圆角卡片容器,带悬停高亮和自定义展开/收起箭头按钮
- 自定义数字微调器:把浏览器默认的数字输入框替换成了 [−] [+] 按钮,观感一致了
感谢 @NightMin2002 的 UI 优化贡献(PR #15)。
交互式设置面板 + 全面自定义 UI(v1.11.0)
这个版本加了个完整的设置界面。WebView 面板现在有两个标签页:Monitor 和 Settings,不用再去 VS Code 设置里翻配置项了。
Settings 标签里能直接调的东西:
- 自定义压缩预警阈值:150K-900K 预设可选,提前收到压缩警告
- 状态栏配额指示器:带颜色的模型配额直接显示在状态栏
- 当前模型重置倒计时:追踪你正在用的模型什么时候重置配额
- 状态栏显示开关:可以单独隐藏/显示状态栏的各个元素
- 暂停/恢复轮询、原始 LS 数据查看、Git 信息显示
同时修了 StatusBarManager 停用时的定时器泄漏。CSS 也提取到了 webview-styles.ts,所有 38 个测试全部通过。
感谢 @NightMin2002 的贡献(PR #14)。
状态栏配额摘要 + 自动刷新(v1.10.3)
悬浮提示再次升级:
- 每个模型的配额百分比,带颜色指示(≥60% / ≥40% / <40%),还有每个模型的重置倒计时和计划/等级显示,用 Markdown 表格排版
- 用户状态自动刷新:模型配额和计划信息每 ~60 秒自动刷新一次,数据通过
globalState持久化,重新加载时秒显示
感谢 @NightMin2002 的跟进贡献(PR #13)。
跨平台工作区 ID 连字符修复(v1.10.2)
一个关键 bug 修复。之前 buildExpectedWorkspaceId() 只在 Windows 上把连字符(-)替换成下划线(_),macOS 和 Linux 上没处理。结果就是如果你的项目文件夹名带连字符(比如 my-project、schic-diff),工作区发现会匹配到错误的 LS 实例,状态栏显示的是另一个工作区的过期数据。
现在三平台统一处理了。
感谢 @FlorianHuo 的报告和修复(PR #12)。
说一下这几个版本的总体变化:从 v1.10.1 到 v1.11.2,插件从一个"上下文监控工具"进化成了一个"AI 使用全方位仪表盘"。现在不光能看上下文用了多少,还能看每个模型的活动统计、配额状态、自定义各种显示偏好,而且所有配置都有 GUI 界面,不用手动改 JSON 了。
特别感谢两位社区贡献者 @NightMin2002 和 @FlorianHuo,这几个版本的大部分功能都是他们贡献的 PR。
从 v1.8.0 到 v1.10.1 又更新了什么
WebView 监控面板(v1.10.1)
这个版本最大的亮点。现在点击状态栏会打开一个完整的仪表盘侧边面板,不再是之前的 QuickPick 弹窗了。
面板里能看到的东西:
- 账户计划、用户等级、Prompt/Flow Credits 余额
- 每个模型的配额用量,带颜色进度条(绿 → 黄 → 红),还显示重置时间
- 当前会话的上下文使用情况、模型、步骤数、压缩状态
- 同工作区内其他会话列表
- 隐私遮罩:面板顶上有个盾牌按钮 ,一键遮住姓名和邮箱,状态跨刷新持久化
- 可折叠区域:计划限制、Feature Flags、团队配置、Google AI 额度这些默认折叠,不会一上来就信息爆炸
web view panel_cn2062×1860 159 KB
所有数据都来自已有的 GetUserStatus API 调用,零额外网络请求。
这个功能感谢 @NightMin2002 的贡献(PR #10)。
悬浮提示也升级了,现在包含每个模型的配额百分比和颜色指示。
语言切换 + 代码大重构(v1.10.0)
之前是硬编码的中英双语,现在改成了三种显示模式可选:仅中文、仅英文、双语。通过 Switch Display Language 命令切换,也可以在详情面板底部直选。偏好用 globalState 持久化,关了重开还在。
底层支持了完整的 i18n 模块(src/i18n.ts),80+ 个翻译 key,所有用户可见的字符串都走这套。
同版本还有个重要更新:Claude 4.6 的上下文限制从 200K 更新到了 1M,反映 2026-03-13 正式发布的 1M 上下文窗口。所以现在用 Claude 的时候子智能体切换不再导致上下文上限变化了。
代码层面做了一次大重构:把 838 行的 tracker.ts 拆成了四个模块:
src/rpc-client.ts— RPC 通信层src/models.ts— 模型配置和显示名称src/constants.ts— 所有字符串和数字常量src/i18n.ts— 国际化系统
测试从 v1.9.0 的 10 个涨到了 37 个,新增了 tracker.test.ts(16 个)和 statusbar.test.ts(11 个)。
Gemini 3 Flash 模型 ID 修复(v1.9.0)
这个是关键 bug 修复。Gemini 3 Flash 后端偷偷把内部模型 ID 从 M18 改成了 M47,不更新的话插件直接识别不到这个模型,上下文上限显示会出问题。
通过实时 LS 探测确认了 M18 确实被移除,替换为 M47,标签还是 “Gemini 3 Flash”。插件保留了 M18 作为向后兼容的旧别名,确保历史对话数据不受影响。
Antigravity Context Window Monitor v1.8.0 更新帖
原帖 「开源」再也不用猜上下文还剩多少了 —— Antigravity 上下文窗口监控插件 - 开发调优 - LINUX DO
简介
之前发过一次这个插件的帖子,当时还只支持 macOS,Windows 和 Linux 都没做。
然后昨天vibe了一下,现在三平台全部支持了 —— macOS、Linux、Windows 都能用。
老规矩先说这东西干嘛的:在 Antigravity IDE 右下角状态栏实时显示你当前对话的上下文 token 用量,比如 125k/200k, 62.5%。功能具体介绍见github readme readme
用过 AI 编程助手的都懂,聊着聊着上下文窗口就满了,模型开始"失忆"或者压缩历史,但你根本不知道什么时候会触发。装上这个插件就一目了然。
从上次发帖到现在都更新了什么
Windows 全面支持(v1.7.0 ~ v1.8.0)
这是最大的更新。之前 Windows 一直是 Coming soon 状态,现在终于搞定了。
进程发现用的 wmic.exe(原生命令,没有 PowerShell 的冷启动开销),端口发现用 netstat -ano(大概 25ms,是 Windows 上最快的方案了)。PowerShell 的 Get-CimInstance 作为 fallback ,三终端都有完善的fallback机制。
v1.7.1 修了bug:Windows 下驱动器号的冒号要编码成 _3A_,之前没处理对,多工作区环境会连到错误的 LS 实例,状态栏一直显示"无对话"。
v1.8.0 又加了 wmic 可用性缓存,降低了轮询开销。
Linux 支持(v1.6.0)
进程发现用 ps,端口发现优先 lsof、fallback 到 ss -tlnp。同时支持 x64 和 ARM64。在 Docker (Ubuntu 22.04) 里测试通过的。
双层压缩检测(v1.5.1)
压缩检测从单层升级到了双层:
- 主层:比较连续两个 checkpoint 的
inputTokens,下降超过 5000 tokens 就判定为压缩。这个天然免疫 Undo 误报,因为 checkpoint 数据是不可变的 - 降级层:跨轮询比较
contextUsed变化,带 Undo 排除守卫(stepCount 减少时跳过)
之前的单层检测经常被 Undo 操作搞出误报,现在基本不会了。
基于内容的 Token 估算(v1.4.0)
之前两次 checkpoint 之间的 token 增量是用固定常量估的(用户输入 500 tokens,模型回复 800 tokens),很不准。现在改成了根据实际步骤文本内容的字符数来估算,精度提升了一大截。固定常量只在步骤数据结构缺失时作为 fallback。
同版本还加了动态模型显示名称,通过 GetUserStatus API 获取,不再依赖硬编码。
一堆 Bug 修复和稳定性改进
这次更新修复了一些问题,挑几个比较重要的说:
- 加了
isPolling重入锁,防止 RPC 调用超时的情况下pollContextUsage()并发执行 pollGeneration代计数器,restartPolling()的时候旧的轮询链会静默退出,不会再产生孤儿定时器probePort支持AbortSignal,扩展停用时可以取消正在进行的请求contextUsed计算修正,之前漏了最后一个 checkpoint 的outputTokens- 批量步骤拉取限制并发数为 5,长对话不会再瞬间发几百个 RPC 请求爆掉
- 状态栏在数据有缺失时显示 标识,不再只在 tooltip 里藏着
已知问题说几个
- 同一文件夹开多个窗口,数据会混在一起。这是底层限制导致的(共享 workspace URI),解决方法就是不同窗口开不同文件夹
- Antigravity 有个硬编码的 7500 token 总结阈值, token 实际计数可能有轻微偏差,但是底层是使用的实际使用数据进行探测的
- 用 Claude 的时候,Antigravity 可能会偷偷调 Gemini 2.5 Flash Lite 当子智能体,这时候上下文上限会临时跳到 1M,Claude 回来之后又变回 200k。这不是 bug,是 Antigravity 的正常行为,插件只是如实反映
- 新建对话默认显示
0k/1000k,跟模型聊了之后才会更新 - 如有bug敬请谅解
怎么装
- 直接从 Open VSX Registry 安装
- 或者下载
.vsix文件,通过 扩展 → 从 VSIX 安装 - 装完重启就生效,右下角就能看到
悬停看详细信息,点击看所有会话列表。
项目地址
GitHub - AGI-is-going-to-arrive/Antigravity-Context-Window-Monitor: Real-time display of the current session's context...
Real-time display of the current session's context window usage and remaining amount for Antigravity
直接下载
Open VSX Registry
昨天发帖没注意,现在分享开源项目需要加模板,修改之后发出。
路过觉得有用的佬给个 star 吧 。顺便求Github主页的Memory-Palace 项目的star,同时欢迎大家来使用,推荐使用skills+mcp的方式。龙虾版本的也在全力开发中,进入尾声,进行windows和mac上的压力测试
--【壹】--:
更新了可视化相关的,需要用的欢迎看一看
--【贰】--:
有一种说法是反重力本身是支持的,因为之前我用过反重力,很容易触发提示词过长的问题,而现在没有这样过,即使输入长达300k文档,又或者反代进行使用是支持1M的,它都是可以正常回复的,说白了就是反重力自己的问题,它里面自动压缩上下文遗留在过去,强制让克劳德全程只能保持150k到200k左右上下文,只能说被反重力给害了,限制太大了,只有等官方自己解决了
--【叁】--:
支持佬友,已严肃star
MacOS中功能正常:
image1296×842 111 KB
--【肆】--:
现在不清楚,因为我是看到别人说有1。
然后有人提了pr,就merge进来了
--【伍】--:
好的吧,刚从最新版回退回去,最新版一直提示忙,让我重试,感谢回复
--【陆】--:
感谢大佬!
--【柒】--:
这个还蛮实用
--【捌】--:
太强了佬友,下周干活了试试
--【玖】--:
1.15.0重新下载下最新版的,之前没有把更新的内容打包进入vsix
--【拾】--:
要对话一轮才会更新。然后同一个文件夹中打开的多个窗口不准,底层技术限制导致的,readme中有写
--【拾壹】--:
感谢分享
--【拾贰】--:
windows 1.19.6版本的反重力,下载了1.15,一直提示LS not found
--【拾叁】--:
更新antigravity吧,新版的antigravity底层接口更新了,旧版的探测技术不适用了。
如果还是不行你私信我把,我看看是什么情况
--【拾肆】--:
佬,反重力的opus4.6确认更新1M上下文了吗,我看对话里的上下文都没有超过300K的时候,还是会被压缩
--【拾伍】--:
这个好啊,感谢佬友,辛苦了!
--【拾陆】--:
貌似有几个小问题,配合不会根据会话自动切换,只能手动?
我使用的是opus,但是配额显示的是gemini:
image880×890 113 KB
--【拾柒】--:
只能说,未来可期这块
--【拾捌】--:
反正不知道antigravity现在输出了7500token强制summary的这个情况解决了没
本帖使用社区公益推广,符合推广要求。我申明并遵循社区要求的以下内容:
- 我的项目是免费使用的,无收费(变相收费、赞助)部分: 是
- 我的帖子已经打上 公益推广 标签: 是
- 我的项目属于个人项目,与公司或商业机构无关: 是
- 我的项目不存在QQ、TG等群组引流: 是
- 我的项目不存在非运营必要的网站引流: 是
- 我的项目不存在为他人推广、AFF: 是
- 我的项目无关联的商业项目: 是
- 我的 GitHub 项目无未开源部分: 是 (开源项目专用)
- 我的站点存在登录,并已接入 LINUX DO Connect: 否
- 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
- 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
免责声明,由于底层google提供的数据,所以相关数据不一定准确,仅供参考
更新token可视化的各种截图
image1338×1930 162 KB
image1360×1854 131 KB
image1378×965 37.4 KB
image1370×999 55.5 KB
image1382×1379 58.4 KB
image1347×1916 160 KB
image1318×1198 65.3 KB
image536×1164 54.6 KB
从 v1.10.1 到 v1.11.2 又更新了什么
模型活动监控 + 预估步数追踪(v1.11.2)
这个版本最大的更新。现在插件能实时追踪每个 AI 模型的推理调用、工具使用、消耗 token 和耗时了。
状态栏多了一个紧凑的活动指示器,显示推理/工具调用次数,点击直接跳转到 Activity 标签页。活动数据通过 globalState 持久化,Antigravity 重启不丢数据。
还加了几个实用功能:
- 配额重置自动归档:配额重置的时候会自动保存一份活动快照,方便回溯
- 预估步数追踪:API 只返回最近约 500 步的数据,超出部分现在会基于主要模型进行估算
- 低配额通知:任何模型的剩余配额低于阈值时会弹出警告
- 配额颜色阈值调整:80%/20% 分界,更符合直觉
代码层面又做了一次拆分,把之前单体的 webview-panel.ts 拆成了 8 个聚焦模块。
还修了几个 bug:配额耗尽时 remainingFraction 默认值从 1 改为 0(之前 LS 不返回这个字段的时候会显示满配额)、归档数据完整性修复、恢复重复事件修复、预估步数归因错误修复。
感谢 @NightMin2002 的贡献(PR #17)。
WebView UI 打磨(v1.11.1)
这个版本主要是界面细节优化:
- 卡片式折叠面板:所有折叠区域从之前简陋的分隔线,升级成了圆角卡片容器,带悬停高亮和自定义展开/收起箭头按钮
- 自定义数字微调器:把浏览器默认的数字输入框替换成了 [−] [+] 按钮,观感一致了
感谢 @NightMin2002 的 UI 优化贡献(PR #15)。
交互式设置面板 + 全面自定义 UI(v1.11.0)
这个版本加了个完整的设置界面。WebView 面板现在有两个标签页:Monitor 和 Settings,不用再去 VS Code 设置里翻配置项了。
Settings 标签里能直接调的东西:
- 自定义压缩预警阈值:150K-900K 预设可选,提前收到压缩警告
- 状态栏配额指示器:带颜色的模型配额直接显示在状态栏
- 当前模型重置倒计时:追踪你正在用的模型什么时候重置配额
- 状态栏显示开关:可以单独隐藏/显示状态栏的各个元素
- 暂停/恢复轮询、原始 LS 数据查看、Git 信息显示
同时修了 StatusBarManager 停用时的定时器泄漏。CSS 也提取到了 webview-styles.ts,所有 38 个测试全部通过。
感谢 @NightMin2002 的贡献(PR #14)。
状态栏配额摘要 + 自动刷新(v1.10.3)
悬浮提示再次升级:
- 每个模型的配额百分比,带颜色指示(≥60% / ≥40% / <40%),还有每个模型的重置倒计时和计划/等级显示,用 Markdown 表格排版
- 用户状态自动刷新:模型配额和计划信息每 ~60 秒自动刷新一次,数据通过
globalState持久化,重新加载时秒显示
感谢 @NightMin2002 的跟进贡献(PR #13)。
跨平台工作区 ID 连字符修复(v1.10.2)
一个关键 bug 修复。之前 buildExpectedWorkspaceId() 只在 Windows 上把连字符(-)替换成下划线(_),macOS 和 Linux 上没处理。结果就是如果你的项目文件夹名带连字符(比如 my-project、schic-diff),工作区发现会匹配到错误的 LS 实例,状态栏显示的是另一个工作区的过期数据。
现在三平台统一处理了。
感谢 @FlorianHuo 的报告和修复(PR #12)。
说一下这几个版本的总体变化:从 v1.10.1 到 v1.11.2,插件从一个"上下文监控工具"进化成了一个"AI 使用全方位仪表盘"。现在不光能看上下文用了多少,还能看每个模型的活动统计、配额状态、自定义各种显示偏好,而且所有配置都有 GUI 界面,不用手动改 JSON 了。
特别感谢两位社区贡献者 @NightMin2002 和 @FlorianHuo,这几个版本的大部分功能都是他们贡献的 PR。
从 v1.8.0 到 v1.10.1 又更新了什么
WebView 监控面板(v1.10.1)
这个版本最大的亮点。现在点击状态栏会打开一个完整的仪表盘侧边面板,不再是之前的 QuickPick 弹窗了。
面板里能看到的东西:
- 账户计划、用户等级、Prompt/Flow Credits 余额
- 每个模型的配额用量,带颜色进度条(绿 → 黄 → 红),还显示重置时间
- 当前会话的上下文使用情况、模型、步骤数、压缩状态
- 同工作区内其他会话列表
- 隐私遮罩:面板顶上有个盾牌按钮 ,一键遮住姓名和邮箱,状态跨刷新持久化
- 可折叠区域:计划限制、Feature Flags、团队配置、Google AI 额度这些默认折叠,不会一上来就信息爆炸
web view panel_cn2062×1860 159 KB
所有数据都来自已有的 GetUserStatus API 调用,零额外网络请求。
这个功能感谢 @NightMin2002 的贡献(PR #10)。
悬浮提示也升级了,现在包含每个模型的配额百分比和颜色指示。
语言切换 + 代码大重构(v1.10.0)
之前是硬编码的中英双语,现在改成了三种显示模式可选:仅中文、仅英文、双语。通过 Switch Display Language 命令切换,也可以在详情面板底部直选。偏好用 globalState 持久化,关了重开还在。
底层支持了完整的 i18n 模块(src/i18n.ts),80+ 个翻译 key,所有用户可见的字符串都走这套。
同版本还有个重要更新:Claude 4.6 的上下文限制从 200K 更新到了 1M,反映 2026-03-13 正式发布的 1M 上下文窗口。所以现在用 Claude 的时候子智能体切换不再导致上下文上限变化了。
代码层面做了一次大重构:把 838 行的 tracker.ts 拆成了四个模块:
src/rpc-client.ts— RPC 通信层src/models.ts— 模型配置和显示名称src/constants.ts— 所有字符串和数字常量src/i18n.ts— 国际化系统
测试从 v1.9.0 的 10 个涨到了 37 个,新增了 tracker.test.ts(16 个)和 statusbar.test.ts(11 个)。
Gemini 3 Flash 模型 ID 修复(v1.9.0)
这个是关键 bug 修复。Gemini 3 Flash 后端偷偷把内部模型 ID 从 M18 改成了 M47,不更新的话插件直接识别不到这个模型,上下文上限显示会出问题。
通过实时 LS 探测确认了 M18 确实被移除,替换为 M47,标签还是 “Gemini 3 Flash”。插件保留了 M18 作为向后兼容的旧别名,确保历史对话数据不受影响。
Antigravity Context Window Monitor v1.8.0 更新帖
原帖 「开源」再也不用猜上下文还剩多少了 —— Antigravity 上下文窗口监控插件 - 开发调优 - LINUX DO
简介
之前发过一次这个插件的帖子,当时还只支持 macOS,Windows 和 Linux 都没做。
然后昨天vibe了一下,现在三平台全部支持了 —— macOS、Linux、Windows 都能用。
老规矩先说这东西干嘛的:在 Antigravity IDE 右下角状态栏实时显示你当前对话的上下文 token 用量,比如 125k/200k, 62.5%。功能具体介绍见github readme readme
用过 AI 编程助手的都懂,聊着聊着上下文窗口就满了,模型开始"失忆"或者压缩历史,但你根本不知道什么时候会触发。装上这个插件就一目了然。
从上次发帖到现在都更新了什么
Windows 全面支持(v1.7.0 ~ v1.8.0)
这是最大的更新。之前 Windows 一直是 Coming soon 状态,现在终于搞定了。
进程发现用的 wmic.exe(原生命令,没有 PowerShell 的冷启动开销),端口发现用 netstat -ano(大概 25ms,是 Windows 上最快的方案了)。PowerShell 的 Get-CimInstance 作为 fallback ,三终端都有完善的fallback机制。
v1.7.1 修了bug:Windows 下驱动器号的冒号要编码成 _3A_,之前没处理对,多工作区环境会连到错误的 LS 实例,状态栏一直显示"无对话"。
v1.8.0 又加了 wmic 可用性缓存,降低了轮询开销。
Linux 支持(v1.6.0)
进程发现用 ps,端口发现优先 lsof、fallback 到 ss -tlnp。同时支持 x64 和 ARM64。在 Docker (Ubuntu 22.04) 里测试通过的。
双层压缩检测(v1.5.1)
压缩检测从单层升级到了双层:
- 主层:比较连续两个 checkpoint 的
inputTokens,下降超过 5000 tokens 就判定为压缩。这个天然免疫 Undo 误报,因为 checkpoint 数据是不可变的 - 降级层:跨轮询比较
contextUsed变化,带 Undo 排除守卫(stepCount 减少时跳过)
之前的单层检测经常被 Undo 操作搞出误报,现在基本不会了。
基于内容的 Token 估算(v1.4.0)
之前两次 checkpoint 之间的 token 增量是用固定常量估的(用户输入 500 tokens,模型回复 800 tokens),很不准。现在改成了根据实际步骤文本内容的字符数来估算,精度提升了一大截。固定常量只在步骤数据结构缺失时作为 fallback。
同版本还加了动态模型显示名称,通过 GetUserStatus API 获取,不再依赖硬编码。
一堆 Bug 修复和稳定性改进
这次更新修复了一些问题,挑几个比较重要的说:
- 加了
isPolling重入锁,防止 RPC 调用超时的情况下pollContextUsage()并发执行 pollGeneration代计数器,restartPolling()的时候旧的轮询链会静默退出,不会再产生孤儿定时器probePort支持AbortSignal,扩展停用时可以取消正在进行的请求contextUsed计算修正,之前漏了最后一个 checkpoint 的outputTokens- 批量步骤拉取限制并发数为 5,长对话不会再瞬间发几百个 RPC 请求爆掉
- 状态栏在数据有缺失时显示 标识,不再只在 tooltip 里藏着
已知问题说几个
- 同一文件夹开多个窗口,数据会混在一起。这是底层限制导致的(共享 workspace URI),解决方法就是不同窗口开不同文件夹
- Antigravity 有个硬编码的 7500 token 总结阈值, token 实际计数可能有轻微偏差,但是底层是使用的实际使用数据进行探测的
- 用 Claude 的时候,Antigravity 可能会偷偷调 Gemini 2.5 Flash Lite 当子智能体,这时候上下文上限会临时跳到 1M,Claude 回来之后又变回 200k。这不是 bug,是 Antigravity 的正常行为,插件只是如实反映
- 新建对话默认显示
0k/1000k,跟模型聊了之后才会更新 - 如有bug敬请谅解
怎么装
- 直接从 Open VSX Registry 安装
- 或者下载
.vsix文件,通过 扩展 → 从 VSIX 安装 - 装完重启就生效,右下角就能看到
悬停看详细信息,点击看所有会话列表。
项目地址
GitHub - AGI-is-going-to-arrive/Antigravity-Context-Window-Monitor: Real-time display of the current session's context...
Real-time display of the current session's context window usage and remaining amount for Antigravity
直接下载
Open VSX Registry
昨天发帖没注意,现在分享开源项目需要加模板,修改之后发出。
路过觉得有用的佬给个 star 吧 。顺便求Github主页的Memory-Palace 项目的star,同时欢迎大家来使用,推荐使用skills+mcp的方式。龙虾版本的也在全力开发中,进入尾声,进行windows和mac上的压力测试
--【壹】--:
更新了可视化相关的,需要用的欢迎看一看
--【贰】--:
有一种说法是反重力本身是支持的,因为之前我用过反重力,很容易触发提示词过长的问题,而现在没有这样过,即使输入长达300k文档,又或者反代进行使用是支持1M的,它都是可以正常回复的,说白了就是反重力自己的问题,它里面自动压缩上下文遗留在过去,强制让克劳德全程只能保持150k到200k左右上下文,只能说被反重力给害了,限制太大了,只有等官方自己解决了
--【叁】--:
支持佬友,已严肃star
MacOS中功能正常:
image1296×842 111 KB
--【肆】--:
现在不清楚,因为我是看到别人说有1。
然后有人提了pr,就merge进来了
--【伍】--:
好的吧,刚从最新版回退回去,最新版一直提示忙,让我重试,感谢回复
--【陆】--:
感谢大佬!
--【柒】--:
这个还蛮实用
--【捌】--:
太强了佬友,下周干活了试试
--【玖】--:
1.15.0重新下载下最新版的,之前没有把更新的内容打包进入vsix
--【拾】--:
要对话一轮才会更新。然后同一个文件夹中打开的多个窗口不准,底层技术限制导致的,readme中有写
--【拾壹】--:
感谢分享
--【拾贰】--:
windows 1.19.6版本的反重力,下载了1.15,一直提示LS not found
--【拾叁】--:
更新antigravity吧,新版的antigravity底层接口更新了,旧版的探测技术不适用了。
如果还是不行你私信我把,我看看是什么情况
--【拾肆】--:
佬,反重力的opus4.6确认更新1M上下文了吗,我看对话里的上下文都没有超过300K的时候,还是会被压缩
--【拾伍】--:
这个好啊,感谢佬友,辛苦了!
--【拾陆】--:
貌似有几个小问题,配合不会根据会话自动切换,只能手动?
我使用的是opus,但是配额显示的是gemini:
image880×890 113 KB
--【拾柒】--:
只能说,未来可期这块
--【拾捌】--:
反正不知道antigravity现在输出了7500token强制summary的这个情况解决了没

