开源自荐 | 熬了10多个通宵,终于搞出了自己满意的linux语音输入法
- 内容介绍
- 文章标签
- 相关推荐
本帖使用社区公益推广,符合推广要求。我申明并遵循社区要求的以下内容:
- 我的项目是免费使用的,无收费(变相收费、赞助)部分: 是
- 我的帖子已经打上 公益推广 标签: 是
- 我的项目属于个人项目,与公司或商业机构无关: 是
- 我的项目不存在QQ、TG等群组引流: 是
- 我的项目不存在非运营必要的网站引流: 是
- 我的项目不存在为他人推广、AFF: 是
- 我的项目无关联的商业项目: 是
- 我的站点存在登录,并已接入 LINUX DO Connect: 否
- 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
- 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
GitHub - xifan2333/fcitx5-vinput: Local offline voice input plugin for Fcitx5
Local offline voice input plugin for Fcitx5
熬了好几个大夜,终于磨出来了,重构到 v2.0.10 了, 说说我觉得核心的优点。
优点
- 基于上游 sherpa-onnx 的多模型支持,以支持 Qwen3-asr 效果很好
- 纯 C++ 实现,占用低,模型载入内存的情况除外,Qwen3 大概占用 2G 左右,推理时。其他小模型 150m-300m 区间
- 完整的 linux 生态接入, 使用 dbus 及 标准流通信,无多余负载。
- gui/cli 多种管理方式,小白/资深党都很友好。可使用其他工具扩展,如 fzf
- 自建的上游仓库和插件机制,云 asr 服务,一律走系统 std 流,单脚本无依赖与daemon通讯,配置环境变量后立即可用。
- 支持流式,识别效果不用去猜。
- 支持 LLM 后处理,根据场景修订语言风格
- 多渠道发包,一到两行命令直接安装。
视频教程
视频介绍
截图
image1340×717 137 KB
欢迎各位佬友体验使用。star、issue、PR。
安装
Arch Linux (AUR)
yay -S fcitx5-vinput-bin
Fedora (COPR)
sudo dnf copr enable xifan/fcitx5-vinput-bin
sudo dnf install fcitx5-vinput
Ubuntu 24.04 (PPA)
sudo add-apt-repository ppa:xifan233/ppa
sudo apt update
sudo apt install fcitx5-vinput
Ubuntu / Debian(手动安装)
# 从 GitHub Releases 下载最新 .deb
sudo dpkg -i fcitx5-vinput_*.deb
sudo apt-get install -f
致谢
上游:
GitHub - k2-fsa/sherpa-onnx: Speech-to-text, text-to-speech, speaker...
Speech-to-text, text-to-speech, speaker diarization, speech enhancement, source separation, and VAD using next-gen Kaldi with onnxruntime without Internet connection. Support embedded systems, Android, iOS, HarmonyOS, Raspberry Pi, RISC-V, RK NPU, Axera NPU, Ascend NPU, x86_64 servers, websocket server/client, support 12 programming languages
另一个佬友的项目
GitHub - LeonardNJU/VocoType-linux: 高性能 Linux 离线中文语音输入法,基于 Ali FunASR(VocoType-cli). ...
高性能 Linux 离线中文语音输入法,基于 Ali FunASR(VocoType-cli). ~0.1s 瞬时上屏,输入法级稳定性, 极高中文准确率、低资源占用(CPU Only).支持 IBus / Fcitx5
网友解答:--【壹】--:
用了吗,用用看!
--【贰】--:
好,谢谢佬,代码不值钱,都是codex写的,主要是思路上,就是这个插件机制上游分发。 怎么更方便的使用? 这套东西费了我很多心血。
--【叁】--:
有什么推荐的协议吗? 就是。 我目前来看,V3协议对于我来说是够用的。
--【肆】--:
你可以看看我视频里的效果。 整体来说,我自己是非常满意的。 嗯,至于AI润色的话,非常吃提示词,小模型。整体的速度和体验还是非常好。
--【伍】--:
快来试试!我是觉得真的很好用啊。 你可以试试看。
--【陆】--:
可以可以,去申请个著作权
--【柒】--:
这就尝试下
--【捌】--:
大佬考虑出个win版吗?
--【玖】--:
好用的话,佬点个赞就好了,我想想,倒是很想把这个项目维持下去。
--【拾】--:
AGPLv3,把网络服务也加上去,署名也加上
楼下建议搞著作和专利、版权真心建议去搞下。
未来opc越来越火,个人的版权、专利会越来越值钱,而且不贵的
--【拾壹】--:
值钱的就是这个思路,大厂复刻分分钟,只有专利才能保护
--【拾贰】--:
好,谢谢佬
--【拾叁】--:
太牛了实在是
--【拾肆】--:
正想把笔记本换成linux mint,真好
--【拾伍】--:
目前不考虑,依赖的机制基本上都是linux独有的,win下也已经有很多同类产品了。
--【拾陆】--:
那得尝尝咸淡了
--【拾柒】--:
我换了一年多了,整体来说,我觉得体验非常好。 如果是开发的话。 结合各种各样AI工具。 因为cli tui 各种工具足够丰富,比 Windows 方便很多。而且性能上压力也不是很大。
--【拾捌】--:
开源的协议改下,别被豆包和腾讯白嫖
--【拾玖】--:
感谢分享
本帖使用社区公益推广,符合推广要求。我申明并遵循社区要求的以下内容:
- 我的项目是免费使用的,无收费(变相收费、赞助)部分: 是
- 我的帖子已经打上 公益推广 标签: 是
- 我的项目属于个人项目,与公司或商业机构无关: 是
- 我的项目不存在QQ、TG等群组引流: 是
- 我的项目不存在非运营必要的网站引流: 是
- 我的项目不存在为他人推广、AFF: 是
- 我的项目无关联的商业项目: 是
- 我的站点存在登录,并已接入 LINUX DO Connect: 否
- 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
- 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
GitHub - xifan2333/fcitx5-vinput: Local offline voice input plugin for Fcitx5
Local offline voice input plugin for Fcitx5
熬了好几个大夜,终于磨出来了,重构到 v2.0.10 了, 说说我觉得核心的优点。
优点
- 基于上游 sherpa-onnx 的多模型支持,以支持 Qwen3-asr 效果很好
- 纯 C++ 实现,占用低,模型载入内存的情况除外,Qwen3 大概占用 2G 左右,推理时。其他小模型 150m-300m 区间
- 完整的 linux 生态接入, 使用 dbus 及 标准流通信,无多余负载。
- gui/cli 多种管理方式,小白/资深党都很友好。可使用其他工具扩展,如 fzf
- 自建的上游仓库和插件机制,云 asr 服务,一律走系统 std 流,单脚本无依赖与daemon通讯,配置环境变量后立即可用。
- 支持流式,识别效果不用去猜。
- 支持 LLM 后处理,根据场景修订语言风格
- 多渠道发包,一到两行命令直接安装。
视频教程
视频介绍
截图
image1340×717 137 KB
欢迎各位佬友体验使用。star、issue、PR。
安装
Arch Linux (AUR)
yay -S fcitx5-vinput-bin
Fedora (COPR)
sudo dnf copr enable xifan/fcitx5-vinput-bin
sudo dnf install fcitx5-vinput
Ubuntu 24.04 (PPA)
sudo add-apt-repository ppa:xifan233/ppa
sudo apt update
sudo apt install fcitx5-vinput
Ubuntu / Debian(手动安装)
# 从 GitHub Releases 下载最新 .deb
sudo dpkg -i fcitx5-vinput_*.deb
sudo apt-get install -f
致谢
上游:
GitHub - k2-fsa/sherpa-onnx: Speech-to-text, text-to-speech, speaker...
Speech-to-text, text-to-speech, speaker diarization, speech enhancement, source separation, and VAD using next-gen Kaldi with onnxruntime without Internet connection. Support embedded systems, Android, iOS, HarmonyOS, Raspberry Pi, RISC-V, RK NPU, Axera NPU, Ascend NPU, x86_64 servers, websocket server/client, support 12 programming languages
另一个佬友的项目
GitHub - LeonardNJU/VocoType-linux: 高性能 Linux 离线中文语音输入法,基于 Ali FunASR(VocoType-cli). ...
高性能 Linux 离线中文语音输入法,基于 Ali FunASR(VocoType-cli). ~0.1s 瞬时上屏,输入法级稳定性, 极高中文准确率、低资源占用(CPU Only).支持 IBus / Fcitx5
网友解答:--【壹】--:
用了吗,用用看!
--【贰】--:
好,谢谢佬,代码不值钱,都是codex写的,主要是思路上,就是这个插件机制上游分发。 怎么更方便的使用? 这套东西费了我很多心血。
--【叁】--:
有什么推荐的协议吗? 就是。 我目前来看,V3协议对于我来说是够用的。
--【肆】--:
你可以看看我视频里的效果。 整体来说,我自己是非常满意的。 嗯,至于AI润色的话,非常吃提示词,小模型。整体的速度和体验还是非常好。
--【伍】--:
快来试试!我是觉得真的很好用啊。 你可以试试看。
--【陆】--:
可以可以,去申请个著作权
--【柒】--:
这就尝试下
--【捌】--:
大佬考虑出个win版吗?
--【玖】--:
好用的话,佬点个赞就好了,我想想,倒是很想把这个项目维持下去。
--【拾】--:
AGPLv3,把网络服务也加上去,署名也加上
楼下建议搞著作和专利、版权真心建议去搞下。
未来opc越来越火,个人的版权、专利会越来越值钱,而且不贵的
--【拾壹】--:
值钱的就是这个思路,大厂复刻分分钟,只有专利才能保护
--【拾贰】--:
好,谢谢佬
--【拾叁】--:
太牛了实在是
--【拾肆】--:
正想把笔记本换成linux mint,真好
--【拾伍】--:
目前不考虑,依赖的机制基本上都是linux独有的,win下也已经有很多同类产品了。
--【拾陆】--:
那得尝尝咸淡了
--【拾柒】--:
我换了一年多了,整体来说,我觉得体验非常好。 如果是开发的话。 结合各种各样AI工具。 因为cli tui 各种工具足够丰富,比 Windows 方便很多。而且性能上压力也不是很大。
--【拾捌】--:
开源的协议改下,别被豆包和腾讯白嫖
--【拾玖】--:
感谢分享

