开源自荐 | 熬了10多个通宵,终于搞出了自己满意的linux语音输入法

2026-04-11 12:581阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

本帖使用社区公益推广,符合推广要求。我申明并遵循社区要求的以下内容:

  • 我的项目是免费使用的,无收费(变相收费、赞助)部分:
  • 我的帖子已经打上 公益推广 标签:
  • 我的项目属于个人项目,与公司或商业机构无关:
  • 我的项目不存在QQ、TG等群组引流:
  • 我的项目不存在非运营必要的网站引流:
  • 我的项目不存在为他人推广、AFF:
  • 我的项目无关联的商业项目:
  • 我的站点存在登录,并已接入 LINUX DO Connect:
  • 我帖子内的项目介绍,AI生成、润色内容部分已截图发出:
  • 以上选择我承诺是永久有效的,接受社区和佬友监督:
    以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出

github.com

GitHub - xifan2333/fcitx5-vinput: Local offline voice input plugin for Fcitx5

Local offline voice input plugin for Fcitx5

熬了好几个大夜,终于磨出来了,重构到 v2.0.10 了, 说说我觉得核心的优点。

优点

  • 基于上游 sherpa-onnx 的多模型支持,以支持 Qwen3-asr 效果很好
  • 纯 C++ 实现,占用低,模型载入内存的情况除外,Qwen3 大概占用 2G 左右,推理时。其他小模型 150m-300m 区间
  • 完整的 linux 生态接入, 使用 dbus 及 标准流通信,无多余负载。
  • gui/cli 多种管理方式,小白/资深党都很友好。可使用其他工具扩展,如 fzf
  • 自建的上游仓库和插件机制,云 asr 服务,一律走系统 std 流,单脚本无依赖与daemon通讯,配置环境变量后立即可用。
  • 支持流式,识别效果不用去猜。
  • 支持 LLM 后处理,根据场景修订语言风格
  • 多渠道发包,一到两行命令直接安装。

视频教程

视频介绍

截图

image1340×717 137 KB

欢迎各位佬友体验使用。star、issue、PR。

安装

Arch Linux (AUR)

yay -S fcitx5-vinput-bin

Fedora (COPR)

sudo dnf copr enable xifan/fcitx5-vinput-bin sudo dnf install fcitx5-vinput

Ubuntu 24.04 (PPA)

sudo add-apt-repository ppa:xifan233/ppa sudo apt update sudo apt install fcitx5-vinput

Ubuntu / Debian(手动安装)

# 从 GitHub Releases 下载最新 .deb sudo dpkg -i fcitx5-vinput_*.deb sudo apt-get install -f

致谢

上游:

github.com

GitHub - k2-fsa/sherpa-onnx: Speech-to-text, text-to-speech, speaker...

Speech-to-text, text-to-speech, speaker diarization, speech enhancement, source separation, and VAD using next-gen Kaldi with onnxruntime without Internet connection. Support embedded systems, Android, iOS, HarmonyOS, Raspberry Pi, RISC-V, RK NPU, Axera NPU, Ascend NPU, x86_64 servers, websocket server/client, support 12 programming languages

另一个佬友的项目

github.com

GitHub - LeonardNJU/VocoType-linux: 高性能 Linux 离线中文语音输入法,基于 Ali FunASR(VocoType-cli). ...

高性能 Linux 离线中文语音输入法,基于 Ali FunASR(VocoType-cli). ~0.1s 瞬时上屏,输入法级稳定性, 极高中文准确率、低资源占用(CPU Only).支持 IBus / Fcitx5

网友解答:
--【壹】--:

用了吗,用用看!


--【贰】--:

好,谢谢佬,代码不值钱,都是codex写的,主要是思路上,就是这个插件机制上游分发。 怎么更方便的使用? 这套东西费了我很多心血。


--【叁】--:

有什么推荐的协议吗? 就是。 我目前来看,V3协议对于我来说是够用的。


--【肆】--:

你可以看看我视频里的效果。 整体来说,我自己是非常满意的。 嗯,至于AI润色的话,非常吃提示词,小模型。整体的速度和体验还是非常好。


--【伍】--:

快来试试!我是觉得真的很好用啊。 你可以试试看。


--【陆】--:

可以可以,去申请个著作权


--【柒】--:

这就尝试下


--【捌】--:

大佬考虑出个win版吗?


--【玖】--:

好用的话,佬点个赞就好了,我想想,倒是很想把这个项目维持下去。


--【拾】--:

AGPLv3,把网络服务也加上去,署名也加上

楼下建议搞著作和专利、版权真心建议去搞下。

未来opc越来越火,个人的版权、专利会越来越值钱,而且不贵的


--【拾壹】--:

值钱的就是这个思路,大厂复刻分分钟,只有专利才能保护


--【拾贰】--:

好,谢谢佬


--【拾叁】--:

太牛了实在是


--【拾肆】--:

正想把笔记本换成linux mint,真好


--【拾伍】--:

目前不考虑,依赖的机制基本上都是linux独有的,win下也已经有很多同类产品了。


--【拾陆】--:

那得尝尝咸淡了


--【拾柒】--:

我换了一年多了,整体来说,我觉得体验非常好。 如果是开发的话。 结合各种各样AI工具。 因为cli tui 各种工具足够丰富,比 Windows 方便很多。而且性能上压力也不是很大。


--【拾捌】--:

开源的协议改下,别被豆包和腾讯白嫖


--【拾玖】--:

感谢分享