文章摘要
qqqa是一个命令行工具,包含qq和qa两个功能:qq用于快速提问,qa可执行命令完成任务。它采用无状态设计,每次运行独立且可复现,支持OpenAI和Groq,旨在提供高效自然的LLM交互体验。
文章总结
项目名称:qqqa —— 命令行中的高效无状态LLM助手
核心功能
qqqa是一款专为命令行设计的双模式工具,包含两个独立组件: 1. qq(快速提问):直接向LLM提问,例如查询递归列出目录文件的方法 2. qa(快速代理):可调用工具执行单步任务(读取/写入文件、执行命令需确认)
设计理念
- 无状态架构:每次调用独立运行,不保留会话历史(可通过配置选择性启用历史记录)
- 安全优先:qq仅支持只读操作,qa执行命令需人工确认
- 终端友好:支持管道输入和脚本集成,响应速度优化至约1000 token/秒(使用Groq时)
推荐配置
- 默认集成Groq服务(
openai/gpt-oss-20b模型),因其高速响应和低成本优势 - 支持OpenAI及其他兼容API,通过
~/.qq/config.json配置
安装方式
- macOS:
brew install iagooar/qqqa/qqqa - Linux:从GitHub Releases下载预编译版本
特色功能
- 流式/非流式API调用
- ANSI彩色标签格式化输出
- 可配置模型参数(如GPT-5的推理强度调节)
- 安全限制:文件操作限制在用户目录,命令执行白名单机制
使用示例
```bash
基础提问
qq "如何将MP4转为MP3"
带上下文的查询
git status | qq "建议后续操作"
代理执行(需确认)
qa "下载YouTube音频" -y # -y自动批准 ```
安全机制
- 文件操作:限制1MB大小,禁止符号链接穿透
- 命令执行:基础白名单(grep/find等),危险命令永久拦截
- 配置权限:敏感信息优先读取环境变量
开发信息
- 采用Rust编写,模块化结构清晰
- 接受贡献,详见CONTRIBUTING.md
- MIT开源协议
(注:原文中部分重复的安装配置说明和示例已合并精简,保留核心功能描述和典型使用场景)
评论总结
以下是评论内容的总结:
工具推荐与替代方案
- 多位用户推荐了类似工具,如llm、claude code、aichat等
"I personally use 'claude -p' for this"
"llm cmdcomp is better...it puts the command in the shell editor line so you can edit it"
- 多位用户推荐了类似工具,如llm、claude code、aichat等
功能建议
- 建议增加管道输入、配置文件和会话功能
"Pipe data into qq", "Profiles (qq -profile legal-analysis...)" - 有用户指出README中的吞吐量单位错误
"groq throughput is actually 1000 tokens per 'second'"
- 建议增加管道输入、配置文件和会话功能
技术讨论
- 关于是否支持本地LLM和链式工具调用的疑问
"Can it run local LLM with quick parameters?"
"Does it support multiple tool calls in a chain?" - 状态保持的讨论,认为未来工具需要会话记忆
"state keeping is an absolute necessity...to overcome context limitations"
- 关于是否支持本地LLM和链式工具调用的疑问
平台支持
- 指出缺少MacOS版本
"I do not see release for MacOS"
- 指出缺少MacOS版本
用户体验比较
- 与其他工具(如Warp终端、GitHub Copilot)的对比
"reminds me how in warp terminal you can just type# question"
"github cli's copilot extension useful for this"
- 与其他工具(如Warp终端、GitHub Copilot)的对比
隐私问题
- 对终端历史上传功能的质疑
"Why is there a flag to not upload my terminal history"
- 对终端历史上传功能的质疑
注:所有评论均无评分(None),主要反映了用户对同类工具的比较、功能建议和技术讨论。