文章摘要
Ollama云服务新增了GLM-4.6和Qwen3-Coder-480B两款编程模型,支持常用工具集成。Qwen3-Coder-30B版本也进行了更新,在新引擎中实现了更快更可靠的工具调用。用户可通过简单命令快速体验这些模型,其中480B版本需要300GB以上显存才能本地运行。文章还展示了用GLM-4.6单次提示生成完整HTML小游戏的示例。
文章总结
Ollama推出全新编程模型及集成方案
Ollama云服务最新上线两大编程模型: - GLM-4.6:通用编程模型 - Qwen3-Coder-480B:4800亿参数大模型(云端版) 同时升级Qwen3-Coder-30B版本,在新引擎中实现更快速可靠的工具调用。
快速启动指南: ```bash
GLM-4.6云端版
ollama run glm-4.6:cloud
Qwen3-Coder-480B云端版
ollama run qwen3-coder:480b-cloud
Qwen3-Coder-30B本地版(需300GB以上显存)
ollama run qwen3-coder:30b ```
开发工具集成:
1. VS Code:
- 通过ollama pull命令预载模型
- 在Copilot侧边栏选择Ollama提供商并切换模型
Zed编辑器(已支持Windows):
- 配置LLM提供商为Ollama
- 确保主机地址为
http://localhost:11434
Droid CLI工具:
- 需在配置文件中添加模型端点信息
- 通过
/model命令切换使用
云端API接入:
1. 在官网生成API密钥并设置环境变量
2. 通过curl调用REST API:
bash
curl https://ollama.com/api/chat \
-H "Authorization: Bearer $OLLAMA_API_KEY" \
-d '{"model":"glm-4.6","messages":[{"role":"user","content":"编写HTML贪吃蛇游戏"}]}'
应用案例演示: GLM-4.6单次提示即可生成完整HTML5游戏《Ollama大冒险》,包含: - 卡通化羊驼角色设计 - 视差滚动背景 - 分数记录和重玩功能 - 趣味音效系统
(注:文中涉及的图片链接和具体代码示例已省略,保留核心功能描述)
评论总结
以下是评论内容的总结:
关于GLM-4.6的积极评价
- 用户jhancock表示GLM-4.6是其新宠,通过Claude Code和Octofriend使用体验良好,特别提到z.ai的客服响应迅速。 引用:"It's my new fav...z.ai even answers their support emails!! 5-stars ;)"
- 用户qqxufo提到GLM-4.6在推理任务上表现强劲,但对其与Claude 3.5在编码吞吐量上的比较表示好奇。 引用:"it’s surprisingly strong for reasoning tasks...how it compares to Claude 3.5 in coding throughput"
对Ollama的批评
- 用户bigyabai对Ollama仅列出云端产品支持的模型表示失望,认为其只关注快速盈利。 引用:"It's becoming increasingly hard to deny that they're only interested in model inference just to turn a quick buck."
技术讨论
- 用户mike_d对拥有300GB VRAM的GPU卡表示怀疑。 引用:"are there really cards with 300GB of VRAM?"
- 用户zozbot234提到Ollama本地构建的实验性Vulkan Compute支持已合并到GitHub主分支。 引用:"experimental Vulkan Compute support...has been merged on the github main branch"
关于llama.cpp的负面评价
- 用户qwe----3指责内容未标注来源,直接粘贴了llama.cpp。 引用:"Just a paste of llama.cpp without attribution."