Hacker News 中文摘要

RSS订阅

新型编码模型与集成 -- New coding models and integrations

文章摘要

Ollama云服务新增了GLM-4.6和Qwen3-Coder-480B两款编程模型,支持常用工具集成。Qwen3-Coder-30B版本也进行了更新,在新引擎中实现了更快更可靠的工具调用。用户可通过简单命令快速体验这些模型,其中480B版本需要300GB以上显存才能本地运行。文章还展示了用GLM-4.6单次提示生成完整HTML小游戏的示例。

文章总结

Ollama推出全新编程模型及集成方案

Ollama云服务最新上线两大编程模型: - GLM-4.6:通用编程模型 - Qwen3-Coder-480B:4800亿参数大模型(云端版) 同时升级Qwen3-Coder-30B版本,在新引擎中实现更快速可靠的工具调用。

快速启动指南: ```bash

GLM-4.6云端版

ollama run glm-4.6:cloud

Qwen3-Coder-480B云端版

ollama run qwen3-coder:480b-cloud

Qwen3-Coder-30B本地版(需300GB以上显存)

ollama run qwen3-coder:30b ```

开发工具集成: 1. VS Code: - 通过ollama pull命令预载模型 - 在Copilot侧边栏选择Ollama提供商并切换模型

  1. Zed编辑器(已支持Windows):

    • 配置LLM提供商为Ollama
    • 确保主机地址为http://localhost:11434
  2. Droid CLI工具:

    • 需在配置文件中添加模型端点信息
    • 通过/model命令切换使用

云端API接入: 1. 在官网生成API密钥并设置环境变量 2. 通过curl调用REST API: bash curl https://ollama.com/api/chat \ -H "Authorization: Bearer $OLLAMA_API_KEY" \ -d '{"model":"glm-4.6","messages":[{"role":"user","content":"编写HTML贪吃蛇游戏"}]}'

应用案例演示: GLM-4.6单次提示即可生成完整HTML5游戏《Ollama大冒险》,包含: - 卡通化羊驼角色设计 - 视差滚动背景 - 分数记录和重玩功能 - 趣味音效系统

(注:文中涉及的图片链接和具体代码示例已省略,保留核心功能描述)

评论总结

以下是评论内容的总结:

  1. 关于GLM-4.6的积极评价

    • 用户jhancock表示GLM-4.6是其新宠,通过Claude Code和Octofriend使用体验良好,特别提到z.ai的客服响应迅速。 引用:"It's my new fav...z.ai even answers their support emails!! 5-stars ;)"
    • 用户qqxufo提到GLM-4.6在推理任务上表现强劲,但对其与Claude 3.5在编码吞吐量上的比较表示好奇。 引用:"it’s surprisingly strong for reasoning tasks...how it compares to Claude 3.5 in coding throughput"
  2. 对Ollama的批评

    • 用户bigyabai对Ollama仅列出云端产品支持的模型表示失望,认为其只关注快速盈利。 引用:"It's becoming increasingly hard to deny that they're only interested in model inference just to turn a quick buck."
  3. 技术讨论

    • 用户mike_d对拥有300GB VRAM的GPU卡表示怀疑。 引用:"are there really cards with 300GB of VRAM?"
    • 用户zozbot234提到Ollama本地构建的实验性Vulkan Compute支持已合并到GitHub主分支。 引用:"experimental Vulkan Compute support...has been merged on the github main branch"
  4. 关于llama.cpp的负面评价

    • 用户qwe----3指责内容未标注来源,直接粘贴了llama.cpp。 引用:"Just a paste of llama.cpp without attribution."