文章摘要
Thinking Machines公司推出Tinker API服务,支持研究人员灵活微调各种规模的开源语言模型(包括Qwen-235B等大型专家混合模型),提供底层算法控制能力,同时由平台处理分布式训练、资源调度等复杂工作。该服务采用LoRA技术降低计算成本,用户只需简单修改代码即可切换不同模型。
文章总结
Tinker:面向研究者的语言模型微调API平台正式发布
Thinking Machines公司今日推出Tinker平台——一个专为语言模型微调设计的灵活API服务。该平台灵感源自Daniel Hillis和Brian Silverman发明的TinkerToy计算机,旨在让研究者和开发者能够专注于算法与数据创新,而将分布式训练的复杂性交由平台处理。
核心功能
- 支持从Qwen-235B-A22B等大型专家混合模型到小型开源模型的微调,仅需修改Python代码中的字符串即可切换模型
- 采用托管服务模式,内置资源调度、分配和故障恢复机制,用户无需管理底层基础设施
- 基于LoRA技术实现计算资源共享,显著降低训练成本
- 提供forward_backward和sample等底层原语,支持主流后训练方法的灵活实现
实践案例 平台已获普林斯顿大学、斯坦福大学、伯克利分校及Redwood Research等机构采用: - 普林斯顿团队成功训练数学定理证明器 - 斯坦福化学组完成化学推理任务模型微调 - 伯克利SkyRL组实现多智能体工具使用的异步强化学习 - Redwood Research在AI控制任务中强化训练Qwen3-32B模型
开放计划 目前平台处于邀请制测试阶段,研究者可通过官网申请加入等待列表。初期将提供免费服务,后续将推出按用量计费模式。企业用户可通过指定邮箱联系商务合作。
为辅助用户快速上手,平台同步开源了《Tinker Cookbook》工具库,包含基于API实现的现代化后训练方法。开发团队期待见证更多创新成果通过该平台诞生。
评论总结
总结评论内容如下:
产品价值与创新性
- 支持者认为该公司的技术实力强,产品能简化模型微调流程,具有实用价值。
"It's a unified framework for post-training models...abstracts almost all of the complexity" (rotskoff)
"帮助人们训练和调整模型的解决方案越多越好" (tinyhouse) - 质疑者认为功能缺乏独特性,类似现有工具。
"听起来像PyTorch教程...只是让AI训练稍微容易一点" (fxtentacle)
"许多LLM提供商已提供此功能,你们的独特卖点是什么?" (Oras)
- 支持者认为该公司的技术实力强,产品能简化模型微调流程,具有实用价值。
公司战略与市场定位
- 认可其基础设施方向,认为AI工具需求大。
"构建AI工具可能比AI本身更有利可图" (paxys) - 对高估值和缺乏公开产品表示担忧,认为存在AI泡沫。
"估值120亿美元,告诉我这不是泡沫" (next_xibalba)
"刚被批评缺乏公开产品,几天后就发布" (apcragg)
- 认可其基础设施方向,认为AI工具需求大。
数据隐私与条款争议
- 用户协议被批评过度宽泛,可能侵犯数据隐私。
"条款允许他们无限制使用用户数据集" (bastawhiz)
"像亚马逊随意读取S3数据一样离谱" (bastawhiz)
- 用户协议被批评过度宽泛,可能侵犯数据隐私。
命名与历史关联
- 名称被指含贬义,且与老牌科技公司同名引发混淆。
"名称在英语国家是过时的种族蔑称" (closewith)
"与Danny Hillis等人创立的'Thinking Machines'有关联吗?" (neilv)
- 名称被指含贬义,且与老牌科技公司同名引发混淆。
发布形式与测试反馈
- 部分用户肯定产品技术,但等待名单模式受质疑。
"斯坦福团队测试认为技术令人印象深刻" (rotskoff)
'私测等待名单模式曾让谷歌错失LLM机会' (bayarearefugee)
- 部分用户肯定产品技术,但等待名单模式受质疑。
功能建议
- 希望增加按token付费的推理服务。
"如果能提供训练模型的推理服务就更好了" (dlojudice)
- 希望增加按token付费的推理服务。
(注:所有评论均无评分数据,故未体现认可度差异;引用保留中英文关键句,按观点分类平衡呈现。)