文章摘要
Gemini Embedding模型自发布以来,已被广泛应用于构建高级AI应用,如分类、语义搜索和检索增强生成(RAG)。开发者还通过上下文工程技术,将文档、对话历史和工具定义等关键信息整合到模型的工作记忆中。例如,Box平台利用该模型从复杂文档中提取答案和洞察,准确率超过81%。该模型在各行业中推动了复杂系统的发展。
文章总结
标题:Gemini Embedding:推动RAG与上下文工程
发布日期:2025年7月30日
自宣布Gemini Embedding文本模型全面可用以来,开发者迅速采用该模型构建先进的AI应用。除了传统的分类、语义搜索和检索增强生成(RAG)等用例外,许多开发者现在使用一种称为“上下文工程”的技术,为AI代理提供完整的操作上下文。嵌入模型在此过程中至关重要,因为它们能高效识别并整合关键信息(如文档、对话历史和工具定义),直接将其融入模型的工作记忆。
以下示例展示了各行业组织如何利用Gemini Embedding模型推动复杂系统的发展。
全球内容智能中的能力释放
智能内容管理平台Box正在集成Gemini Embedding,以支持从复杂文档中提取答案和洞察的关键用例。在评估中,gemini-embedding-001在81%的情况下找到了正确答案,召回率比其他嵌入模型提高了3.6%。此外,该模型的多语言支持为全球用户提供了显著优势,使Box AI能够从不同语言和地区的内容中提取洞察。
提高金融数据分析的准确性
金融科技公司re:cap使用嵌入模型对大量B2B银行交易进行分类。通过在与之前Google模型(text-embedding-004和text-embedding-005)的基准测试中,gemini-embedding-001在21,500笔交易数据集上的F1分数分别提高了1.9%和1.45%。F1分数是衡量模型精确率和召回率的平衡指标,对于分类任务至关重要。这表明Gemini Embedding直接推动了显著的性能提升,帮助re:cap为客户提供更精准的流动性洞察。
在法律发现中实现语义精确性
法律发现平台Everlaw需要从数百万份专业文本中进行精确的语义匹配。通过内部基准测试,Everlaw发现gemini-embedding-001在从140万份包含行业特定和复杂法律术语的文档中提取相关答案时,准确率达到87%,超越了Voyage(84%)和OpenAI(73%)模型。此外,Gemini Embedding的Matryoshka特性使Everlaw能够使用紧凑的表示形式,将关键信息集中在更少的维度中,从而减少性能损失、降低存储成本并提高检索效率。
提升开发者代码库搜索体验
开源AI编码助手Roo Code使用Gemini Embedding模型为其代码库索引和语义搜索提供支持。开发者需要的是能够理解意图而不仅仅是语法的搜索功能。通过将gemini-embedding-001与Tree-sitter结合进行逻辑代码分割,Roo Code即使在查询不精确的情况下也能提供高度相关的结果。初步测试表明,Gemini Embedding显著提升了其基于LLM的代码搜索功能,使其更加灵活、准确,并与开发者工作流程保持一致。
提供个性化的心理健康支持
AI健康伴侣Mindlid利用gemini-embedding-001理解对话历史,从而提供上下文感知的实时洞察。他们记录了令人印象深刻的性能:持续亚秒级延迟(中位数:420毫秒)和82%的top-3召回率,比OpenAI的text-embedding-3-small提高了4%。这表明Gemini Embedding通过提供最相关的信息,提升了AI支持的相关性和速度。
增强AI助手的上下文和效率
Interaction Co.正在构建AI邮件助手Poke,该助手可自动化任务并从Gmail中提取信息。Poke使用Gemini Embedding进行两项关键功能:检索用户“记忆”和识别相关邮件以增强上下文。通过集成gemini-embedding-001,Poke的语言模型能够以更高的速度和精确度检索数据。他们报告称,与Voyage-2相比,嵌入100封邮件的平均时间减少了90.4%,仅需21.45秒。
未来代理的基础
随着AI系统变得更加自主,其有效性将取决于我们提供的上下文质量。高性能的嵌入模型如gemini-embedding-001是构建下一代代理的基础,这些代理能够推理、检索信息并代表我们采取行动。
要开始使用嵌入模型,请访问Gemini API文档。
性能指标由开发者提供,未经Google独立确认。
评论总结
Matryoshka嵌入技术的优势
- 评论1指出,Gemini嵌入模型使用Matryoshka表示学习技术,能够生成高维嵌入,且初始段(前缀)同样有效,节省存储空间并提高计算效率。
- 关键引用:
- "The Gemini embedding model, gemini-embedding-001, is trained using the Matryoshka Representation Learning (MRL) technique..."
- "looks like even the 256-dim embeddings perform really well."
嵌入与代理搜索的对比
- 评论2提出疑问,对于文本搜索,嵌入是否仍然比代理搜索更有价值,尤其是在处理大量文本文件时。
- 关键引用:
- "are embeddings still worth it compared to agentic search for text?"
- "is it better to save all of their embeddings in a VDB and use that, or are LLMs now good enough..."
Google嵌入模型的频繁弃用问题
- 评论3提到Google对旧嵌入模型的频繁弃用,导致用户需要定期重新处理数据,增加了成本。
- 关键引用:
- "how are you finding Google's aggressive deprecation of older embedding models?"
- "Feels like you have to pay to rerun your data through every 12 months."
工具调用对RAG的影响
- 评论4认为工具调用削弱了RAG(检索增强生成)的作用,但同时也减少了对检索数据注入的控制。
- 关键引用:
- "I feel like tool calling killed RAG..."
- "however you have less control over how the retrieved data is injected in the context."
嵌入在模型工作内存中的作用
- 评论5对嵌入如何直接进入模型的工作内存表示困惑,认为嵌入主要用于向量数据库中的相似性搜索,而非直接输入到LLM中。
- 关键引用:
- "Embeddings are crucial here, as they efficiently identify and integrate vital information..."
- "I don't actually send the embeddings themselves to the LLM."
开源嵌入模型的推荐
- 评论6询问是否有推荐的开源嵌入模型,提到Nomic。
- 关键引用:
- "What open embeddings models would people recommend. Still Nomic?"
MTEB排行榜与自定义数据集的重要性
- 评论7建议参考MTEB排行榜,并强调使用自定义数据集测试模型的重要性。
- 关键引用:
- "It's always worth checking out the MTEB leaderboard..."
- "Another benefit of having your own test dataset, is that it can grow as your data grows."