文章摘要
大型语言模型(LLM)的快速部署因配置不当和访问控制不足带来了重大安全漏洞。本文通过Shodan搜索引擎,开发了一种基于Python的工具,用于检测公开暴露的LLM服务器,特别是运行Ollama框架的实例。研究发现超过1100个暴露的Ollama服务器,其中约20%存在未经授权访问的风险,强调了LLM部署中安全基线的紧迫性,并为未来LLM威胁监控研究提供了实践基础。
文章总结
标题:检测暴露的LLM服务器:基于Shodan的Ollama案例研究
主要内容:
随着大语言模型(LLM)的快速部署,由于配置错误和访问控制不足,带来了显著的安全漏洞。本文提出了一种系统化的方法来识别公开暴露的LLM服务器,特别是运行Ollama框架的实例。通过使用Shodan(一个用于搜索互联网连接设备的搜索引擎),我们开发了一个基于Python的工具来检测未受保护的LLM端点。研究发现,超过1,100个Ollama服务器暴露在互联网上,其中约20%的服务器正在托管易受未经授权访问的模型。这些发现强调了在LLM部署中建立安全基线的紧迫性,并为未来研究LLM威胁监控提供了实践基础。
研究背景:
近年来,LLM在自然语言理解和生成方面的先进能力推动了其在各种应用中的集成。尽管LLM的实用性不断增强,但其采用速度往往超过了安全实践的发展。许多自托管或本地部署的LLM解决方案在上线时未经过充分加固,常常由于默认配置、弱认证或网络隔离不足而暴露端点。这些漏洞不仅源于部署不当,也反映了生态系统在优先考虑可访问性和性能的同时忽视了安全性。
研究方法:
本研究利用Shodan搜索引擎识别暴露的Ollama服务器,并评估其安全配置。研究分为两个阶段:首先,通过Shodan查询识别公开访问的Ollama服务器;其次,对每个识别到的端点进行程序化查询,评估其安全态势,特别是认证和授权机制。
研究结果:
研究发现,大量Ollama服务器暴露在互联网上,且易受未经授权的提示注入攻击。通过自动化扫描工具和Shodan,我们识别了1,139个易受攻击的Ollama实例。地理空间分析显示,大多数暴露的服务器位于美国(36.6%)、中国(22.5%)和德国(8.9%)。其中,214个服务器正在托管并响应请求的活跃模型,占总扫描数量的18.8%。
缓解策略:
为应对这些安全风险,本文提出了一系列技术性和程序性的防御措施,包括实施强认证和访问控制、网络分段和防火墙、速率限制和滥用检测、禁用默认端口和模糊服务横幅、安全模型上传和执行管道,以及持续监控和自动化暴露审计。
结论:
本研究揭示了LLM部署中的不安全现状,特别是基于Ollama的服务器暴露在公共互联网上的问题。通过Shodan和定制检测工具,我们识别了超过1,100个未认证的LLM服务器,其中相当一部分正在托管易受攻击的模型。这些发现强调了在AI系统部署中实施基本安全实践的紧迫性,如访问控制、认证和网络隔离。未来的工作应探索整合多种数据源,以提高发现准确性,并扩展系统以识别更广泛的LLM托管框架。
社交媒体:
欢迎在社交媒体上与Cisco Security保持联系,提出问题并分享您的想法。
分享:
评论总结
评论主要围绕Ollama的安全性和使用场景展开,观点分为支持和质疑两方。
支持Ollama当前安全措施的观点: 1. 认为Ollama的安全风险不高:评论2指出,Ollama目前的风险不足以证明需要复杂的认证机制("The stakes aren’t that high yet for Ollama to warrant cumbersome auth mechanisms.")。 2. 认为公开服务器是普遍问题:评论11提到,公开服务器的问题并不限于Ollama,而是普遍存在的("Servers that shouldn’t be made public are made public, a cyber tale as old as time.")。
质疑Ollama安全性的观点: 1. 缺乏默认认证机制:评论1批评Ollama默认没有认证机制("Ollama has no auth mechanism by default... You have to wonder why they never focused on that")。 2. API保护不足:评论5提到,Ollama的API保护并未计划实施,用户需要自行通过防火墙或代理来限制访问("For my own purposes I either restrict ollama's ports in the firewall, or I put some proxy in front of it")。
其他相关讨论: 1. 使用场景的质疑:评论9质疑为何有人将Ollama运行在公共服务器上("Why are people running ollama on public servers.")。 2. 安全工具的提及:评论15提到Shodan等工具可以检测到公开的Ollama实例("Shodan also has built-in detection for some of them.")。
总结:评论中对Ollama的安全性和使用场景存在分歧,支持者认为当前风险不高,质疑者则指出其缺乏默认认证机制和API保护不足的问题。