今天看啥  ›  专栏  ›  AI范儿

朱雀实验室协助vLLM修复CVSS 9.8分严重漏洞

AI范儿  · 公众号  · AI媒体 互联网安全 科技自媒体  · 2025-05-23 11:42
    

主要观点总结

腾讯朱雀实验室发现vLLM推理框架存在严重安全漏洞(CVE-2025-47277),攻击者可利用此漏洞控制GPU服务器,造成数据泄露、算力窃取或服务中断。vLLM团队已修复该漏洞并致谢朱雀实验室。

关键观点总结

关键观点1: vLLM框架的重要性及安全挑战

vLLM是一个高性能的专为大型语言模型推理设计的框架,广泛应用于企业级高并发场景。其安全性直接关系到AI服务的稳定性和数据安全。近年来,随着vLLM的高普及度,其也成为攻击者的潜在目标。

关键观点2: 漏洞发现及原理

朱雀实验室在vLLM的PyNcclPipe服务中发现了一个严重漏洞,攻击者可通过发送定制化的恶意数据包,远程获取GPU算力服务器控制权限。该漏洞存在于处理分布式GPU节点间的张量通信时,当PyNcclPipe服务接收到外部恶意客户端发来的不安全数据流时,会触发pickle反序列化漏洞,导致远程命令执行(RCE)。

关键观点3: 漏洞利用场景及后果

攻击者可利用此漏洞控制服务器,窃取模型文件,甚至进一步渗透GPU算力集群等内网平台,造成大规模数据泄露、算力窃取及服务中断等严重后果。

关键观点4: 安全自查与缓解措施

朱雀实验室在发现漏洞后迅速向vLLM开发团队提供了技术分析和复现步骤,目前vLLM最新版本已修复该漏洞。同时,朱雀实验室开源的AI-Infra-Guard工具已新增对此漏洞的扫描功能,用户可通过该工具快速评估现有vLLM组件是否受影响。为确保vLLM的安全使用,建议用户尽快更新至最新版本,采取容器化部署和访问控制措施。

关键观点5: 参考链接

文章中提供了多个参考链接,包括vLLM的GitHub页面、安全建议的官方文档等,用户可点击链接获取更多信息和帮助。


文章预览

作者:Kikay、Nicky 腾讯朱雀实验室发现vLLM推理框架存在严重安全漏洞(CVE-2025-47277,CVSS 9.8分),攻击者可利用此漏洞控制GPU服务器,窃取模型、算力或中断服务。vLLM团队已修复该漏洞并致谢腾讯朱雀实验室。 1. vLLM框架的重要性与安全挑战 vLLM是一个专为大型语言模型(LLM)推理设计的高性能框架,通过创新的内存管理和计算加速技术,显著提升吞吐量并降低延迟,特别适用于企业级高并发场景。作为一个社区驱动的开源项目,vLLM融合了学术界与工业界的智慧,在GitHub上收获了47K Star的关注度。目前,包括腾讯在内的众多企业广泛使用vLLM进行AI模型推理,其安全性直接关系到AI服务的稳定性和数据安全。 然而,vLLM的高普及度也使其成为攻击者的潜在目标。此前,vLLM曾曝光过两个位于MooncakePipe服务的严重漏洞。而本次由朱雀实验室发现的漏洞则存 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览