主要观点总结
网络安全研究人员发现机器学习(ML)软件供应链存在安全风险,涉及固有漏洞和实现漏洞。漏洞可能导致任意代码执行、加载恶意数据集和模型即服务攻击。漏洞示例包括利用ML模型运行攻击者选择的代码、JupyterLab中的跨站脚本(XSS)漏洞和MLOps平台中的身份验证漏洞。这些漏洞具有现实威胁性,并已被武器化,用于部署加密货币矿工和威胁服务器。
关键观点总结
关键观点1: ML软件供应链存在安全风险
研究警告了机器学习软件供应链存在的多个漏洞。
关键观点2: 存在固有漏洞和实现漏洞两类
固有漏洞涉及底层格式和过程,如利用ML模型运行攻击者选择的代码;实现漏洞涉及身份验证等问题,允许威胁行为者通过滥用ML管道功能获得代码执行能力。
关键观点3: 漏洞可被用于针对MLOps平台和模型即服务
研究人员提供了关于如何利用这些漏洞的具体示例,包括利用JupyterLab中的XSS漏洞执行客户端代码和利用Anyscale Ray的容器逃逸漏洞部署加密货币矿工。
关键观点4: 开源LangChain生成式AI框架中存在两个已修复的漏洞
Palo Alto Networks Unit 42详细说明了这两个漏洞可能允许攻击者执行任意代码和访问敏感数据。
关键观点5: 存在针对大型语言模型(LLMs)的新型攻击技术
一种名为CodeBreaker的新型攻击技术利用LLMs进行复杂的负载转换,以确保微调的毒害数据和生成的代码都可以规避强大的漏洞检测。
文章预览
网络安全研究人员警告称,在发现20多个漏洞后,机器学习(ML)软件供应链存在安全风险,这些漏洞可能被利用来针对MLOps平台。这些漏洞被描述为固有和实现方面的缺陷,可能会产生严重后果,从任意代码执行到加载恶意数据集。 MLOps平台提供了设计和执行ML模型管道的能力,模型注册表作为存储和版本训练ML模型的存储库。然后可以将这些模型嵌入到应用程序中,或允许其他客户端使用API(即模型即服务)查询它们。 JFrog研究人员在一份详细报告中表示:“固有漏洞是由技术中所使用的底层格式和过程引起的。”固有漏洞的一些例子包括利用ML模型运行攻击者选择的代码,这是通过利用模型在加载时支持自动代码执行的事实(例如Pickle模型文件)。 这种行为也扩展到某些数据集格式和库,它们允许自动代码执行,从而在仅加载公开可用的数据集
………………………………