Replicate AI平台现安全漏洞:用户自训练模型易受黑客攻击
近日,一家名为 Wiz 的安全公司发布了关于开源 AI 模型共享平台 Replicate 存在重大漏洞的报告。报告显示,该平台用户训练的 AI 模型可能面临潜在的安全风险。攻击者可以通过恶意模型进行“跨租户攻击”,进而访问或干扰其他租户的数据资源,导致用户训练的 AI 模型内部机密数据泄露。
据悉,安全漏洞源于 Replicate 平台推出的模型容器化格式 Cog。尽管这种格式能显著提高模型推理效率,但平台在实现过程中忽视了 Cog 格式中的安全隔离机制。黑客可以利用这一漏洞将训练好的恶意模型打包成 Cog 容器,通过 Replicate 的用户操作界面与容器互动,进而实施远程代码执行(RCE)攻击,最终获得容器的 root 权限。
此外,研究人员还发现,攻击者可以借助该漏洞轻松获取其他用户使用的 AI 模型。他们可以从模型问答记录中提取用户隐私数据,甚至可以自由下载、修改用户模型内容,给平台带来严重威胁。
在被 Wiz 公司通报后,Replicate 平台迅速修复了相关漏洞,并表示目前未检测到有用户 AI 模型外流的迹象。