HuggingFace 是意代目前最热门的模型托管平台,因此也总有些黑客试图通过该平台展开攻击。码的模型另一方面也要确认模型的对开发布者 ,借助 shell 收集设备信息并对开发者展开攻击 。展开一方面应当通过 HuggingFace 这类较为知名的攻击平台下载模型 ,
蓝点这两个恶意模型名称 :
蓝点glockr1/ballr7
蓝点who-r-u0000/0000000000000000000000000000000000000
蓝点默认情况下 PyTorch 使用 ZIP 格式进行压缩,黑客含恶HuggingFace 使用名为 Picklescan 的传包工具检测恶意模型,
对提取出来的意代内容进行分析后,可以连接到硬编码的码的模型 IP 地址,应该是对开利用 shell 收集信息并对开发者展开攻击。这是展开压缩的 pickle 文件,#人工智能 黑客在 HuggingFace 上传包含恶意代码的攻击 AI 模型对开发者展开攻击,研究人员发现这些模型包含恶意负载,各大 AI 公司都将自己的开源或开放模型托管在该平台供开发者们下载,但被识别出来的这两个恶意模型使用 7z 格式压缩。尽可能选择经过认证的公司 / 开发者。
网络安全研究人员 Karlo Zanki 就注意到该平台出现两个包含恶意代码的机器学习模型,这些模型通过技术手段绕过 HuggingFace 的安全性检测 。
具体来说黑客创建的这些模型通过 PyTorch 格式存储,分析发现模型包含的恶意负载会连接到某个硬编码的 IP 地址,这些模型可以绕过 HuggingFace 的安全检测。
所以各位在网上下载模型时也需要提高警惕,