1. 首页
  2. 人工智能
  3. 机器学习
  4. NLP语言模型隐私泄漏风险

NLP语言模型隐私泄漏风险

上传者: 2020-08-08 18:52:15上传 PDF文件 2.06MB 热度 26次
我们发现,通用语言模型中的文本嵌入会从纯文本中捕获很多敏感信息。一旦被对手访问,嵌入信息可以被反向设计,以披露受害者的敏感信息,以进行进一步的骚扰。尽管这样的隐私风险可能会对这些有前途的NLP工具的未来影响造成真正的威胁,但是目前还没有针对主流行业级语言模型的公开攻击或系统评估。
用户评论