ChatGPT 面对「无脑」攻击竟然吐露了真实的个人身分信息
只要让它一直重复某个单字就行。
Open AI
发展越来越快的 ChatGPT 看起来无所不能,但研究者发现,透过一些看似「无脑」的攻击就能让它做出意外的举动。 由 DeepMind、华盛顿大学、康奈尔大学、苏黎世联邦理工学院等学校专家组成的团队日前声称,只要让 ChatGPT 一直重复某个单字,它最终便会给出姓名、生日、电邮地址、电话号码、社交账户、比特币地址等个人信息。
比如在重复「诗歌」(poem)多次后,ChatGPT 会提供某公司创始人、CEO 的电邮和号码。 根据研究团队的测试,在16.9%的情况下机器人都会透露被记录的、可用于识别个人的信息。 「这种攻击... 实际上有点无脑。 」研究方如此说道,「面对这种应该或者说早该被发现的漏洞我们的攻击能奏效,这简直太疯狂了。 」
在被提醒后,OpenAI声称自己早在 8 月 30 日便解决了这一问题。 但根据我们姊妹网站Engadget最新的测试,研究团队的结果似乎仍可以被复现,对此OpenAI还没有任何评论。