1 月 30 日消息,風靡全球的聊天機器人 ChatGPT 近日再次陷入安全風波,被曝泄露用戶同機器人的私密對話,其中包含用戶名、密碼等敏感信息。
ArsTechnica 網(wǎng)站援引其讀者提供的截圖報道稱,ChatGPT 泄露了多段非用戶本人的對話內(nèi)容,包含了大量敏感信息。該讀者原本只是使用 ChatGPT 進行一個無關(guān)的查詢,卻意外發(fā)現(xiàn)聊天記錄中出現(xiàn)了不屬于自己的對話內(nèi)容。
這些泄露的對話內(nèi)容涉及多個方面。其中一組對話似乎來自藥房處方藥門戶員工使用的支持系統(tǒng),透露了該門戶的名稱、發(fā)生問題的店鋪編號以及登錄憑證。另一段對話則泄露了某人正在制作的演示文稿名稱以及一份尚未發(fā)表的研究提案的細節(jié)。
IT之家注意到,這不是 ChatGPT 第一次出現(xiàn)信息泄露問題,2023 年 3 月,ChatGPT 曾因漏洞泄露聊天標題;同年 11 月,研究人員發(fā)現(xiàn)可以通過特定查詢的方式誘使 ChatGPT 泄露其訓(xùn)練數(shù)據(jù)中的大量隱私信息。
OpenAI 公司表示,他們正在對此事進行調(diào)查。然而,無論調(diào)查結(jié)果如何,都建議用戶謹慎與人工智能聊天機器人分享敏感信息,尤其是在非自己開發(fā)的機器人上。