因數(shù)據(jù)隱私問題 蘋果限制員工使用 ChatGPT
近日,有關(guān)生成式 AI模型通過利用用戶交互來改進(jìn)其算法,從而不斷提高其性能。因此,即使是提示中的機(jī)密信息也可能被用于進(jìn)一步訓(xùn)練模型。 出于這個(gè)原因,數(shù)據(jù)隱私是圍繞生成 AI 的最大挑戰(zhàn)。
對數(shù)據(jù)泄露的擔(dān)憂已導(dǎo)致 Verizon、摩根大通和亞馬遜等許多公司限制員工使用 ChatGPT。現(xiàn)在蘋果加入了這個(gè)名單。 根據(jù)《華爾街日報(bào)》看到的文件,ChatGPT 和其他外部人工智能工具,例如微軟擁有的Github Copilot,已經(jīng)限制部分員工使用。 令人擔(dān)憂的是,在使用這些模型時(shí)可能會(huì)無意中泄露私人信息,這種情況以前發(fā)生過。
最近的例子是ChatGPT 3 月 20 日中斷,這使得一些用戶可以看到其他用戶聊天記錄中的標(biāo)題。這一事件導(dǎo)致意大利暫時(shí)禁止 ChatGPT。 OpenAI 之前曾嘗試解決有關(guān)數(shù)據(jù)的問題。4 月下旬,OpenAI 發(fā)布了一項(xiàng)功能,允許用戶關(guān)閉聊天記錄。這讓用戶可以更好地控制自己的數(shù)據(jù),允許他們選擇哪些聊天可以用于訓(xùn)練 OpenAI 的模型。