谷歌要求其員工不要在 Bard 或 ChatGPT 中輸入內部數據
6月16日,據路透社援引四位“熟悉此事”的消息人士稱,擁有谷歌的公司Alphabet已開始指導其員工規范聊天機器人的使用,其中包括禁止在任何人工智能聊天機器人中輸入機密信息。
其實,這并沒有什么特別的。它僅適用于 Alphabet 長期以來為保護敏感內部信息而制定。令人震驚的是,上述禁令不僅適用于ChatGPT或 Bing Chat等競爭對手的聊天機器人,還包括他們自己的Google Bard,現已在國際上向公眾開放。
谷歌內部隱私政策 6 月 1 日的更新聲明:“不要在與巴德的對話中包含機密或敏感信息。”根據 Fishbowl 的一項研究,在美國接受調查的 12,000 名專業人士中,去年 2 月已經有43% 的人在日常工作中使用 ChatGPT……通常沒有通知他們的上級。
與此相關,Alphabet 還警告其工程師避免“直接”使用聊天機器人生成的編程代碼。該公司表示,Bard 可以提供“不需要的代碼提示”,但仍然對程序員有幫助。Alphabet 并不是唯一一家在使用聊天機器人時采取這種預防措施的公司:據了解,三星、亞馬遜、德意志銀行或蘋果公司也采用了這種預防措施。