OpenAI 執行長奧特曼(Sam Altman)意外地向 ChatGPT 用戶發出警告,提醒用戶不要透露所有關鍵資訊,因為這些資訊不受法律特權保護,甚至可能被用做法庭證據。
奧特曼這項警告是在西奧 · 馮(Theo Von)最近的 Podcast 節目中所提出,引發了人們對用戶資料隱私的擔憂。他指出,科技界尚未找到方法,為用戶在討論敏感話題時提供與傳統專業諮詢相同等級的隱私保護。而這一點若處理不當,可能會在法律上帶來嚴重後果。
人工智慧聊天機器人已發展到足以被全球數百萬用戶信任,他們尋求解決生活問題,並將其視為分享個人生活秘密的最佳數位朋友。
奧特曼解釋道:「人們會向 ChatGPT 傾訴自己生活中最私密的細節。尤其是年輕人,他們把它當作心理諮詢師、人生教練;遇到感情問題時會問:『我該怎麼辦?』而目前,如果你是和心理醫師、律師或醫生談這些問題,這些對話都受法律保障,例如醫病保密、律師保密原則等。但我們還沒針對和 ChatGPT 的對話,建立類似的保護機制。」
他警告,缺乏這類保護可能會導致嚴重後果。在法律程序中,與 ChatGPT 的對話可能會被傳喚作為證據使用。「如果有人把最私密的煩惱告訴 ChatGPT,而這些內容最終被用在法律訴訟中,我們可能會被迫交出對話記錄。這是一個很大的問題。」
這項披露引起了隱私倡導者和法律專家的關注,他們指出 OpenAI 的隱私政策進一步證明了這種風險。根據該公司的官方文件,個人數據,包括互動記錄,如果被認為有必要遵守法律義務或防止責任,可能會與政府當局或第三方共享。
與 WhatsApp 或 Signal 等加密平台不同,ChatGPT 的對話並未採用端對端加密,無法確保訊息僅在發送者與接收者之間保密。OpenAI 保留存取並審查這些對話的能力,這些內容有時會被用來改進模型或防止濫用。
儘管 OpenAI 聲稱會在 30 天內刪除免費用戶的對話紀錄,但在特定法律或安全情況下仍可能保留資料。近期,資料保存問題受到越來越多關注,特別是在一些正在進行的法律訴訟背景下。
其中一個案例,是《紐約時報》於 2023 年對 OpenAI 和微軟提出的訴訟,指控對方未經授權使用數百萬篇文章訓練 ChatGPT。該案中,法院已要求 OpenAI 保留所有相關對話資料,這與該公司原本的資料刪除政策相衝突。
對此,OpenAI 強烈反擊。奧特曼在社群平台 X(上表示:「我們將抗拒任何侵犯用戶隱私的要求;這是我們的核心原則。」
專家建議,在隱私框架到位之前,用戶在與 ChatGPT、Google Gemini、Perplexity AI 和其他類似人工智慧平台共享敏感資訊時,應謹慎行事。
OpenAI 尚未就這些擔憂發布官方聲明。預計隨著立法者和科技領袖努力平衡人工智慧時代的創新與隱私,這場辯論將會加劇。最終結果可能會促使人工智慧聊天機器人營運商尋找保護用戶隱私的合法途徑。
新聞來源 (不包括新聞圖片): 鉅亨網