人工智能聊天機械人近年快速普及,從協助撰寫電郵、整理資料,到規劃行程與提供工作建議,已逐漸成為不少民眾日常使用的數位工具。不過,隨著使用情境愈來愈廣泛,相關私隱與資料安全問題也引起專家關注。

根據伊隆大學數碼未來中心最新調查,目前美國已有相當比例民眾會在日常生活中使用人工智能工具。研究人員指出,大型語言模型的普及速度相當快,並已逐步融入社交、工作與資訊查詢等多種場景,但也讓用戶在不知不覺中提高了分享個人資訊的頻率。
史丹福大學人本人工智能研究所近期針對多家主要AI開發企業進行分析,內容涵蓋多款常見聊天工具。研究顯示,部分平台會將用戶對話內容用於模型訓練、優化或後續系統改善,某些服務甚至可能長時間保存相關資料,使對話紀錄不只是暫時互動,而可能成為持續存在的資料資產。
專家列出五類不宜輸入的敏感資訊
網絡安全專家指出,許多民眾低估了AI系統對輸入資訊的保存、分析與再利用程度。一旦對話內容包含可識別身分的個人資料、財務細節、健康資訊、工作機密或登入憑證,相關內容就可能超出原本預期的使用範圍,增加外洩、誤用或遭第三方取得的風險。
專家特別提醒,姓名、住址、電話、證件號碼等個人識別資訊,信用卡或銀行帳戶等財務資料,病歷與醫療紀錄等健康資訊,公司文件與商業策略等工作機密,以及密碼、帳號與登入憑證等內容,都不建議直接輸入至聊天機械人。這些資訊一旦被記錄,可能帶來身份盜用、詐騙或企業資安風險。

用戶可透過設定降低資料暴露風險
針對已經輸入敏感資訊的情況,專家表示,多數平台仍提供部分補救措施,例如刪除歷史對話紀錄、關閉資料用於模型訓練的設定,或改用不保存對話的暫時聊天模式。用戶若對個人資料安全有較高要求,應主動檢查平台條款與私隱設定,了解資料可能被保存與使用的方式。
此外,專家也建議使用者養成基本數位安全習慣,包括避免提供完整身分資訊、以代稱取代真實姓名、定期清理對話紀錄,並在與AI互動前先評估內容是否涉及個人、財務或商業敏感資訊。隨著人工智能工具持續深入生活,如何在便利與私隱保護之間取得平衡,已成為當前數位社會的重要課題。
※ 圖片為示意畫面,僅用於新聞報導與合理使用






