人工智慧聊天機器人已經成為現代生活不可或缺的一部分,從 ChatGPT、Gemini 到 Copilot 和 Claude,這些工具幫助我們撰寫郵件、規劃行程、甚至準備就醫問題清單,根據伊隆大學數位未來中心(Digital Future Center)最新調查顯示,目前美國已有半數民眾日常使用這類技術,該中心主任李雷尼(Lee Rainie)表示,大型語言模型的普及速度驚人,特別是這些工具已深深融入人們的社交生活中,然而在享受便利的同時,使用者對於資訊分享的界線卻往往掉以輕心,專家警告這可能帶來嚴重的隱私風險。

延伸閱讀:ChatGPT 無預警推出 GPT-5.2!工作效率爆升 11 倍 3 大版本一次看!

ChatGPT AI 聊天竟暗藏危機!5 大禁忌資訊曝光!

史丹佛大學人本人工智慧研究所(Human-Centered AI)近期針對 6 家主要 AI 開發企業進行深入分析,包括 OpenAI 的 ChatGPT、Google 的 Gemini、Anthropic 的 Claude、Amazon 的 Nova、Meta 的 MetaAI 以及 Microsoft 的 Copilot,研究發現,這些平台預設會將使用者對話用於模型訓練與改善,部分公司甚至無限期保存這些資料,網路安全專家喬治卡米德(George Kamide)指出,多數人嚴重低估了 AI 聊天機器人保存、分析和再利用資訊的程度,他解釋,許多大型語言模型會利用使用者輸入進行訓練或微調,這意味著對話內容可能直接或間接影響模型未來的回應,一旦對話中包含個人識別資訊、敏感數據或機密內容,這些資料就可能成為超出使用者控制範圍的資料集一部分,卡米德強調,對 AI 企業而言,從使用者身上能獲取的最大價值就是數據本身,專家特別提醒,有 5 類資訊絕對不應與 AI 聊天機器人分享:首先是個人識別資訊,包括姓名、地址、電話號碼、護照或駕照號碼等,這些資料一旦外洩可能導致身分盜用、網路釣魚或資料仲介等風險,其次是財務資訊,如信用卡號、銀行帳戶或投資組合細節,第三是健康相關的敏感資料,包括病歷、處方籤或基因檢測結果,第四是工作機密,例如公司內部文件、客戶資料或商業策略,最後則是密碼與登入憑證,這些資訊若被記錄可能讓駭客有機可乘。

載入中...

值得注意的是,即使已經不小心分享了敏感資訊,使用者仍有補救措施,多數 AI 平台都提供刪除對話紀錄的功能,使用者可以進入設定選項,找到歷史紀錄管理並刪除特定對話,此外,也可以選擇關閉資料訓練功能,避免未來的對話被用於模型改善,部分平台如 ChatGPT 還提供「暫時聊天」模式,在此模式下的對話不會被保存或用於訓練,專家建議,使用者在與 AI 互動時應養成良好習慣,例如使用假名或代稱、避免提供完整的個人資訊、定期檢查並清理對話紀錄,卡米德提醒,雖然 AI 工具帶來極大便利,但使用者必須意識到,每一次對話都可能成為永久記錄,因此在分享任何資訊前都應三思而後行,隨著 AI 技術持續進化,使用者的資訊安全意識也必須同步提升,專家呼籲在享受科技便利的同時,更要懂得保護自己的隱私,避免因一時疏忽而造成難以挽回的後果,畢竟在數位時代,資料就是最珍貴的資產,一旦失去控制權,後果將難以預料。


本站圖片部分取自於網路,如有版權使用疑慮煩請告知。

標籤關聯文章 : #人工智慧