【隔機有耳3-3】使用ChatGPT是否安全?向「生成式AI」提問仍可能被偷偷紀錄 - 匯流新聞網

DIGITAL

【隔機有耳3-3】使用ChatGPT是否安全?向「生成式AI」提問仍可能被偷偷紀錄
  • 字級
【隔機有耳3-3】使用ChatGPT是否安全?向「生成式AI」提問仍可能被偷偷紀錄

匯流新聞網記者王佐銘/綜合報導

近來隨著ChatGPT的爆紅,生成式AI受到全球民眾大量關注,不過不少人也相當關注,使用ChatGPT是否安全,自己的隱私、資安會被外洩。對此,ChatGPT就表示目前已有利用多種技術,保障用戶保使用者資訊在傳輸過程中不被竊聽或修改。

據了解,ChatGPT打造了一個極為完善的系統安全性設計,所有資訊儲存都使用加密技術,並設有防火牆、入侵偵測等防護,同時定期掃描安全漏洞並做更新,確保其安全性;ChatGPT也採取嚴格的身份認證,不同級別將有不同權限,同時紀錄用戶操作行為,包括使用的前後時間、使用路徑等。另外,為了避免使用了在傳輸資料被竊聽或修改,ChatGPT特別使用多種加密技術,如SSL原理等等;ChatGPT也有配備安全監控系統,可以即時監控系統的運行狀態,並即時反應與處理。

不過近日ChatGPT開發團隊OpenAI的CEO奧特曼在推特發文表示,有收到網友來函指出,他們登入登入ChatGPT時,卻發現不是他們過去曾經輸入的對話紀錄。雖然Bug很快就被修正,但奧特曼仍呼籲不要在平台上分享敏感資訊。

另外,也有使用者表示,自己無意間透漏過自己家人的性別、生日等隱私資訊,雖然系統回應會提醒用戶應該保護好自己隱私,且OpenAI也曾說過,其隱私政策會將相關資訊去識別化後拿來訓練其演算法,並強調不會蒐集使用者隱私,但隔幾天在同一個對話活動中提到,生日禮物的問題,ChatGPT仍可依照家人需求精準回答問題。

對此,不少人就擔憂生成式AI聰明歸聰明,但是百密仍有一疏,若這些儲存的資料有機會被有心人士「誤導」、「欺騙」、「繞過」系統本身,除了進一步讓用戶的私密對話外洩,甚至進而導致「人工智慧攻擊服務」的誕生,因此未來如何過濾惡意使用者、強固後台的演算法、資料庫安全等將成未來人工智慧發展的重要課題。不過最重要的是,民眾別主動將個人資訊、隱私透露出去,才是守護好自身隱私安全的不二法門。

更多匯流新聞網報導:

【隔機有耳3-1】研調指英國45%手機用戶覺得被竊聽 顧全隱私方法看這裡!

【隔機有耳3-2】竊聽無所不在!智慧家電、光纖電纜成有心人士竊密手法

【文章轉載請註明出處】


R18