生成式AI(Generative AI Risks)的資安風險

生成式AI(Generative AI)是一種利用機器學習技術來生成新的內容的人工智能技術。這些內容包括文字、圖像、聲音、影片等等。生成式AI模型,例如生成對抗網絡(GANs)和變分自編碼器(VAEs),通過學習大量的訓練數據來創建與訓練數據相似但全新的內容。這樣的技術,對資安卻帶來新的風險。

生成式AI的資安風險

  1. 假信息和深偽技術(Deepfakes)
    • 生成式AI可以創建極具說服力的假信息,包括逼真的圖像、聲音、影片等等,這些內容可能被用來進行網絡詐欺、誤導公眾或進行其他惡意活動。深偽技術可以偽造身份、創造虛假的證據,對個人和組織造成嚴重的信任和安全問題。目前,諸多銀行、重大系統使用的影像辨識系統,即有被此類AI技術繞過的風險。
  2. 釣魚攻擊(Phishing)及社交工程
    • 生成式AI可以用來創建更為逼真的釣魚郵件和訊息,增加攻擊成功的可能性。AI生成的文本可以模仿特定個人的語氣和風格,使得釣魚攻擊更難以識別。
  3. 自動化攻擊
    • 攻擊者可以使用生成式AI自動生成惡意代碼或腳本來進行網絡攻擊,例如DDoS攻擊或SQL注入攻擊。這些自動化工具可以快速生成大量的變種,繞過傳統的防禦措施。
  4. 資料洩露和隱私問題
    • AI模型在訓練過程中可能會暴露訓練數據中的敏感資訊,導致隱私洩露。如果生成式AI被用來重建或推斷原始數據中的敏感資訊,可能會對個人隱私和數據安全造成威脅。
  5. 偽造身份和欺詐
    • 生成式AI可以用來生成偽造的身份文件、證書和其他身份證明,進行身份欺詐。這些偽造文件可能用於開設銀行賬戶、申請貸款或進行其他非法活動。

新的AI科技帶來了便利性,但相對的,它也帶來了新的資安威脅。如何正確防禦此類新型態的攻擊,將是大家必須嚴正關注的要事!