AI文本生成技術(ChatGPT)及其他風險分析
近年來,大型語言模型(LLM)的人工智慧應用越來越普及,其中OpenAI的ChatGPT和Microsoft的GitHub Copilot更是熱門。然而,這些技術也帶來了一系列的風險:代碼錯誤、資訊洩漏、版權問題、甚至是AI的“妄想干擾”等等。AI對於資訊安全和軟體開發所帶來的風險尚未完全被釐清,但使用AI的人必須意識到AI經常會犯錯,不應盲目信任。任何由AI所創造的內容,都必須接受人類的審查。
代碼錯誤和資訊洩漏
OpenAI的ChatGPT和Microsoft的GitHub Copilot雖然可以協助程式開發,但它們也常常犯錯。去年底,紐約大學的研究人員發現,Copilot所創造的40%程式中,至少有一個MITRE最常見的25個漏洞之一。甚至,程式共用論壇Stack Overflow因為ChatGPT的問題,暫時禁止使用ChatGPT創造的程式。
安全專家Kadir Arslan還發現,Copilot所創造的基本網頁開發代碼中,存在SQL注入、使用過時的雜湊演算法以及未保護的文件上傳功能等問題。他在Invicti的部落格中寫道:“你必須非常小心,並將Copilot的建議僅視為參考。它的建議通常根本不考慮安全問題。”
惡意軟體和釣魚攻擊
AI的文本生成技術不僅可以寫出完美的詐騙郵件,而且速度更勝人工。此外,AI還能幫助犯罪分子進行釣魚攻擊。很多業餘的程式設計人員,甚至包括筆者,都使用ChatGPT來創造基本的竊取資訊的惡意軟體。
AI已經開始協助所謂的“豬屠場”詐騙,這是一種長時間的釣魚詐騙,攻擊者會在數天甚至數週的對話中建立信任關係,然後讓受害者洩漏帳戶資訊、轉帳或投資。
AI技術帶來了巨大的潛力和創新,但同時也帶來了風險和挑戰。在使用AI技術時,必須謹慎小心,並且接受人類的審查,以確保其安全性和可靠性。
留言
張貼留言