本報記者賴中元/台北報導
國家中山科學研究院資通所督導長黃益進今天表示,人工智能帶來創新應用和便利,但其深度僞造技術因可製作逼真造假內容,恐借網絡快速散播假信息,而中科院內已具備相關研發能力,可提供國軍相關技術協助。
國防部召開「深度僞造(Deepfake)技術簡介及國防應用樣態」及「國軍預防熱傷害應處作爲」記者會。黃益進指出,人工智能(AI)近年來帶來許多創新應用和便利體驗,但同時衍生挑戰和風險,其中深度僞造(Deepfake)技術最值得關注,可用於製作極爲逼真造假內容,進一步由網絡迅速散播假信息,亦可用在敵對國家間的認知作戰。
黃益進說明,深度僞造是由人工智能深度學習(Deep Learning)技術與僞造(Fake)兩個詞組合而成,用於生成逼真照片、語音、影片和其他僞造物,同時也包含文字、語音、圖片和影片等4個方面。
至於深度僞造技術在國防的運用樣態,黃益進指出,認知作戰可僞造以假亂真的錯誤情報,並將其廣泛散播,使目標對象於信息不對稱的情況下,信以爲真,產生內部矛盾,甚至瓦解戰鬥意志,也經常運用信息作戰,以達成認知作戰目的,更結合網絡釣魚郵件,亦可運用於盜取特定人物的重要個資及機密資訊。
黃益進舉例,依據臺灣事實查覈中心於民國111年3月17日的報告,同年3月16日黑客將烏克蘭總統澤連斯基投降演說的深度僞造影片,發佈至數個烏克蘭的新聞網站,試圖侵擾軍心;此外,深度僞造技術亦可加工衛星圖片,產生出不存在的建築或地形,並在網絡散播,借欺騙、混淆偵察工作,讓電腦做出錯誤判斷。
至於相關深度僞造技術,是否有辦法應用於國軍的「反認知作戰」。黃益進表示,深度僞造技術日新月異,中科院內已有相關研發能力,可以提供國軍相關技術協助。
國防部發言人孫立方少將指出,根據過往經驗,漢光演習期間所產生的假信息較多,例如「漢光是給三軍統帥的逃跑路線演習」、「國軍官兵叛逃」、「國軍發生重大失誤導致傷亡」等,都是曾經發生的假信息案例,但經過國內各部會多年努力,目前假信息傳散率、對民衆影響力已衰退,因此不管是AI或深度僞造技術,國軍會主動掌握輿論、議題方向的主控權,在傳散前就將其截斷。