Slide
Slide
Slide
Hitachi_AI_HCI
Hitachi_HCI
HCI
previous arrow
next arrow

網絡安全| 人工智能聊天機械人有如雙面刃 不當使用增網絡保安風險

陳仲文
生產力局數碼轉型部總經理兼 HKCERT 發言人陳仲文呼籲,網民必須注意網絡安全的圈套,以免不法分子利用AI進行攻擊。

[網絡安全]

人工智能(AI)聊天機械人ChatGPT近日在本地竄紅,各行各業議論紛紛所受之影響。有教育界代表更視之如洪水猛獸,憂慮學生透過AI代做功課,目前教育機構限制ChatGPT 在教育上的使用不勝枚舉。AI聊天機械人能讓用戶以對話方式提問然後輸出回應,讓工作或生活上更省時便利,例如編寫程式或文章,比真人撰寫文章甚至程式的速度更快、錯誤更少,例如旅遊網站Trip.com推出TripGen,提供旅遊行程規劃。然而,本地保安專家透露,不法分子利用作為製作釣魚郵件內容,甚至編寫惡意程式的例子愈來愈多,意味潛在保安問題亦不容小覷。早前美國的Black Hat and Defcon安全大會上,AI生成釣魚郵件和魚叉式網絡釣魚已超越人類。研究人員將OpenAI的GPT-3平台結合個性分析的AI即服務產品,生成根據同事性格與背景而成的釣魚郵件。

香港電腦保安事故協調中心(HKCERT)預測,以AI攻擊及網絡犯罪的服務將會是今年五大資訊保安風險之一。AI之所以成功準確回應,有賴龐大數量的數據訓練作為基石,惟數據當中或涉及如個人資訊、財務資料或醫療紀錄等敏感資訊,有機會令程式回應問題時觸犯私隱問題。

HKCERT
HKCERT即場示範如何運用網絡釣魚技術,成功將用戶的社交網站密碼偷取,並仿冒網站欺騙用戶。

此外,生產力局數碼轉型部總經理兼HKCERT發言人陳仲文表示,當用戶以AI聊天機械人對答時,往往未能準確得悉答案之真偽,假如用戶過份信賴AI生成的資料數據,或不會從其他來源查證事實確認資料的真實性時,容易造成被引導錯誤。例如礙於系統原因,ChatGPT最新的資料數據只限於2021年或以前的資料,用戶所得之資料未必是最新的答案。他表示用戶應慎選資訊,例如: Microsoft的Bing AI Chat,AI技術與搜尋引擎Bing及瀏覽器Edge整合,結合新一代 OpenAI 語言模型,讓用戶搜尋資料時, 在資料來源(Annotate)提供搜索結果的參考資料。

除了數據私隱和錯誤外,來自互聯網的資料或有偏頗。假如不法分子利用此類資訊訓練AI模型,製造對抗性干擾的惡意回應,對用戶影響之深不能輕視。再者,目前生成的內容雖然泰半用於創意用途,但亦也有不少引發版權相關的侵權疑慮。縰使系統具有拒絕不當請求的能力,具備防止任何形式犯罪活動的護欄,但只要用戶懂得運用不同技巧向聊天機械人「發問」,經過調整後便能繞過機制破解,令即使例如書籍具備版權的內容,AI聊天機械人也有機會如實回應,令用戶在不知不覺間侵犯知識版權;甚至要求ChatGPT撰寫釣魚電郵或生成惡意程式碼等用途。當AI語言模型及技術愈趨進步,被挪用作為惡意用途的
可能性也大幅增加。

陳仲文叮囑使用AI聊天機械人的用戶,必須查證所有搜尋的資訊真偽。他認為,AI聊天機械人的確帶來方便。惟必須留意不法分子利用AI進行攻擊的形式層出不窮,必須注意網絡安全以免墮入圈套。

Leave a Reply

Your email address will not be published. Required fields are marked *