Slide
Slide
Slide
Hitachi_AI_HCI
Hitachi_HCI
HCI
previous arrow
next arrow

網絡安全| MIT將AI風險分門別類      儲存庫協助業界評估

MIT FutureTech研究員Peter Slattery
MIT FutureTech研究員Peter Slattery表示,人工智能風險文獻分散,
業界難以全面查閱,可能忽視關鍵問題,需建立資料庫以便開發者充分考慮風
險。

人工智能的應用與日俱增,惟其牽涉的風險不容忽視。FutureTech 與研究人員合作發布AI風險儲存庫(AI Risk Depository),此資料庫羅列700多種AI風險,涵蓋人工智能可能導致假訊息的傳播、歧視等問題。儘管許多組織和研究人員已經意識到解決人工智慧風險的重要性,但過往需要投放大量時間審查網上資料,記錄和分類這些風險的大多並不協調,導致分類系統相互衝突的碎片化局面。

AI系統安全漏洞與攻擊、網絡攻擊、虛假或誤導性訊息、洩漏敏感資訊而損害個人私隱、欺詐詐騙,甚至具針對性的操縱,都是現時網絡世界屢見不鮮的情況。個人身份與公司機構使用人工智能系統時,或為系統制定規則管理時要注意哪些風險,往往都是由開發者自行判斷,監管難免出現良莠不齊。歐美雖已有監管人工智能的法律相關文件,但業界仍未有針對其系統應涵蓋哪些風險而達成共識。儘管業界早已洞悉AI風險的威脅,惟記錄與分類此類風險各自為政,紀錄零碎無法統一。

FutureTech是麻省理工學院的跨學科小組,最近與大學及研究所合作,搜尋學術資料庫,蒐集數千份與人工智慧風險評估相關的文件。此次發布,當中儲存了AI系統帶來的數百個記錄風險,從而協助政府、研究和業界評估AI不斷變化的風險。此儲存庫將超過17,000個記錄,包括同行評審的文章、預印本、會議論文和報告,大致分為43 個分類,從中抽取700多個AI風險再進行分類。AI風險可能來自人類或AI本身,亦會是蓄意或無意引發,風險資料庫按風險的原因進行分類,亦會按責任實體、意圖、風險發生的時間分類,從而讓業界更了解AI風險的全面概述。

AI風險儲存庫有系統地羅列700多種AI風險,提供一個較全面的結構框架。
AI風險儲存庫有系統地羅列700多種AI風險,提供一個較全面的結構框架。

現時已識別的AI風險包括欺詐、詐騙和具針對性的操縱、過度依賴和不安全使用,以及不公平歧視和不實陳述。最常提及的風險領域,包括AI系統的安全、故障和限制、社會經濟與環境危害、歧視與毒性、私隱與安全,以及惡意行為者和濫用。MIT FutureTech研究員Peter Slattery在其官方發布表示,由於人工智能風險的文獻分散在期刊、預印本和行業報告中,種類繁多。他認為業界未必能夠查閲所有這些零散的概述,因而錯過關鍵問題。假如沒有資料庫,某些風險可能會被忽視,開發者因而無法充分考慮。目前此儲存庫公開予大眾使用,用戶可以自行將網上文件複製使用。儲存庫將AI的風險分為歧視、私隱、安全、錯誤訊息、惡意行為、濫用等7個不同範疇。相信儲存庫的資料將會變成業界的開發者或學術機構,作為風險評估的實用資源。由於資料庫提供一個較全面的結構框架,填補AI風險評估的空白,彙集資訊更有系統。對於政策制定者或業界來說,資料庫有助評估監控緊急風險,了解最新未有記錄的風險,從而制定緩解風險的對策。

Leave a Reply

Your email address will not be published. Required fields are marked *