機器學習及AI成為科技界的Buzzword後,的確提供一個全新的思維去解決各行各業問題,筆者報導過不少成功案例,當中亦有失敗個案。原因多跟採集資料有關,因為機器學習的數據帶有偏見,所獲結論,自然亦戴有色眼鏡,也有AI軟件設計的人為因素,最後並未能提供最好的答案。
數年前,亞馬遜公司使用AI招聘員工之後,陸續發現問題案例,去年被迫放棄智能招聘項目。從此可見,AI須考慮到道德和偏見,以免造成更多的不公平,甚至引起法律訴訟和違反法規。
眾所週知,亞馬遜成功自動化網上採購流程,以機器學習模式,向客戶提供貨品評價,推薦符合喜好商品,徹底改變網上購物模式。2014年,亞馬遜又開發一套AI的招聘程式,嘗試自動化聘請員工流程。程式根據過去十年,亞馬遜招聘數據及申請者履歷,再透過機器學習模式,找尋最佳配對。譬如,指定職位有一百名申請人,AI程式便會從100份履歷中,挑選前5名最有資格候選人,過程可省卻大量時間。
2015年中,亞馬遜工程師開始察覺到AI程式出現問題,男女申請人甄選機制不統一,偏向於選擇男性,未能公平處理女性的申請。結果,多次嘗試修改,仍未能挽回高層對系統的信心,去年停止了整個項目,成為AI 失敗經典案例。
分析指出,近十年求職人事大部份是男性,成功獲選的機會較大,再將這份「成功」 數據,輸入學習程式,副作用是降低女性及相關的經驗數值,間接降低了女性求職者採納機會。譬如,求職者如果在女子大學畢業,或曾參加只限女性出席的會議或論壇,評分會較男性為低,出現參差及不準確。不過,亦有亞馬遜內部人員透露,AI程式也非唯一招聘工具,測試期間亦使用其他甄選工具,不是完全依賴AI。
AI 錯誤屢見不鮮
AI提供的服務,也閙出令人爭議事件。亞馬遜的Rekognition容貌識別將28位國會議員為罪犯,傾向辨認少數族裔為犯罪份子。上次提及Google Photo識辦系統,把照片中黑人錯誤標籤為猩猩;總工程師公開請罪,聽聞Google用了brute force手段,硬生生地從系統中,剔除猩猩這類的字眼,避免重蹈覆轍。
IBM的Watson系統,曾進軍醫學界。數年前跟美國M.D. Anderson 癌症醫療中心,預備打造智能化治療系統,更簽了近6千萬美元合同,可惜最後結果,亦未如理想而作罷。
今年三月份,美國紐奧爾良州政府宣佈,放棄了近6年AI預測犯案硏究。上述程式設計與湯告魯斯《未來報告》(Minority Report)電影橋段相似,AI監察市民社交網絡活動,預測犯罪的可能性,預先向有關部門通告。
結果,網絡監察當然引起反對,侵犯了市民私隱,引起極大爭議。同時,若AI判斷有錯,很容易便錯怪好人,造成糾紛及法律問題,及時叫停研究,算是有先見之名。
作者:梁定康,網絡工程師,現從事網絡保安及架構設計