誰來管AI

善喻

自去年底人工智能(AI)聊天機械人Chat GPT3(CG3)面世後,全球議論不絕。 這機械人知識淵博,能力高強,小至度身制定瘦身方案,大至洋洋灑灑完成學位論文, 幾乎是一揮而就。我曾請它為我寫一首情詩, 連中文系教授也叫絕, 意境高,韻律美,儼然是AI 界的納蘭性德!其作業之高水平,足以成功通過美國明尼蘇達州大學法學院考試,又獲得名牌商學院Wharton MBA核心課程乙級成績。更有報道指出,澳洲廸肯大學某一碩士課程竟有多達1/5學生用CG3來寫論文,哥倫比亞一法官亦坦誠曾用CG3寫判詞。

CG3技驚天下,卻又非樣樣皆能。例如科技新聞網站CNET用AI撰寫財經短文,竟然錯漏百出, 連利息和本金的回報也弄錯。我們當然可以把 CG3再培訓,但更基本的問題是 : AI需要依賴背後龐大的數據庫去學習和模仿,數據庫一旦有偏頗、誤差、假消息,甚至有剽竊, AI的作業豈能倖免?

早在2021年,歐盟就如何監管AI提出了「人工智能法」草案。基本原則是A I系統的運作必須安全可靠,監管程度則視乎對應用範疇的風險評估。(基於AI技術會產生不可接受風險, 因此,)完全禁用AI 技術的範疇包括社會信用評分制度和用人面辨識技術執法。被界定為高風險而必須受到監管的則有徵聘篩選、信貸評分、醫療診斷。但要釐定風險程度, 其背後的價值觀能否放諸四海皆準呢?AI程式幫你找情人、改作業又如何?人類又是否有能力去就每一個範疇都作出風險評估呢?

或許,我們是否應問問: AI怎樣去監管AI呢?

 

明報 《法政隨筆》

16.2.2023