AI立法 摸著石頭過河

AI立法 摸著石頭過河

文/謝璦竹

正當全球因為ChatGPT強大的能力驚呼之時,特斯拉(Tesla)創辦人馬斯克等千餘位專家卻連署,希望暫停下一世代先進AI(人工智慧)系統開發6個月,眾人才驚覺,生成式AI的強大威力是否會超越人類控制?事實上,歐盟早在2019年就開始研議相關立法,去(2023)年底各國已達成協議,很快將通過《人工智慧法案》。

荷蘭在2013至2019年間,因稅務局採用的演算法發生錯誤,有高達2.6萬個低收入、少數種族家庭被標示為詐領育兒補貼,被要求還款,造成上千個兒童被收養,釀成荷蘭首個AI災難,時任內閣也因此總辭。這是歐盟領先全球對AI立法的背景。

歐盟《人工智慧法案》將所謂「大型語言模型(LLM)」納入監管,依照風險等級區隔,凡會構成「系統風險」的AI模型,必須公開訓練模型的詳細資料摘要,而可能對人類安全造成莫大風險的AI系統,甚至可以禁止上市。

未來,歐盟《人工智慧法案》一旦完成立法,包括AI系統或產品在歐盟上市或被使用、AI產生的結果在歐盟被使用,其供應商不論是在歐盟或第三國設立登記,都必須受到歐盟的《人工智慧法案》管制。這是全球首個AI綜合法令框架,可望成為全球制定AI法令的基準。

台灣雖然尚未針對AI立法規範,但行政院智慧國家推動小組已於去年提出《台灣AI行動計畫2.0》,企圖在發展與治理之間找出平衡點。

不過,前台北商業大學校長、叡揚資訊數位轉型大使張瑞雄認為,由於模型所用的資料太龐大,因此公開對監管而言意義不大;例如ChatGPT用了45TB,一個T是10的12次方;又如模型有1,750億個參數,要如何檢查?

張瑞雄解釋,歐盟立法主要是要求開發商讓AI產品更為透明化,具有可解釋性,也就是告訴使用者「AI是如何做出特定決定的」。目前,包括ChatGPT在內的各種AI產品還做不到「可解釋性」。舉例來說,金融業若使用AI核貸,必須要能說明拒絕放貸的原因是什麼。

張瑞雄指出,AI是模仿腦神經網絡,正如大腦在做決定時,依據的是綜合的考慮,很多人會說「直覺」,換言之,人類在做決定時,往往未必講得清楚原因,因此,AI的「可解釋性」並不容易做到。

不過,張瑞雄預期,立法應不會規定上市前需經過審查,而更多是作為上市後發生糾紛時,法院判決的依據。

管控訓練過程 優於監管結果

去年,好萊塢編劇工會要求平台和製片商禁止使用AI取代編劇撰寫劇本,而演員工會則擔心AI特效技術,如複製聲音和肖像,使得製片方得以運用數位肖像,因而剝奪或壓縮演員的生存空間。



訂閱數位電子雜誌  暢讀精彩全文 

  √禪天下官網雜誌全閱讀
√每月新增3-5篇文章可「線上聽禪」
√每月簡訊通知當期電子雜誌連結
 

  會員登入   前往訂閱 


 

收藏本篇文章
ClosePlease login

No account yet? Register

分享給更多朋友:

您的電子郵件地址不會被公開*