AI立法 摸著石頭過河

AI立法 摸著石頭過河

文/謝璦竹

正當全球因為ChatGPT強大的能力驚呼之時,特斯拉(Tesla)創辦人馬斯克等千餘位專家卻連署,希望暫停下一世代先進AI(人工智慧)系統開發6個月,眾人才驚覺,生成式AI的強大威力是否會超越人類控制?事實上,歐盟早在2019年就開始研議相關立法,去(2023)年底各國已達成協議,很快將通過《人工智慧法案》。

荷蘭在2013至2019年間,因稅務局採用的演算法發生錯誤,有高達2.6萬個低收入、少數種族家庭被標示為詐領育兒補貼,被要求還款,造成上千個兒童被收養,釀成荷蘭首個AI災難,時任內閣也因此總辭。這是歐盟領先全球對AI立法的背景。

歐盟《人工智慧法案》將所謂「大型語言模型(LLM)」納入監管,依照風險等級區隔,凡會構成「系統風險」的AI模型,必須公開訓練模型的詳細資料摘要,而可能對人類安全造成莫大風險的AI系統,甚至可以禁止上市。

未來,歐盟《人工智慧法案》一旦完成立法,包括AI系統或產品在歐盟上市或被使用、AI產生的結果在歐盟被使用,其供應商不論是在歐盟或第三國設立登記,都必須受到歐盟的《人工智慧法案》管制。這是全球首個AI綜合法令框架,可望成為全球制定AI法令的基準。

台灣雖然尚未針對AI立法規範,但行政院智慧國家推動小組已於去年提出《台灣AI行動計畫2.0》,企圖在發展與治理之間找出平衡點。

不過,前台北商業大學校長、叡揚資訊數位轉型大使張瑞雄認為,由於模型所用的資料太龐大,因此公開對監管而言意義不大;例如ChatGPT用了45TB,一個T是10的12次方;又如模型有1,750億個參數,要如何檢查?

張瑞雄解釋,歐盟立法主要是要求開發商讓AI產品更為透明化,具有可解釋性,也就是告訴使用者「AI是如何做出特定決定的」。目前,包括ChatGPT在內的各種AI產品還做不到「可解釋性」。舉例來說,金融業若使用AI核貸,必須要能說明拒絕放貸的原因是什麼。

張瑞雄指出,AI是模仿腦神經網絡,正如大腦在做決定時,依據的是綜合的考慮,很多人會說「直覺」,換言之,人類在做決定時,往往未必講得清楚原因,因此,AI的「可解釋性」並不容易做到。

不過,張瑞雄預期,立法應不會規定上市前需經過審查,而更多是作為上市後發生糾紛時,法院判決的依據。

管控訓練過程 優於監管結果

去年,好萊塢編劇工會要求平台和製片商禁止使用AI取代編劇撰寫劇本,而演員工會則擔心AI特效技術,如複製聲音和肖像,使得製片方得以運用數位肖像,因而剝奪或壓縮演員的生存空間。

最後達成協議,不能用以前的劇本做訓練,張瑞雄說,失去學習的材料,AI就無法學習,「合約就可以解決這個問題。」另外,紐約時報正在和OpenAI進行訴訟,前者要求後者不能使用其報導內容作為訓練資料,官司結果值得密切注意。

換言之,透過管控「開發過程」,而非監管「結果」,更為有效,或許值得立法參考。至於當前的AI立法,張瑞雄說:「還是宣示性質比較多。」他認為,為兼顧發展與規範,很難禁止AI的研究與開發。

AI的發展正如火如荼,例如,微軟和Google等公司正在將生成式AI嵌入自家辦公軟體中。也就是說,任何打開文件檔或試算表的人,很快就會用到這些工具。

摩根士丹利正與OpenAI合作,利用AI構建一套理財工具來幫助財富管理人員,這個虛擬助手將可以快速分析財務報表與研究報告,並提出建議。

製藥大廠禮來投資金額至少2.5億美元,與中國大陸AI藥物開發公司晶泰科技合作,利用其整合AI能力與機器人平台,針對未公開的疾病設計創新候選藥物,並由禮來負責未來的臨床和商業化開發。

晶泰科技的藥物探索能力,來自其小分子物探索平台ID4Inno,該台配備了數百種人工智慧演算法,包括機器學習、深度學習和自然語言處理方法等,以及生化、細胞、藥物效應動力學和藥物代謝動力學的測試技術。

在2020年至2023年6月期間,美國大型銀行公布的職缺中,約有5%的職務描述中提到了人工智慧,而大型科技公司在2020年至2022年註冊的專利中,約有8%與人工智慧相關。

AI可以協助開發新藥

AI可以協助開發新藥。

張瑞雄說,由於缺工的關係,加上AI不需要休假,減少很多管理問題,企業一定會擁抱AI,目前還沒有全面採用,最大的原因是擔憂資料洩漏。

由於使用AI需要龐大的電腦設備,一般公司多採租用的方式,因此資料存在雲端,在訓練AI時,要輸入企業內部資料,而目前還無法保證AI不會把訓練用的資料洩漏,因為AI像人腦一樣,是綜合所有資訊然後根據「直覺」回答。

此外,目前AI還無法避免錯誤,加上當前競爭產品很多,尚未定於一尊,大家仍在觀望。AI出錯的情形包括可能被誘導透露原本不該透露的資訊,例如青少年不宜的色情網站列表等,現已證實ChatGPT還做不到防範這個問題。

若AI所使用的資料來源沒有限制,AI甚至可能散布槍械彈藥的製造方法,或低成本恐怖攻擊的方式。而先進AI加以訓練之後,也可用於金融詐騙。

AI還會幻想。舉例來說,去年6月美國律師讓ChatGPT代寫訴狀,結果引用的判例均為憑空捏造的事件。

為了釐清導致AI產生幻覺的前因後果,新創公司「Vectara」研究團隊曾進行一項研究,顯示ChatGPT出現幻覺的機率為3%、Meta旗下聊天機器人提供錯誤資訊的機率為5%、Google推出的生成式AI模型「PaLM」出現幻覺的機率甚至高達27%。AI出現幻覺的原因,跟人類一樣,源於當初學習的訓練資料有誤。

通用人工智慧在路上

不過,整體而言,AI的發展仍然值得期待。據研究顯示,那些績效低於平均的專業工作者往往從使用生成式AI中,獲得最大好處,因而有望大幅增加企業產出。由此觀之,AI的發展勢不可擋。

尤其,許多生成式AI工具將比以前的科技更容易使用,目前已有AI手機問世,可以掃描文件並整理為簡報、通話自動翻譯、生成你的AI照片(還可以任意更改背景),甚至用一句引言寫成一篇演講稿等。

最勁爆的是,去年11月,OpenAI在給員工的信中證實,確有Q*計畫,並描述其為「超越人類的自主系統」。這項發展一度導致OpenAI執行長奧特曼被董事會解職。

Q*是什麼?張瑞雄解釋,Q*是AI邁向終極目標「通用人工智慧」(Artificial General Intelligence,AGI)的一步。未來,AGI將可以透過同理心判讀對方的情緒,因此,AI心理輔導也不再是幻想。又如創造力,這是人類才有的能力,未來AGI也可能擁有「靈光一現」的智力。

美麗新世界?

「理論上,AGI可以做一切人類的工作,不限於勞力或勞心的工作。但人類有情緒,AI沒有,因此AI可能做得比人類更好。」

未來,人類社會的一切工作會不會都被取代?AI是不是第四次工業革命,讓人類生活更加幸福?或者,AI真的可能取代人類,而不只取代人類的工作?

由於AI潛力驚人,輿論一直有所謂AI滅世論。舉例來說,選舉是民主最重要的大事之一,在AI充斥的未來,民主會怎樣演進?

有論者指出,民主政治運作的本質是資訊。人們喜歡、或是討厭一個政治人物或政黨,不過是媒體洗腦的結果。舉例來說,網路媒體對於一些執政基礎脆弱的國家具有極大的破壞力。

2014年,一位緬甸部落客捏造的報導指稱,有個穆斯林茶館老閭性侵佛教徒員工,這條消息在臉書上以爆炸性的速度傳開,針對羅興亞穆斯林和其他少數民族的仇恨言論如野火般延燒,最後導致近80萬名羅興亞人逃離緬甸成為難民。

如今,科技巨獸掌握巨大的政治權力,「以營利為目標、無法追踪、對公眾不透明、不受監管、難以究責,而且複雜到沒有人能夠完全理解的演算法所構成的電子迷宮」,決定你我所看到的世界。

而由於民主國家選舉經費來自大企業,因此政治更多是為擁有科技和媒體的大企業金主提供服務。對此,張瑞雄認為偏於悲觀,歷史上不乏天縱英才,有能力扭轉一切,改寫歷史。

未來,當一切工作都由AI取代時,政府可望提供「全民無條件基本收入」(Universal Basic Income, UBI),為了生活而工作將不再是必須,但新的問題將產生。

 

收藏本篇文章
Please login to bookmark Close
分享給更多朋友:

您的電子郵件地址不會被公開*