跳到主要內容區
 
 

2020.10.16 如何用AI創造社會共善?──AI公共化的契機(王道維、林昀嫺)

 

王道維[1]、林昀嫺[2]

摘要

        進入21世紀以來,人工智慧(Artificial Intelligence,AI)相關的資訊技術已有突破性的發展,正在以各種形式滲入我們當代的生活中。雖然AI與過往科技有相當的類似性,都加速了社會資源與人才流動的M型化,並帶來更多關於人權、隱私與倫理的挑戰,但是仍有若干重要的本質差異。本文嘗試提出,這些AI的特質使得科技參與社會發展有機會開展出「AI公共化」的新方向:藉由政府部門主動釋出公共資料,讓人文社會學者與AI技術學者以跨領域合作的方式來研發非營利導向的AI應用,讓社會大眾(而非少數公司)都能分享AI發展的果實。相關的政策與法令配套亦可因為人社學者從AI設計之初的介入而提早預備,間接引導相關技術的開展而減少將來應用於社會的衝擊,使科技發展與社會公益在AI時代中更能相輔相成,一同創造更大的社會共善。

       本文主要來自筆者兩年前開始研發「以自然語言為基礎的AI親權判決預測模型」[3]時所反思的內容,經由與學界和實務界友人多次討論後所逐漸釐清整理的心得。以下將分別從「AI技術的特色」,「社會共善的再思」、「AI公共化的機制」與「多贏局面的創造」等四個面向來就此主題依序闡述,最後再補充一些例子說明,面對AI時代的挑戰,積極善用之可能更勝於消極預防。

 

一、AI技術的特色

       前三次的工業革命主要是建立在以物理定律所規範的硬體發明上,例如蒸汽機之於熱力學、發電機之於電磁學、電晶體之於固態物理學等。但是AI技術的重點卻在於軟體方面的演算法突破,因此在應用方面與過往的科學技術有以下幾個重要的差異,是討論AI公共化之前所需要先行了解的。(為方便後續引用,前面加了編號。)

       S1.資料主導而非規則主導:眾所周知,AI的概念在1950年代就已萌芽,但是到21世紀才進入廣泛應用。其中最重要的原因在於發展出一些可以讓機器從巨量資料中作有效學習的演算法,完成一些以前只有人類才能作到的非結構性工作,如影像辨識或語意理解等。這種以「資料主導」而非「規則主導」的機器學習[4]本質上需要大量且高品質的資料來訓練。但是除了網路以外,擁有最多有價值的資料恐怕是政府與公共事業部門,並且多半是長期研究這些資料的人文社會學者才能有適當的整理評估。因此相較於過往的工業革命,人文社會領域的研究對AI技術的影響與應用其實具有更關鍵的影響力。

       S2.非結構化資料的處理:一般電腦大量且快速計算的能力是建立在資訊間精確的邏輯對應關係上,僅適合可以用明確規則來操作的場域。但是當今AI演算法卻能對一些非結構性資料(如語言與影像)有超乎過往的處理成效,而這恰與學術研究中,人文社會領域特別需要藉由語言或影像來表述的資料特質密切相關。換句話說,過往科技發展是以結構性的知識為基礎,因此可以讓人文社會學者隔著某種方法論的距離來批判檢視。但是當前AI對於非結構化資料的處理能力(特別是文字語言的部分),讓人文社會相關的研究可能也需要有新的思維來面對。

       S3.統計有效並非規範有效:當今所有AI得驚人的應用(例如圍棋程式AlphaGo)其實並非一般人所以為的,彷彿AI找到一個必勝的圍棋心法。事實上,這些都是AI根據資料而習得的統計性結果,並不像過往的科技是建立在精確必然的物理定律,因此前者不若後者,對於少見的個案或者系統性的問題是幾乎毫無可靠的處理能力。以類神經網路為基礎的AI技術為例,雖然有高準確度與應用場域廣泛的優點,但並非是以人類可以理解的方式來模擬,因此即便是熟悉範圍內的數據,也不見得總可以給出合乎常理的結果。這些事實代表在使用AI時,如何定規其適用的範圍、決定最終的權責歸屬、賦予其價值與意義,都是人類自己不可逃避的責任,促進使用者之間需要有更深的溝通與對話才可能達到共識,無法像以前直接歸因於自然定律或市場供需所決定。

       由以上幾點關於AI技術相較於過往科技的差異,我們可以發現AI的應用不但未能排除人類的參與,反而凸顯出在整個AI應用的過程中,從資料蒐集、資料標註、程式設計、應用範圍、權責歸屬、意義探討等等,都需要人類智慧的深度介入才能創造出更高價值(或低副作用)的產品。因此在未來的AI時代,人文社會學者的角色不應再如過往只能被動地等待新科技出現後,才作相關的後設分析、社會影響評估或法令配套等等修補性的工作。特別是如果將來AI技術被應用到關乎社會整體利益的範圍,當然就更不該是目前檯面上所看到,幾乎完全由AI技術專家或某些科技大廠所主導的情形[5]。人文社會學者應該可以有更多主動參與的必要性與可能性。

 

二、社會共善的再思

       本文標題與以下所討論到的關於「善」、「共善」乃至於「公共性」等相關問題與其概念,始終是哲學、法律、政治、社會、經濟甚至於文學藝術等人文社會領域所長久研究的重要主題,包含許多密切相關但不易分析的角度與內涵。為了釐清AI技術在社會共善的實踐中所扮演的不同角色,方便此文後半部討論具體的實踐機制,筆者此處僅先就外在形式,將所討論的社會共善以「利益加值型」與「溝通協調型」作簡單區分[6]。這樣的二元劃分必然有其未盡之處,但筆者並未排除其他角度的分析方式,有待未來相關領域的學者作進一步探究討論。

       科技應用於大眾生活來創造公共利益,早在第一次工業革命後的十九世紀就已出現,一直到現代社會中許多不可或缺的基礎建設如電力設備、大眾運輸、網路服務、醫療保健、乃至食品衛生等等。類似的功能當然也可能因為附加上AI技術而有更好的應用。但是這些應用都是建立在假設社會已有的共同價值基礎上所發展,屬於「利益加值型」的社會共善,與過往的科技應用其實沒有本質上的區別,亦可在現有社會結構中繼續發展或調整。

       相較起來,「溝通協調型」的共善恐怕更為我們當前邁向後現代的社會所特別需要重視的,畢竟不同族群與階級間出現越來越多的價值觀衝突甚至法律糾紛,逐漸侵蝕瓦解許多當代社會有效運作所倚賴的共同價值。造成這些情形的主要原因之一可能是當代社會中過多紛雜的資訊與社群媒體的同溫層效應,讓一般人很難在短時間內蒐集有價值的資料、整理相關文獻或數據、以至於難以安靜的聆聽或平和務實的討論[7]。事實上,民主社會所賴以維繫的社會共識,在其形成的過程中也需要有實證的方式來檢驗其可行性,才能減少群體的偏見或盲從。

       從這些角度來看,AI對於大量非結構性資料的處理能力(S2)與從資料模擬不同結果的可能性(S3),的確可能有助於實踐「溝通協調型」的社會共善,讓過往不同觀點的資料可以充分的再利用(S1),促進更高品質的對話溝通。這是過往以硬體設備為基礎的科學技術所無法達到的功能。

       藉由以上從技術面與需求端的分析,我們發現將AI技術應用於增進當代社會的共善應該有其特殊的時代機緣。筆者因此建議可以將「AI公共化」作為應用AI技術來實現社會共善的策略:以政府部門重要的公共資料[8]作為誘因(S1),藉由與學術界的跨領域合作(包括人文社會領域並AI技術領域,見S2),轉化成為大眾都可以享受到的成果。應用場域可以著重於(但不限於)「溝通協調型」的社會共善(S3),這樣或許可以彌補在AI資本化過程中所無法兼顧的分配正義,促進社會資源與資訊在更多群體間流通,減少誤解與衝突所帶來的內在消耗。

 

三、AI公共化的機制

       但是實踐這樣的「AI公共化」策略仍須要有實際可行的機制,並非只憑一個理念呼籲就會出現。畢竟在當前「AI資本化」的大趨勢下,擁有足夠資金的產業已經大量吸收學界的人才來為其利益效力,甚至在技術開發層面產生過去所沒有的逆轉現象[9]。這對於政府的公共事業部門或推動社會公共利益的非營利組織來說,想要導入AI技術來更新服務顯然更加困難(資料工程師相對高的薪資即為現實原因之一)。

       因此筆者認為,在目前台灣社會的制度中,要啟動以上所提到的「AI公共化」來平衡「AI資本化」,就必須結合政府與學界的力量。一個可能機制是,政府以長期的經費補助研究型大學設立若干專門作人文社會或跨領域公共議題的「AI公共應用研究中心」(名稱暫定),將已在國內外開發共享的AI技術導入政府的公共資料庫,專門發展對於社會大眾有重要公共利益的AI應用系統[10]。當然,該中心也不見得需要是全新或獨立單位,也可以是現有的學術研究機構作某種任務區隔或藉由跨領域合作而建立。

       在組織內容上,這個中心應該是由熟悉AI應用領域的人文社會領域學者(或對AI公共化的理念有認同的AI技術學者)所領導,以合理的薪資聘任有AI技術專業的資料工程師或數據處理人員成為研發中心,利用政府或公共事業部門的資料庫(或其他來源)執行各項促進社會共善的應用計畫[11]。這中間當然也需要依據計劃的性質,與其他人文社會領域或資工技術領域的學者進行各種短、中、長期的合作計劃。中心的運作績效應以其AI產品的公共性與影響力來評量,輔以相關的學術發表,可參考圖一的架構。

圖一:AI公共應用研究中心可能的運作模式。

圖一:AI公共應用研究中心可能的運作模式。由中心聘任資料工程師或相關AI技術專家,以計劃合作的形式與其他單位的人社學者合作,將政府公共資料作具有公共價值的應用。參與計劃的人社學者團隊可進行相關的資料標註與配套措施分析研究,由中心技術專家提供客製化的AI程式設計與資料分析。最後的成果若能成功運作,可由合適的社會企業或非營利組織進行維護更新。

       需要強調的是,這些在中心工作的資料工程師可能多是來自資工或理工科系的畢業生,因認同AI公共化的理念而願意將其專業投入相關的應用。由於中心是以開發公共應用為目的(有點類似工研院的角色,但並非只是服務產業界),因此也必須提供合理的薪資(至少如業界同類工作的起薪)才能留住人才,合適者甚至可以長期聘任,這是一般人社學者的研究計劃所無法提供的。這些資料工程師不但接手不同的案件來應用所學,也可以互相交流研發經驗(也可外聘學界或業界技術顧問指導)。等到在中心有若干實際研發的經驗後,他們應可以順利在業界找到理想的工作,也將技術傳承給合作單位或相關的非營利組織來維護。所開發出來的AI產品當然也可能透過技轉而成立社會企業,讓這些對大眾有幫助的應用能夠帶動非以私人利潤追求為目的的經濟模式,創造更大的公共價值。

 

四、多贏局面的開創

       以上所討論的尚未直接觸及相關的產業問題,但是並不代表不會影響產業界。事實上,以目前AI技術與應用領域還在快速擴展的情況,傳統科技與社會的研究方式恐怕無法及時掌握業界順息萬變的發展。即便目前有不少人文社會學者投入AI發展所帶來的社會影響評估或相關的法令配套研議,或是研究國外相關的案例與法制規範,仍可能因為學科專業與思維方式的差異,無法確實掌握本土AI發展的核心需求而有隔靴搔癢的問題[12]。這種人社領域研究與AI技術產業的脫節會讓相關的法規調整失去有效的參考基準,若非過於保守就是過度開放。但最差的情形莫過於政策法令互相矛盾,讓產業莫衷一是,影響整體的發展。

       因此,當政府將資源投資於「AI公共應用研究中心」,就有可能讓本來產業發展與法令規範之間的張力,藉由「AI公共化」而轉變為另一種良性循環(見圖二)。在這樣的循環中,透過釋放公共領域的資料讓人文社會學者參與分析與標註,不但可以利用AI技術來推動更多與社會共善相關的應用發展,其他的人社學者也可以藉由這個「AI公共化」的過程直接了解AI產品的研發歷程,因而可以更貼近技術的發展脈絡而提前思考AI應用時所需要的配套,讓AI技術在公共領域的導入能減少對於人權、隱私或倫理方面的疑慮。這些後來也必然可以協助解決前文所提及的法令規範修訂的問題,讓產業界可以有更成熟前瞻的法規來輔佐引導(而非只是限制)相關的AI發展。

       最後,當產業有更理想的環境作好產品開發與應用,後來也會反饋回「AI公共應用研究中心」來提升其技術能力,作出更好的AI系統,甚至以經費或人才的投資鼓勵「AI公共化」的發展。這樣產業發展與社會公益就可能產生良性循環,帶給政府、產業、學界與社會大眾多贏的局面,成就範圍更廣闊的社會共善。

圖二:AI公共化

圖二:AI公共化(左下的黃色區塊)可打破原來社會規範(上方紅色區塊)與產業發展(右下方綠色區塊)對立的局面,促進產業發展與社會關懷的良性循環,創造各方多贏局面,帶來更大的社會共善。

 

結論:積極善用勝於消極預防

       本文首先分析了AI技術與過往科技的主要差異,重點在於AI對資料的倚賴性與應用時的特殊性,但也因此看出人文社會領域學者所能扮演的特殊角色。藉由將社會共善分為「利益加值型」與「溝通協調型」兩類,我們發現後者不但是後現代社會所特別需要,也剛好是AI技術不同於過往科技所能獨特發揮的面向。為了在目前以產業為主的環境下實現這樣社會共善,筆者提出「AI公共化」的策略,引入「AI公共應用研究中心」的機制,藉由政府或公共事業單位的資料來推動相關的發展,讓人文社會學者與AI技術專家可以作更深的合作,不但實踐社會共善,也可推動相關政策配套的深入研究,間接造福產業界與社會大眾,形成正向循環。

       回到台灣社會當前的環境,雖然據筆者所知尚未有類似「AI公共應用研究中心」的相關機制被提出,但是若干類似的努力其實已經出現:有許多AI技術團隊投入屬於「利益加值型」的應用來促進公共利益(可見於目前科技部四個AI中心的部份研究計劃),而「溝通協調型」的應用也開始有少數團隊在實踐[13]。只是相較於網路所取得的資料或私人企業內部的資料,政府相關單位具有公共價值的資料,即使在不影響個人隱私與人權的前提下,要能充分利用仍可能面對更多跨領域合作的困難。因此面對AI時代的挑戰,這樣的公共化應用很難僅由個別熱心的學者投入或外包的形式來達成,顯示出為何需要有專門的研究機構(如本文所提及的)來投入長期的規劃與努力。畢竟相較於擔心防範AI所可能帶來的負面影響,不如積極善用創造更大的社會共善,可能才是最好的預防[14]。

       以司法領域為例。由於國內法治教育的不足與政治氛圍的影響,一般民眾對司法判決的信任度並不高,這對於平日兢兢業業埋首於過量案件的專業法官並不公允。但是在缺乏對整體案件資料的分析下,往往也很難有效的回應民眾的期待。一種可能的改善方式便是利用AI技術來將過往案件的判決結果與判決因子作自動蒐集分析,以大眾較容易明白的方式來呈現出來,甚至對常見的案類建立判決預測系統讓民眾多方接觸。這除了有助於專業法官或未來的國民法官在審判量刑時有所依據,也可幫助民眾更多了解爭端所在,提高庭外爭端和解的比例與司法透明度。當然,這樣的系統建立後如何正確的使用以減少偏見或誤解,仍需要許多相關的配套,但法界人士正好可以藉由參與這套AI系統的研發而可以有第一手的了解,不再只是透過新聞或期刊來間接評論國外過時的案例。

       從這個例子我們也可以看出,這樣的具有公共價值的AI系統開發顯然包含許多複雜的跨領域溝通與協調,需要高度專業的知識,幾乎不可能單由法律學者或AI技術團隊就可以承攬外包,而是需要由主管相關業務的資料源頭(如司法院)主動投入,藉由類似「AI公共應用研究中心」的機構來搭建AI技術與法學交流平台(見圖一),經過一段時間研究與合作,不受學術論文發表的壓力或商業利益變現的引誘,才有可能開發出這類「溝通協調型」AI系統來創造可能的公共利益。顯而易見的,各個政府單位或公共事業都可以有類似的發展可能(見註8),未來可以透過整體的評估來決定相關研發的優先順序,此處就不再細談。

       筆者於開始時曾提到,本文的內容大部份是在兩年前開發親權判決預測系統時所發想,經由與若干學術界與實務界的人士多方討論後才逐漸整理而成。因此囿於筆者本身學識與經驗的限制,以上所提及的觀點仍可能有不夠成熟或未臻完善的部分,所提出的策略或機制也絕非利用AI創造社會共善的唯一模式。筆者歡迎各方學者專家就這些部分給予建議指教或持續深度討論,以達到拋磚引玉之效,一同以更積極的態度來面對未來AI時代的挑戰。

 

(全文8-14-2020發表於「台灣人工智慧行動網」https://ai.iias.sinica.edu.tw/how-to-create-common-good-in-society-with-ai/)

[1] 國立清華大學物理系教授與通識中心合聘教授,現任國家理論科學研究中心物理組副主任與國立清華大學諮商中心主任。美國馬里蘭大學物理學博士。E-mail: dwwang@phys.nthu.edu.tw

[2] 國立清華大學科技與法律研究所副教授,現任國立清華大學學士後法律學士學位學程主任。美國柏克萊大學法學博士。E-mail: yunhsien0720@yahoo.com.tw

[3]筆者所參與的研究計劃是科技部人工智慧製造系統研究中心(AIMS)「競爭或合作?人工智慧在人文社會的應用與影響探究」的子計畫:「可解釋性人工智慧在家事裁判之應用與其限制」與國立清華大學人文與社會科學領域競爭型計畫「民法親權酌定與改定的量化研究」。本團隊於2019年9月建立線上AI親權判決預測系統(https://custodyprediction.herokuapp.com/),並曾獲得多家媒體報導(包括聯合、中時、自由、華視、Taipei Times等)。

[4] 更準確而言,機器學習可分為「監督式學習」、「非監督式學習」與「增強式學習」三種主要類型,而前兩者才需要大量的資料來訓練。監督式學習是使用有標註的資料,但非監督式學習則是用無標註的資料。增強式學習雖不用現成的資料,卻要設計某個虛擬環境中的獎懲機制來讓機器摸索學習,其實可能更難直接應用在複雜多變的現實生活。現今大部分的AI設計是以監督式學習為主,也因此受限於資料來源而有明確的應用範圍,也是本文所主要考慮的對象。

[5] 即便未來AI入門的門檻在結構模組化與程式碼開源的環境中會越來越低,彷彿每個人都可以有機會寫AI程式。但其實這些套裝程式本身還是需要根據所擁有的資料特性與使用目的來調整參數組合(客製化),並非如當前以規則主導的電子產品有標準化的使用方式。而且越人性化的程式往往是越困難設計,因此後來還是會變成少數大公司的AI產品獨佔大部分的市場。

[6] 「利益加值型」與「溝通協調型」是筆者於本文所使用的說法,可考維基百科對Common Good有關於「實體(substantive)」與「過程(procedural)」的兩種共善定義(https://en.wikipedia.org/wiki/Common_good#Definition)。而這也在某種形式上可以呼應哈伯瑪斯(Jürgen Habermas, 1929~)在其「行動溝通理論」中所區分出的「工具合理性」與「溝通合理性」(可參考林遠澤 (2018),〈溝通行動理論〉,《華文哲學百科》https://reurl.cc/yZ5jZ6)。前者是可以透過科技的精密計算,達到某種價值的最大化,但是後者卻是「以理解做為機制,對於不同行為者之行動計劃進行協調的互動方式」,很可能是AI技術所可以有特別貢獻的地方。

[7] 以筆者比較熟悉的家事案件為例,由於近年社會快速變遷,家庭結構改變,個人權利意識高升,使得家事案件的數目連年增加。雖然家庭法律紛爭本身不見得複雜難解,只是案件牽涉家庭中長久以來的問題,當事人在不清楚判案原則之下,常藉由訴訟表達個人情緒或爭取協商的空間。

[8] 政府公部門的重要資料若能經過AI或大數據技術作更充分的整理分析,不但可協助人民更多了解政府運作與社會樣態,以比較便宜方便的方式來保護自己的權益,並可作為政府相關政策制定或檢討的重要參考。例如教育部的學生學習資料、內政部的警政與民政資料、交通部的大眾運輸資料、法務部與司法院的案件資料等等。

[9] 以美國為例,近年若干網路科技公司如Google與Facebook等用數倍以上的高薪挖角學界優秀人才為其工作,以雄厚的資金投注於AI演算所需要的硬體設備,開發出許多最重要的AI技術研究,又將之應用於自己的產品中來得到暴利或鞏固市場。因此學術界AI技術的開發,不論從人才、資金與應用場域而言,都已經難再與這些科技公司競爭。這種「AI資本化」與過往前沿科技多數先在大學或研究單位發展雛形,才透過技術移轉至科技公司來進入市場,是完全無法同日而語。也就是說,這些網路科技公司很早就知道利用自己的資料與資金來鞏固AI優勢。這樣的精神若能被政府積極應其公共資料於公共領域方面,也當然可以帶來另一種改變。

[10] 本文所提的「AI公共應用研究中心」在架構上比較接近目前筆者所熟悉的「國家理論科學研究中心」的模式,反而與科技部在台清交成所設立的四個AI中心有所不同。前者是有長期穩定的計劃聘任專職的研究員來與各學術單位合作,但後者是由旗下各個計劃單獨聘任計劃助理獨立運作。由於人文社會領域在性質上更接近基礎科學,社會共善的應用又與產業發展或技術研發的目標不同,所以筆者認為前者的架構可能較為貼近,但並未排除其他可能的模式。

[11] 有人可能會擔心這些公共資料可能被政府利用來做維繫政權或控制人民的工具。但是越有這樣的擔心就越需要將這樣的AI應用機制更透明化與規範化,而非隱藏起來造成更多被誤用的機會。

[12] 相較於傳統產業,科技產業的發展都是有國際化的性質,受外在環境影響較大。但是人文社會的研究與相關法令政策仍需要落實於在地的環境,因此兩者要能有交集並相輔相成並不容易。目前台灣最成功的例子可能就是三十年來的半導體產業。

[13] 例如台大資工系陳縕儂教授與台灣人工智慧實驗室合作, 用自然語言處理技術架設新聞分析網站「島民衛星」(https://islander.cc/latest/) 。自開播以來每天即時分析各家網路媒體對於某個議題或人物的評論取向,了解是否有爭議性的報導角度或有雷同的趨勢,協助新聞受眾了解不同媒體背後的立場與可能的多面性。本文作者以自然語言技術所開發的AI親權判決預測系統(見註三)亦為一例。但這類「溝通協調型」的AI系統仍需要更進一步理念推廣與相關配套。

[14] 有些理工科系的學者可能認為AI研發只應該由科技專家所主導,而人社學者只應該研究科技產品出現後的社會影響與法令規範,不應該參與AI系統的設計以免與此角色有所衝突。其實如本文起頭所說的AI技術特色,人社領域的學者本來就應該可以扮演與傳統印象中相當不同的角色,而越參與這樣的研發才能越知道如何善用與規範(特別是如果應用在社會公共領域)。

瀏覽數: