人工智慧倫理作為一項研究主題,其與一般的科技倫理存在著本質上的差別,呈現其特殊的倫理課題。人工智慧的最大特色就是其發展到現階段已經出現黑盒子效應(black-box effect),無法完全控制的技術,這是人工智慧倫理的特殊面向。基於此點,才會在人工智慧倫理原則中特別有強調「透明性」、「可解釋性」等原則,在此將以具體實例對人工智慧相關倫理原則之應用面進行分析。
歐盟於2019年4月由該專家委員會公布了一份名為「可信賴的人工智慧之倫理綱領」(Ethics Guidelines for Trustworthy AI),其內容之詳細完整,對全球倫理學界有重要影響,因此值得在此介紹並以該文件為基礎延伸探討。
一、人類主體性與監督(human agency and oversight)
人工智慧可促進社會福祉,創造更效率、更具資源可近性的社會,但若沒有適當的人為監督介入,也可能適得其反。此項倫理要件所要求的就是無論政府或企業機構,在使用人工智慧系統「之前」應先妥善評估該系統對人權之影響,這是基於風險意識所應有的責任。
以下針對歐洲與美國近期的實務發展情形作案例比較。
荷蘭於2014年引進SyRI系統來處理社會福利詐欺,然人權團體認為不合法律遂提出訴訟,法院宣判此系統違憲並禁止政府部門使用。而美國賓州政府亦於2016年引進了類似前述之系統,來進行兒童福利調查,雖有部分專家認為會造成某些不公,但美國社會普遍皆重視政府導入科技工具所創造的效率化。上述案例有個重要差異,那就是荷蘭的案例中因為是要防範詐欺,因此系統運用之結果可能產生標籤化的歧視效果。反之,美國賓州的案例則是鎖定社會救助的對象,理論上這是給付行政而非剝奪權益,則運用此系統之可容許性應較高。實際上荷蘭的法院也並未斷言政府不可使用該種系統,只是認為對於歧視風險未做適當評估,而且資料連結過廣也有個資保護問題。
二、技術穩固與安全性(technical robustness and safety)
作為符合倫理的人工智慧系統,其前提是技術上的可靠性。因此第二項倫理要件強調的是人工智慧系統之開發應本著風險預防的態度,盡可能地減少非預期的傷害,尤其要以該系統可能在不同情境與環境使用之前提,提高該系統的適應能力。畢竟負責任的系統開發者,要對於將來的使用情況預作準備,預先設想可能出現的意外、疏失或惡意攻擊,強化其系統的穩固性。此項倫理要件涵蓋四個要素,分別是對攻擊之防禦力(resilience to attack and security)、備援與通盤安全性(fallback plan and general safety)、正確性(accuracy)、可靠與可再現性(reliability and reproducibility)。
三、隱私與資料治理(privacy and data governance)
人工智慧系統會侵犯個人隱私,這點已經是社會大眾最主要的疑慮。歐盟遂於2018年實施GDPR,強化個人資料保護。在此份倫理綱領中,其提出的隱私相關倫理原則內涵,除了有已經法律加以保護的範圍外,也提出對於資料品質與管理的責任議題。
近年來關於人工智慧對隱私造成侵犯疑慮的最主要議題就是公共場合的人臉識別技術應用。臉部特徵是否屬於個人資料在過去一直未被法律所明文界定,直到GDPR制定生效以後,其被明確地認定為個人資料範圍而加以保護。但列為個人資料保護範圍並不等於完全不能蒐集利用,而是要符合GDPR之規範。
四、透明性(transparency)
關於人工智慧系統的透明性要求,其內涵包括可追蹤性(traceability)、可解釋性(explainability)、揭露說明(communication)之原則。所謂可追蹤性是指人工智慧所使用的資料集以及其產生結果的過程(演算法模型)都應被記錄,以利後續追蹤。尤其當人工智慧系統出現錯誤決策時,更需要有可追蹤的機制才能追查原因,得以避免錯誤一再發生。至於可解釋性,此為人工智慧倫理中最常被提到的詞,本份文件將其放在透明性這個倫理要件中,其所指不僅是在技術面上能對人工智慧系統運作加以解釋,也包括相關人的決策需要有解釋,例如某個領域「為何需要」導入人工智慧系統。所謂揭露說明之要求,是指人工智慧系統必須揭露其自身為機器而不是人,亦即不可假裝是人類來進行跟人的互動。從另一方面講,人類對於自己是在跟機器互動這點具有「知的權利」,甚至應該讓人有權利可選擇拒絕跟機器互動,亦即應提供與真人互動的選項。
有關演算法的透明性與可解釋性問題,目前最典型的技術應用爭議就是在司法系統中引入演算法輔助法官判決。在美國、歐洲及其他國家的司法體系皆陸續引進演算法作為其輔助的工具,進而引發不少關於人工智慧是否比較公正的爭議。演算法首先運用於司法系統的角色在於輔助交保或假釋之裁定,因為交保及假釋與否之決定涉及到對受刑人逃亡、再犯可能性之預測,而預測就是演算法的強項,這工作理論上演算法是比法官或假釋委員會更擅長的。以演算法進行是否交保之輔助判斷系統,其運作的原理就是利用決策樹理論(decision tree)(如下圖):
圖1 交保輔助決策系統之樹狀圖
資料來源:漢娜・弗萊著,林志懋譯,打開演算法黑箱,第90頁
五、多元、不歧視與公平性(diversity, non-discrimination and fairness)
人工智慧應用可能產生的歧視偏見問題內涵,可分為避免不合理偏見(avoidance of unfair bias)、可近性與普及通用設計(accessibility and universal design)、利害關係人參與(stakeholder participation)。
其中有關不合理偏見問題,主要是因為演算法所學習的資料集來自過去歷史資料的累積,在此同時會將原本社會已存在的偏見或歧視結果再次複製到人工智慧系統中。在可近性與普及設計方面,此主要強調人工智慧系統之設計應盡量讓不同階層、文化、年齡的人都有機會使用,也就是不要讓科技的應用變成更加精英化,別讓原本優勢者因為新科技而變得更優勢,因為這是違反倫理的。本份文件所談的倫理原則基本上還在前述三種情形的第二種,尚未強調應以扭轉社會不平等為職志。
在設計人工智慧時如何導入普及設計概念,這既是科技層面問題,也是社會層面問題。換言之,一般受訓練程式設計師並不會特別意識到這點,如何能促進人工智慧技術更能普惠於所有人,那就需要第三項內涵原則,就是利害關係人的參與。而本文件所強調的是,會受到該項人工智慧系統影響的人,應有機會被諮詢表達意見。此點對於目前許多企業希望導入人工智慧而言更形重要,因為企業文化以及員工權益都是導入人工智慧過程中會有的無形障礙,若能讓員工都參與人工智慧的開發設計,表達實務現場的意見,則能相對減少該系統導入之後可能產生的非預期問題。
六、社會與環境之利益(societal, environmental wellbeing)
歐盟對於人工智慧的立場並非只有管制與防範風險,其同時也強調人工智慧可以促進社會福祉,尤其當地球面臨生態危機時,善用人工智慧可以協助環境永續的發展目標。因為人工智慧可以讓工業生產更有效率,也能達到以需求驅動生產,而非大量生產之後,因不符需求而滯銷,導致資源浪費。其亦在2019年12月頒布了綠色新政行動計畫(European Green Deal),內容標舉將在2050年達到零碳排放的目標,並且深信追求環境友善的政策與科技創新是可並存的。在此前提下,人工智慧的發展對歐盟也就不可或缺。
另方面,此份文件所強調的社會福祉不限於環境友善,其也重視社會生活的面向,因為現代社會生活已經處處暴露在人工智慧的影響下,因此對於人工智慧的社會影響評估就同等重要。此外,人工智慧與當代民主政治的關係也在本文件中被提及,強調我們應警覺人工智慧被運用於行政決策或政治選舉的過程中可能對民主法治造成的影響。換言之,人工智慧之開發與應用都應該做適當的社會影響評估(social impact assessment)。
關於人工智慧的社會影響評估,可能最受關注的項目之一就是自動殺人機器,軍事科技向來是國際競爭的核心地帶,而人工智慧的軍事用途更是具有壓倒性的優勢,俄羅斯總統普丁就曾在2017年接受媒體訪問時指出,任何國家只要在人工智慧領域取得領先,就會統治整個世界。
有人認為自主致命武器有符合倫理的一面,因為大幅減少士兵上戰場的傷亡數量,拯救許多生命。然而自主致命武器的使用仍在於殺人,因此仍會大規模地傷害平民,因此從對生命的保護而言沒有理由認為自主致命武器較倫理。由於自主致命武器具有前述治理困境,因此也引發人工智慧科技界的普遍關注,極力呼籲應採取國際合作行動以避免該技術的濫用。
人工智慧所具有的軍事戰略競爭意義正是使得各國積極發展而不能冒任何可能落後的風險,其尤其對國際超級強權的地位攸關重要。
七、可問責性(accountability)
人工智慧相較於過去其他科技的性質,其最為人所擔憂的問題就是失控。人們將部分的主控權移轉給機器系統,因為這個系統被認為具有像人類甚至超越人類的分析決策能力。但這也意味著原本社會上可對事情的後果追究行為人(決策者)的責任,將可能變得落空。
按歐盟此文件對於可問責性的內涵界定,包含了可查核性(auditability)、負面影響之降低與通報(minimisation and reporting of negative impacts)、權衡取捨(trade-off)、補償制度(redress),以下分別說明其內涵。
所謂可查核性是指演算法及其訓練資料集等應處於可被評估的狀態,此種評估可以由內部人員為之,不一定是由機構外部人員查核,藉此可確保相關商業機密或智慧財產權不會受到侵害。此種內部評估機制對於涉及攸關安全的人工智慧系統特別重要,應由具有獨立權限的團隊執行評估,才可避免利益衝突存在。
在降低損害與通報方面,重點在於確保當發生負面情形時會被通報,通報者或內部檢舉者不會因此受到懲罰,也就是吹哨者保護機制應強化。其執行的最佳方式是在機構中建立一個警示小組,其任務職掌就是專門挑出該系統可能的風險與錯誤,由於這是職責分工,這個小組就比較不怕指出問題,不會有越級報告或越權干涉其他部門的問題存在。
權衡取捨則是不僅針對可問責性這項倫理要件,而是針對前述所有倫理要件而言,由於倫理要求與人工智慧所追求的利益目的之間可能存在衝突性,因此需要進行權衡,多大程度的倫理要求不會損及人工智慧系統追求的價值利益,要找到折衷點。但也不能為了追求人工智慧所能帶來的利益而過度犧牲倫理要求的原則,因此如果一個系統在任何情形下都無法符合倫理要求,則所能做的取捨是禁止使用該人工智慧系統,而非犧牲倫理原則。
由於科技必然有風險,因此要讓社會大眾接受該科技之普及應用,除了要有前述的透明與問責機制外,最後一道防線就是補償機制。社會大眾知道這樣科技應用出錯時,會有法律上或保險方式的補償時,就比較會願意信任該系統。
本文摘錄自人工智慧競爭與法制—第二章