國際政策趨勢
人工智慧與資料保護影響評估(DIPA)
於發展人工智慧技術的前提下,巨量資料的蒐集與處理乃為必經之路,惟當企業以人工智慧蒐集與處理個人資料時,參照歐盟一般資料保護規範(General Data Protection Regulation, GDPR)第35條之規定,由於該處理過程可能會對個人之權利與自由造成高風險,故企業於處理資料前,應進行資料保護影響評估(Data Protection Impact Assessment, DPIA),亦即企業需要說明為何需要使用這些資料以及如何使用這些資料,並對於處理資料所造成的風險進行評估。倘若企業並未執行資料保護影響評估,則參照GDPR第83條第4項第1款之規定,企業將會被處以最高一千萬歐元之行政罰鍰,或是最高達前一會計年度全球年營業額之百分之二。因此,資料保護影響評估的重要性不言而喻。
然而,於人工智慧的浪潮下,企業應如何執行資料保護影響評估呢?英國資訊專員辦公室(Information Commissioner’s Office, ICO)於GDPR施行前,便已對於資料保護影響評估制定了詳細的指導準則,並解釋了企業於何時需要執行資料保護影響評估,以及如何完成資料保護影響評估。此外,ICO尚於2019年10月23日針對企業運用人工智慧處理個人資料所制定之資料保護影響評估,發布應行注意事項。由此可見,在人工智慧下的資料保護影響評估係更為複雜,而值得我們關注,故本文會摘要整理該篇之內容,以介紹ICO對於此議題之看法。
何謂資料保護影響評估?
所謂資料保護影響評估係一種與隱私相關的評估,其可協助企業辨別和分析於特定活動下,可能產生之資料保護風險。資料保護影響評估不必表示已消除所有的風險,而是協助企業記錄並評估剩餘的風險與企業所欲實現的利益是否為可接受。
何時需要資料保護影響評估?
參照GDPR第35條第3項之規定,在以下三種情況時,必須執行資料保護影響評估:
- 對自然人之個人特質進行系統性與大規模的評估,而該評估是基於自動處理,包括建檔以及基於該評估所產生與自然人有關之法律效力或其他重大影響該自然人之決定;
- 大規模處理特殊類別的個人資料;
- 大規模系統性地監視公共區域。
企業在運用人工智慧處理個人資料時,通常會符合上述的情況,因而需要執行資料保護影響評估。假使資料保護影響評估的結果顯示,該資料處理過程具有高風險而無法採取任何方法降低,則資料控制者(Data Controller)亦即企業,必須先諮詢ICO的意見,而ICO會於14週內給予書面回覆,以確認是否可以執行該資料處理過程。
人工智慧下的資料保護影響評估需要評估哪些事項?
一份資料保護影響評估需要指出處理個人資料的性質、範圍、背景與目的。它需要說明為何人工智慧需要使用以及如何使用這些個人資料。需要詳細說明的理由包括:
- 資料如何儲存、蒐集與使用;
- 輸入資料的數量、種類與敏感性;
- 資料控制者與資料主體的關係;
- 對個人、社會以及資料控制者預期產生的結果。
在企業運用人工智慧處理個人資料時,若於早期便實施資料保護影響評估,除了有助於企業達到識別相關風險之目的外,亦代表企業已履行GDPR下資料保護的義務。而於人工智慧下的資料保護影響評估至少需要具備下述幾項特質:
- 對處理資料的過程進行有系統性的描述
資料保護影響評估應該對處理資料的過程進行有系統性的描述,包括資料的流向以及當人工智慧在處理資料或自動決策時,可能對個人資料所產生的影響。資料保護影響評估還可以解釋任何相關變化以及誤差範圍。除非有充分的理由可以不用這樣做,否則企業在實施資料保護影響評估時,應該尋求並記錄個人或其代表人預期處理資料的看法。因此,重要的是能夠描述處理資料的過程。
然而ICO認為由於人工智慧系統的複雜性,可能很難以描述資料處理過程。因此,需要制定兩種版本的資料保護影響評估。第一種是為專家人員提供詳細的人工智慧技術說明。第二種則是對資料處理過程進行更詳細的描述,以及解釋個人資料的輸入與輸出如何對個人產生影響的邏輯關係。
此外,資料保護影響評估應該說明資料控制者以及資料處理者所扮演的角色與義務。如果人工智慧系統部分或全部外包給供應商,則資料控制者與外包之供應商成為共同控管者(Joint controllers),建立了聯合控制權(Joint controllership),而有GDPR第26條規定之適用。
最後,在使用資料處理器的情況下,包含資料處理器中複製資料等技術亦應詳載於資料保護影響評估中,例如資料處理器的操作流程圖。然而,資料控制者應避免將大量的資料處理器的內容複製到評估中。
- 評估必要性與比例性
企業運用人工智慧處理個人資料,需要證明是基於合法的目的而為之,而非僅是技術的可使用性。通過資料保護影響評估的必要性,企業可以證明這些目的不能以其他合理的方式實踐。
再者,企業還需要證明藉由人工智慧系統處理個人資料是符合比例性的。在評估比例性時,企業的利益需要與個人的自由和權利相權衡。企業尤其需要考量任何對於資料主體所造成的危害,這些危害可能是使用的演算法或是蒐集的資料存有偏差或是不精確所致。
在資料保護影響評估的比例性要素中,企業需要評估是否資料主體可以預期人工智慧系統合理地處理資料。如果人工智慧系統會補充或取代人類製作決策,則應該在資料保護影響評估中,記錄該項目如何將人類決策與演算法的精確性做比較。另外,企業還應描述任何所做出的權衡,例如在準確性和資料最小化之間進行的取捨,並記錄這些方法和理由。
- 識別權利與自由的風險
在人工智慧系統開發中使用個人資料,可能會對於個人的隱私權與資料保護權帶來風險。例如,機器學習系統可能會依據歷史資料重現歧視,這可能會違反平等立法。同樣地,對於個人資料的分析而停止發布內容的人工智慧系統可能會影響其表達自由。在這種情況下,資料控制者應考量到資料保護以外的相關法律。
資料保護影響評估的流程可以協助企業客觀地認識相關風險,而此應根據對資料主體影響的可能性和嚴重性,為每種風險分配分數或等級。
- 面對風險所應採取的措施
其中,最重要的是資料保護人員(Data protection officers, DPO)與其他資訊治理專業人員應從企業運用人工智慧處理資料之初便有所參與。他們與人工智慧計畫團隊必須建立清楚與開放的溝通管道,這將確保在人工智慧計畫發展的早期,企業就可以識別風險並解決之。換言之,資料保護影響評估不應於人工智慧處理個人資料後才去執行,而應於早期事先識別可能面臨的風險。
此外,資料保護影響評估尚應記錄所採取的保護措施,以確保負責人工智慧系統的開發、測試、驗證和監視的人員均受到適當的訓練,並對處理過程中的資料保護含義有所了解,從而降低因人為錯誤所造成相關的風險,企業一旦採取了降低風險的措施,資料保護影響評估就應記錄,並註記剩餘的風險等級。如果該風險水平仍然很高,則必須將其提交給ICO進行事先諮詢。
- 持續性的評估
儘管必須在開始處理個人資料之前執行資料保護影響評估,但應將其視為是「一份持續性的文件」。這意味著,如果處理資料的性質、範圍、背景或目的因任何原因發生變化,則必須對資料保護影響評估進行定期審查或重新評估。例如,根據發展情況,目標人群的人口統計資料可能會發生變化,或者人們會隨著時間的流逝而調整自己的行為。
結論
隨著人工智慧的發展越來越普遍,企業在運用人工智慧處理巨量個人資料時,應先執行資料保護影響評估,除了代表企業對於資料處理過程中所產生的風險有所認識外,還表示企業已遵守GDPR之規範,而不會受到鉅額之罰緩。
而ICO此份應行注意事項給了使用人工智慧系統的企業一些指引,以利企業執行資料保護影響評估時有所參考。此外企業在執行資料保護評估時,亦可徵詢ICO與資料保護人員之相關意見,以評估所面臨之風險是否為可接受。
當然,資料保護影響評估並非是一時性的,換言之,當原始評估風險的環境,隨著時間而發生變化時,企業亦須隨時更新資料保護影響評估,以充分識別可能產生的風險,並進而能夠採取相應之預防措施。
(編譯者:陳中安)