在更加強大的計算能力和深度學習等新技術的助推下,人工智能發展進入第三次繁榮期。與此同時,個人信息的收集、識別、分析技術突飛猛進,越來越多的個人信息主動或被動地暴露在人工智能程序中,尤其是具有強烈個人屬性的生物識別信息被大量收集,且在信息處理上完成了從量到質的跨越,不禁讓人對個人信息保護愈加擔憂。
濫用人工智能對個人信息的侵犯及其法律規制
1.濫用人工智能侵犯個人信息的嚴重態勢
人工智能收集個人信息已呈現出精準化、全面化、簡便化、隱秘化趨勢。精準化是指人工智能收集的個人信息與信息主體的匹配度極高。全面化是指人工智能全方位收集個人信息,無論生物識別信息還是痕跡信息,都在其范圍內。簡便化是指收集個人信息的設備、指令、方式已極為簡便,甚至實現了單設備信息采集、分析、處理一體化,并正向進一步的便捷化發展。隱秘化是指人工智能收集個人信息的方式從公開轉向隱秘,悄無聲息地收集個人信息變得易如反掌。
人工智能較之以往技術,最大的優勢就在于對個人生物識別信息的收集、分析和利用。生物識別信息具有唯一性、獨立性、穩定性和普遍性,一旦被非法收集利用,危害極大。目前,生物識別信息應用最成熟的是指紋識別技術。它以指紋的唯一性為基礎,通過與系統數據庫的比對確定對象。從公安戶籍管理到各類考試,不少人的指紋信息已被收集,而人工智能快速、精準的識別能力又為其大范圍應用提供了基礎。
人臉識別技術同樣火熱且發展迅猛,人臉作為認知他人的第一生物識別方式,具有信息豐富、易獲取等諸多優勢。之前苦于攝像頭清晰度不夠、面部信息讀取能力弱、比對準確率低等原因,人臉識別技術發展緩慢。而人工智能的發展在群像識別、實時對比、高匹配度等方面實現了突破。
除了指紋和人臉外,未來生物識別信息技術中不可或缺的一項就是聲紋識別。聲紋較之人臉等具有更高的穩定性,整容、面具、夸張的妝容等都可能導致人臉變化,降低識別率,但個人聲紋卻始終相對穩定。據悉,聲紋識別在監聽、跟蹤等領域已有應用,它的優勢在于可遠程識別,無須另行搭建設備,通過截取電話錄音等即可完成。加之人工智能的深度學習能力,在進行了足夠多的聲紋訓練后,效率與準確率也隨之提高。
人工智能的發展為何引起生物識別信息應用的泛濫?筆者分析有以下幾點原因:其一,人們對人工智能的美好向往,選擇性忽視或低估了風險。其二,有關個人信息收集、分析的大規模商業利益群體已形成,下游需求旺盛,不自覺助長了推廣動力。其三,信息主體對自身的保護能力正在逐漸喪失,商業主體為了收集個人信息,直接將信息收集、分析的授權與瀏覽、消費捆綁,迫使公眾主動或被動放棄對個人信息的保護。其四,人工智能的深度學習能力,使得其在完成初期的樣本訓練后,不斷完善收集、分析方式,降低成本、提高效率,形成了“馬太效應”,給法律應對造成了更大難度。
2.利用人工智能侵犯個人信息的法律規制
我國現行法律對個人信息的保護有限,針對個人信息的非法收集行為,《網絡安全法》規定了網絡運營者收集個人信息須事先征得同意的原則,確定了不得收集與其提供服務無關的個人信息的規定。《消費者權益保護法》明確消費者個人信息依法受保護,經營者收集消費者個人信息應遵循合法、正當、必要的原則。《刑法》將不同情形下非法獲取個人信息,情節嚴重或特別嚴重的行為規定為犯罪。侵犯個人信息罪有關司法解釋也對罪名從數量、情節等方面作出了具體解釋。
針對個人信息的非法利用行為,《侵權責任法》對醫療機構、醫護人員泄露病人隱私作出了特別規定。《消費者權益保護法》規定泄露、侵犯消費者個人信息的,應當消除影響、賠償損失等,并根據情節還可能加以行政處罰。《網絡安全法》規定了網絡運營者不得泄露、篡改、損毀其收集的個人信息。《未成年人保護法》規定任何組織不得披露未成年人的個人隱私。《互聯網電子公告服務管理規定》《個人存款賬戶實名制規定》《醫務人員醫德規范及實施辦法》等部門法規均規定不得泄露因工作或其他原因掌握的個人信息。
筆者認為,現行個人信息保護法律體系還存在以下問題。第一,立法碎片化。多部部門法規及司法解釋對個人信息保護均有規定,但不協調,顯得個別、分散。第二,現行法律對個人信息的定義混亂,這是立法碎片化的必然結果。各部門有各自的立法目的、價值取向等,對個人信息的定義也會以本部門為主。第三,對個人信息保護的范圍過窄,有的司法解釋將個人生物識別信息排除在外,這在應對人工智能的挑戰時顯得尤為不利。第四,現行個人信息保護法律體系建立的基礎仍是互聯網,侵權工具也多限制在網上,忽視了人工智能的延展性、主動性,以及在信息處理方式等方面質的改變,導致法律滯后的情況比較突出。此外,個人信息保護利益衡量不清晰、現行規范性文件位階低,高位階文件缺乏操作性、執法部門權限不明確等問題同樣存在。
人工智能時代保護個人信息的對策
1.企業行為規制
企業掌握著海量個人信息,針對其收集、分析用戶個人信息的行為,筆者認為可借鑒歐盟《通用數據保護條例》的有關規定,確定以下行為規則。
第一,透明性。用戶對于“網站聲明”等文件大多并未閱讀,對于企業收集了哪些個人信息、將如何分析、結果有何影響等一無所知。透明性要求企業應當做到:對個人信息的收集、分析進行單獨聲明,用戶可隨時查詢、刪除已被收集的個人信息,企業如何應用、分析、處理個人信息應向用戶明示,企業應告知用戶個人信息分析結果及用途,并征得用戶同意。
第二,針對生物識別信息的特別同意。鑒于生物識別信息與人身的密切關聯性,企業不能僅依據“網站聲明”或“個人信息收集書”等類似文件即開展收集活動。尤其在移動端,大多數手機前置攝像頭、話筒等設備開啟時并無特別提示。某品牌手機發布隱藏式攝像頭后,有用戶反映在使用某些App時,隱藏式攝像頭被自動激活,從而引起了某些企業是否秘密收集個人生物識別信息的爭論。企業宜在遵守透明性要求的基礎上,對收集如指紋、聲紋、人臉等生物識別信息時,應單獨征得用戶同意。
第三,匿名化。個人信息匿名化的建議由來已久,《通用數據保護條例》認為匿名化是經過處理后,通過單獨信息無法識別信息主體的處理方式。有學者比較了匿名化和假名化,認為匿名化以隱藏用戶身份和敏感信息的方式保護個人信息,處理后的信息由于無法關聯信息主體,所以不再是個人信息,而假名化信息仍然屬于個人信息。但目前企業與實現匿名化的目標仍然有一定距離,即第三人在公開查詢時給出的信息僅為假名信息,而信息在企業內部也并未匿名化。筆者認為,只有企業內部在處理信息時也采取匿名化處理,才能既滿足信息合理利用,又保護個人信息安全。
第四,個人信息本地化。生物識別信息等敏感信息應當本地化,禁止上傳至企業云端。人工智能設備的匹配、分析能力在個人信息本地化的情況下,足以完成目前用戶所需服務。個人信息本地化可防止因傳輸,或企業處理、利用等行為導致的信息泄露,也限制了企業對個人敏感信息的利用。從某種意義上而言,企業就是一個收件和派件的快遞員,不能拆開信件,對個人信息進行整體加密,不預留“后門”,用戶的個人信息安全才更有保障。
2.政府部門行為規范
因社會管理需要,政府部門收集了大量公民個人信息,同樣需要在個人信息保護與社會治理之間尋求平衡。但目前我國打擊犯罪、維護國家安全的任務仍然繁重,一味讓渡于個人信息保護也不合理。綜上所述,筆者認為政府部門可以作出以下行為規范。
第一,以必要性為前提。政府部門掌握大量攝像頭等生物識別信息收集工具,當有打擊恐怖主義、維護國家安全等需要時,收集個人信息具有正當性,但為其他非必要目的而收集個人信息,則可能對個人信息保護造成不利。因此,生物識別信息收集、分析系統何時啟用,以及開啟區域、針對的人群等均需作出事先規定,在對必要性進行充分論證的基礎上合理利用人工智能系統。
第二,以最小數據量為原則。個人信息的種類繁多、數量龐大,在收集時,應以最小數據量為原則。在人工智能環境下,滿足人工智能系統學習樣本的數據量即為最小數據量,至于具體額度,將根據系統的完善程度、任務繁雜程度、緊迫程度等綜合考量,甚至需要一事一確定。同時,加強信息篩選能力,通過提高樣本的科學性等舉措,同樣可以達到數據量收集最小化的目的。
第三,加強數據安全。加強數據安全的工作一直在進行,但始終有漏洞。數據安全是國家安全的重要內容之一,建立符合我國國情的數據安全法律體系勢在必行。《刑法修正案(九)》用“非法獲取個人信息罪”“非法侵入計算機信息系統罪”等罪名對國家、政府記錄的個人數據進行保護,也表明了國家、政府對個人數據安全的重視。
3.制度設計安排
第一,盡快制定頒布《個人信息保護法》。近年來,個人信息保護立法的學術討論從未間斷,也形成了個人信息保護法的專家建議稿。針對現有問題,制定《個人信息保護法》能夠厘清個人信息保護的基本問題,明確統一定義,規范對生物識別信息等敏感內容的單獨保護,以及人工智能深度學習能力對個人信息的限制使用,從而在信息利用和保護中達到平衡。
第二,開展《人工智能安全法》立法研究。美國連續發布了《為人工智能的未來做好準備》《國家人工智能研究與發展戰略規劃》《人工智能、自動化和經濟》等報告,提出美國人工智能研究與開發的七大戰略,其中很重要的一條就是“確保人工智能系統的安全性與可控性”。近期熱議的人工智能可解釋性、透明性等都是安全性下的具體問題,仍有大量漏洞和缺陷需厘清和規制,本文所討論的個人信息保護問題也屬于其中之一。因此,應當加強人工智能安全理論研究,積極轉化相關學術成果,開展《人工智能安全法》的立法研究。
(轉載自《保密工作》雜志2019年第10期)