韓國生成式人工智能治理新規(guī)則
文 | 蘇州大學(xué)王健法學(xué)院 尹文平 樊祜璽
2025年8月6日,韓國個人信息保護(hù)委員會在首爾召開“生成式人工智能與隱私”公開研討會,并正式發(fā)布《生成式人工智能開發(fā)和使用的個人信息處理指南》(以下簡稱《指南》)。這是韓國首次針對生成式人工智能全生命周期個人信息處理進(jìn)行的系統(tǒng)性規(guī)范,為生成式人工智能開發(fā)和使用過程中的個人信息安全處理提供了指引。
《指南》展現(xiàn)了韓國在生成式人工智能個人信息保護(hù)監(jiān)管領(lǐng)域的政策前瞻性,其內(nèi)容與歐洲數(shù)據(jù)保護(hù)委員會發(fā)布的《人工智能隱私風(fēng)險與緩解措施—大型語言模型》、美國國家標(biāo)準(zhǔn)與技術(shù)研究院發(fā)布的《隱私框架》以及英國政府發(fā)布的《人工智能手冊》中的隱私治理內(nèi)容相呼應(yīng),反映出韓國與全球人工智能治理的聯(lián)系和一致性。
發(fā)布背景
生成式人工智能技術(shù)的高速發(fā)展,為全球科技創(chuàng)新與經(jīng)濟(jì)增長提供了強(qiáng)大動力。生成式人工智能發(fā)展的根基在于對海量數(shù)據(jù)的收集和處理。隨著生成式人工智能應(yīng)用領(lǐng)域和范圍的擴(kuò)大,其帶來的個人信息處理風(fēng)險愈發(fā)突出。特別是個人信息的未授權(quán)采集、濫用和泄露等問題屢現(xiàn),這可能使公眾暴露于數(shù)據(jù)監(jiān)視之下,使個體的人格、隱私與主體性遭受嚴(yán)重威脅。因此,如何通過明確的規(guī)則實現(xiàn)技術(shù)進(jìn)步與個人信息保護(hù)之間的平衡,已成為各國人工智能監(jiān)管部門共同面臨的重要課題。
韓國作為數(shù)據(jù)資源大國,其醫(yī)療、公共、金融等領(lǐng)域的數(shù)據(jù)已成為驅(qū)動生成式人工智能發(fā)展的關(guān)鍵材料。隨著生成式人工智能帶來的侵犯個人信息風(fēng)險加劇,韓國公眾和業(yè)界對生成式人工智能開發(fā)和使用過程中的個人信息保護(hù)需求愈發(fā)迫切。在此背景下,韓國制定了《指南》,旨在回應(yīng)個人信息可以合法用于人工智能訓(xùn)練的標(biāo)準(zhǔn)、如何在生成式人工智能開發(fā)利用階段建立個人信息安全管理體系等問題。
主要內(nèi)容
《指南》以生成式人工智能開發(fā)和使用的全生命周期管理思路,將生成式人工智能開發(fā)和使用劃分為目的設(shè)定、戰(zhàn)略制定、人工智能的訓(xùn)練與開發(fā)以及系統(tǒng)應(yīng)用與管理四個階段,并在各階段分環(huán)節(jié)明確了個人信息保護(hù)法規(guī)政策要求和具體保護(hù)措施建議,為平衡技術(shù)發(fā)展與隱私保護(hù)提供了基本框架。這對于各國解決生成式人工智能開發(fā)和使用全過程中個人信息保護(hù)法規(guī)政策適用的模糊性問題,提高不同類型生成式人工智能服務(wù)提供企業(yè)或其他組織機(jī)構(gòu)的自主守法能力等具有重要作用。
《指南》還詳細(xì)列舉了主要的法規(guī)政策和典型案例,并以附件形式提供了按人工智能開發(fā)和使用階段分類的隱私注意事項示例表。但《指南》旨在提高與生成式人工智能開發(fā)、使用相關(guān)的個人信息保護(hù)合規(guī)性,并不涉及其他法律法規(guī)規(guī)定的義務(wù)。
·
規(guī)范人工智能收集和處理個人信息的目的
·
《指南》提出生成式人工智能在開發(fā)和使用過程中收集和處理個人信息的目的必須明確、具體以及行為必須合法。
在目的明確和具體方面,《指南》以案例指出開發(fā)和使用單純以統(tǒng)計目的或基于未來人工智能的學(xué)習(xí)分析目的長時間存儲學(xué)生的學(xué)習(xí)時間、成績水平、進(jìn)度率等信息的生成式人工智能,違反了《個人信息保護(hù)法》第3條第1款確立的個人信息處理者必須明確個人信息處理目的的個人信息保護(hù)原則。
在行為合法方面,《指南》建議基于明確和具體目的的個人信息處理活動應(yīng)有相應(yīng)法律依據(jù)。《指南》將生成式人工智能開發(fā)和使用的個人信息處理類型分為已經(jīng)公開的個人信息、已經(jīng)收集的用戶個人信息兩類。針對已經(jīng)公開的個人信息,在難以獲取信息主體同意的前提下,可根據(jù)《個人信息保護(hù)法》第15條第1款第6項“正當(dāng)利益”條款,從個人信息處理目的正當(dāng)性、處理必要性以及處理者與被處理者利益衡量三個方面審查生成式人工智能技術(shù)對已公開個人信息處理的合法性。針對已經(jīng)收集的用戶個人信息,若企業(yè)或其他組織機(jī)構(gòu)計劃將這類個人信息重新用于人工智能訓(xùn)練,需結(jié)合個人信息的原始收集目的和人工智能服務(wù)的相關(guān)性進(jìn)行自我評估,并判斷新的個人信息處理目的是否屬于目的內(nèi)使用、追加使用或獨(dú)立目的使用。根據(jù)不同的目的類型,在《個人信息保護(hù)法》中選擇對應(yīng)的條款依據(jù)。此外,針對個人敏感信息或唯一識別信息,信息處理者需要獲得信息主體的單獨(dú)同意或明確的法律授權(quán)。
·
制定人工智能開發(fā)和使用的隱私戰(zhàn)略
·
《指南》建議生成式人工智能開發(fā)和使用的戰(zhàn)略制定必須充分考慮常見的隱私策略,將隱私設(shè)計、隱私影響評估融入生成式人工智能開發(fā)和使用的戰(zhàn)略制定中。
《指南》明確了企業(yè)或其他組織機(jī)構(gòu)選擇不同類型大語言模型開發(fā)和使用的隱私風(fēng)險識別和行動要求。對于提供基于服務(wù)型大語言模型的人工智能服務(wù)企業(yè)或其他組織機(jī)構(gòu),需要通過許可協(xié)議、使用條款等來明確個人信息處理的目的、方式和范圍。同時,《指南》建議優(yōu)先選擇企業(yè)API許可證,以避免個人API服務(wù)默認(rèn)輸入數(shù)據(jù)的可訓(xùn)練性。企業(yè)或其他組織機(jī)構(gòu)還要注重審查數(shù)據(jù)跨境流動是否符合法律要求。此外,以開源大語言模型為主要對象進(jìn)行模型二次開發(fā)的個人信息處理者,要特別注意初始訓(xùn)練數(shù)據(jù)集可能存在的個人信息侵權(quán)風(fēng)險,并在后續(xù)模型的開發(fā)和使用過程中對個人信息風(fēng)險進(jìn)行識別、處置和預(yù)防;自主開發(fā)大語言模型的企業(yè)或其他組織機(jī)構(gòu),需要在人工智能開發(fā)和使用的全生命周期(包括但不限于數(shù)據(jù)的預(yù)訓(xùn)練、微調(diào)、部署和運(yùn)營、后期管理等階段)識別個人信息風(fēng)險因素,并采取相關(guān)措施降低風(fēng)險。
·
強(qiáng)化模型訓(xùn)練和開發(fā)的隱私保障
·
生成式人工智能具有將訓(xùn)練數(shù)據(jù)集中包含的信息以一種永久記憶的形式內(nèi)化的技術(shù)特性,這可能導(dǎo)致原始信息直接暴露在輸出結(jié)果中,或被用于敏感信息的推理等場景,直接增加個人信息主體權(quán)益受到侵害的風(fēng)險。《指南》建議從生成式人工智能訓(xùn)練和開發(fā)階段的數(shù)據(jù)、模型和系統(tǒng)三個層面考慮技術(shù)性及管理性的隱私安全措施。
在數(shù)據(jù)層面,《指南》建議從系統(tǒng)應(yīng)對數(shù)據(jù)破壞活動、排除明確表示拒絕抓取的內(nèi)容、數(shù)據(jù)集的假名或匿名化處理、強(qiáng)制刪除個人身份識別信息以及使用隱私增強(qiáng)技術(shù)等方面來保障個人信息安全。在模型層面,《指南》建議通過模型微調(diào)、對齊等技術(shù)以及防御隱私攻擊來降低個人信息風(fēng)險。在系統(tǒng)層面,《指南》建議通過嚴(yán)格控制訪問權(quán)限、應(yīng)用敏感信息過濾器和檢索增強(qiáng)技術(shù)以及使用人工智能代理來減少個人信息風(fēng)險。
由于生成式人工智能訓(xùn)練和部署具有反復(fù)性,《指南》還建議企業(yè)或其他組織機(jī)構(gòu)在生成式人工智能訓(xùn)練與開發(fā)過程中建立一個持續(xù)的隱私評估體系。
·
防范系統(tǒng)應(yīng)用與管理的個人信息風(fēng)險
·
系統(tǒng)應(yīng)用與管理是生成式人工智能系統(tǒng)在完成訓(xùn)練和開發(fā)后,部署、應(yīng)用于實際場景并正式提供服務(wù)的最后階段。針對這一階段,《指南》將風(fēng)險管理制度細(xì)化為部署前與部署后兩部分。
在部署前階段,《指南》建議:一方面,重點(diǎn)核驗人工智能輸出結(jié)果的準(zhǔn)確性,測試其抵御各類繞過安全措施行為的能力,同時評估學(xué)習(xí)數(shù)據(jù)存在泄露風(fēng)險的可能性。所有檢查過程及結(jié)果均需形成規(guī)范文檔,為后續(xù)部署提供測試依據(jù)。另一方面,依據(jù)測試識別的風(fēng)險制定并公開可接受使用政策,明確服務(wù)的使用目的與禁止行為。
進(jìn)入部署后階段,《指南》建議企業(yè)或其他組織機(jī)構(gòu)在實施常態(tài)化個人信息風(fēng)險監(jiān)測的基礎(chǔ)上,著重構(gòu)建信息主體的權(quán)利保障機(jī)制。受當(dāng)前技術(shù)發(fā)展水平所限,信息主體依《個人信息保護(hù)法》享有的查閱、更正、刪除等傳統(tǒng)權(quán)利的實現(xiàn)可能面臨一定限制。即便如此,生成式人工智能服務(wù)提供者仍需向信息主體清晰說明限制原因,并通過輸出過濾等替代性技術(shù)手段,切實回應(yīng)并滿足信息主體的合理訴求。《指南》還建議企業(yè)或其他組織機(jī)構(gòu)保障信息主體對生成式人工智能系統(tǒng)自動化決策的拒絕權(quán)、解釋請求權(quán)及審查請求權(quán);在相關(guān)文件中清晰公開人工智能訓(xùn)練數(shù)據(jù)的收集、來源、處理目的及過程以確保透明度;對人工智能代理則要明確告知對話歷史等訓(xùn)練數(shù)據(jù)的利用、向第三方提供、保管銷毀及過濾標(biāo)準(zhǔn)等情況,并預(yù)留充足時間供用戶選擇是否退出。
·
構(gòu)建人工智能隱私治理體系
·
隨著生成式人工智能數(shù)據(jù)處理流程日趨復(fù)雜,風(fēng)險管理的重要性愈發(fā)凸顯。除四階段需要考慮的個人信息保護(hù)事項外,《指南》還明確指出,建立企業(yè)和組織內(nèi)部的人工智能隱私治理體系至關(guān)重要,尤其是需要以個人信息保護(hù)負(fù)責(zé)人為核心,構(gòu)建形成內(nèi)部管理體系。同時建議通過個人信息影響評估、紅線管理等方式,對隱私風(fēng)險開展持續(xù)評估。
《指南》提出,個人信息保護(hù)負(fù)責(zé)人應(yīng)從人工智能的規(guī)劃、開發(fā)初期就主動介入,全面掌握個人信息處理的相關(guān)情況,并及時向相關(guān)部門反饋,進(jìn)而建立起能將個人信息保護(hù)原則內(nèi)化為生成式人工智能服務(wù)的隱私治理體系。
(來源:人民法院報)
