首 頁 建言立論 統(tǒng)戰(zhàn)新語 雙向發(fā)力 民主監(jiān)督 提案工作 實踐探索 委員自身建設

首頁>理論>建言立論

加快制定有關生成式人工智能的行政法規(guī)

2025年04月07日 08:28  |  作者:呂紅兵  |  來源:人民政協(xié)報 分享到: 

近來,生成式人工智能(以下簡稱“GAI”)風起云涌,備受關注。2013年至2023年,全球共申請了5.4萬項生成式人工智能發(fā)明專利,其中超過25%在2023年提出。截至2024年12月31日,我國共有302款生成式人工智能服務在網(wǎng)信部門完成備案,其中2024年新增238款。GAI正在改變著人們的工作習慣乃至生活方式。但與之相伴,也出現(xiàn)了很多新興領域的法律問題。據(jù)中國裁判文書網(wǎng)數(shù)據(jù),2021年至2024年全國法院共審理涉人工智能糾紛案件1659件,絕大部分系生成式人工智能相關案件。

去年3月21日,聯(lián)合國大會通過全球首個關于監(jiān)管人工智能的決議《抓住安全、可靠和值得信賴的人工智能系統(tǒng)帶來的機遇,促進可持續(xù)發(fā)展》;經(jīng)過長達三年的籌備與談判,去年3月,歐盟正式完成《人工智能法案》立法流程,出臺全球首部關于人工智能的全面立法。在我國,國務院2023年度立法工作規(guī)劃已將人工智能法草案列入其中。不過,技術(shù)專家分析,相對于專用人工智能系統(tǒng)而言,GAI具有可以執(zhí)行不特定任務、具有龐大數(shù)據(jù)訓練量等重要特征。因此,在討論中國人工智能立法時,應重點加快出臺有關GAI全方位規(guī)范的立法。

2025年3月7日,國家互聯(lián)網(wǎng)信息辦公室等四部委發(fā)布《人工智能生成合成內(nèi)容標識辦法》,規(guī)定服務提供者提供的生成合成服務,均應適當位置添加顯著的提示標識。此前,2023年8月15日,《生成式人工智能服務管理暫行辦法》施行,利用GAI技術(shù)向我國境內(nèi)公眾提供生成文本、圖片、音頻、視頻等內(nèi)容的服務適用該辦法;2023年1月10日,《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》實施;2021年12月31日,《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》頒布。不過,四個《辦法》主要規(guī)范服務提供者和技術(shù)支持者,而且屬于部門規(guī)章性質(zhì),法律位階較低。另外,科技部等10部委印發(fā)《科技倫理審查辦法(試行)》,明確“具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統(tǒng)的研發(fā)”為“需要開展倫理審查復核的科技活動”。

與傳統(tǒng)立法相比,人工智能立法面臨技術(shù)飛速發(fā)展帶來的調(diào)整對象不確定性、技術(shù)產(chǎn)業(yè)迭代帶來的社會關系不確定性,以及風險種類和程度的高度不可預見性。因此,制定一部既能解決當下問題、又充分考慮長遠的人工智能相關法律難度極大。在加緊研究、充分借鑒、盡力推進的同時,可以選擇GAI這一社會最關心的“切口”,盡快推進“小、快、靈”立法,早些出臺行政法規(guī)。

第一,該行政法規(guī)的核心,應明確規(guī)定將社會主義核心價值觀貫穿并統(tǒng)領生成式人工智能全生態(tài)。

社會主義核心價值觀是我國的一項法律準則。我國憲法明確規(guī)定“國家倡導社會主義核心價值觀”,民法典把“弘揚社會主義核心價值觀”作為立法目的放在第一條。凈化GAI生態(tài),不僅需要道德規(guī)范、倫理約束,更需要社會主義核心價值觀引領。這是一種法律制度,比道德更“剛”,比倫理更“硬”,比政策更“可持續(xù)”,固根本、穩(wěn)預期、利長遠。

2023年10月18日,我國發(fā)布《全球人工智能治理倡議》提出,發(fā)展人工智能應堅持“以人為本”理念、“智能向善”宗旨;堅持倫理先行,明確相關主體的責任和權(quán)利邊界。所謂“以人為本”,就應以社會主義核心價值觀為本;所謂“人機對齊”,就應強調(diào)GAI輸出結(jié)果與社會主義核心價值觀相符。

第二,在上述原則下,該行政法規(guī)應對GAI技術(shù)開發(fā)者、服務提供者、使用者、監(jiān)管者以及社會公眾,分門別類明確各自權(quán)利和義務、職能與責任。

例如,技術(shù)開發(fā)者應對用于訓練大語言模型的數(shù)據(jù)進行嚴格篩選與分類,剔除不當元素文本數(shù)據(jù),確保數(shù)據(jù)源合法且內(nèi)容健康;對于現(xiàn)有模型,運用數(shù)據(jù)遺忘等技術(shù)手段,消除不當內(nèi)容輸出;引入人工審核機制,對自動化系統(tǒng)標記為敏感或禁止的內(nèi)容進行復核;建立開放研究、社區(qū)合作、線索舉報機制,優(yōu)化大語言模型篩選系統(tǒng)。

人工智能生成內(nèi)容過程中的著作權(quán)保護是個核心又敏感的問題。輸入階段,使用語料是否構(gòu)成侵權(quán);產(chǎn)出階段,涉及生成作品性質(zhì)和作者資格,即是否足以確權(quán)及維權(quán)。從國際慣例看,輸入端使用作品相對寬松,但前提是文本挖掘和數(shù)據(jù)訓練使用為非商業(yè)性,一旦進入商業(yè)領域則應嚴格保護版權(quán)。從發(fā)展的角度,規(guī)定輸入階段數(shù)據(jù)一一得到許可,實踐中做不到,也不利于研發(fā)。應當按照更好發(fā)揮數(shù)據(jù)要素作用的立法本意,淡化所有權(quán)、強化使用權(quán),明確使用原則,在涉及商業(yè)使用時,要求技術(shù)開發(fā)者支付報酬,由其與權(quán)利人組織協(xié)商解決。

再如,應明確服務提供者依據(jù)民法典侵權(quán)責任編有關責任主體的特殊規(guī)定履行“網(wǎng)絡服務提供者”、依據(jù)民法典人格權(quán)編有關個人信息保護履行“信息處理者”的義務。依法對生成內(nèi)容進行標識;發(fā)現(xiàn)違法內(nèi)容應及時處置、整改并報告;對使用者的輸入信息和使用記錄依法保護,及時處理有關查閱、復制、更正、補充、刪除個人信息請求;履行用戶管理義務,公開服務適用情況,指導使用者科學理性認識和依法使用技術(shù),采取未成年人防沉迷措施,建立健全投訴、舉報機制,確保提供安全、穩(wěn)定、持續(xù)服務。

又如,按照民法典有關“網(wǎng)絡用戶”“個人信息權(quán)利人”的權(quán)利、義務和責任規(guī)定,細化對使用者的權(quán)益維護與使用規(guī)范。對于使用者利用大模型生成的內(nèi)容能否得到版權(quán)保護,應以提示詞制作、內(nèi)容編輯修改、創(chuàng)作中的選擇判斷等體現(xiàn)人類的智力勞動成果的要素為重點,建立科學的創(chuàng)作貢獻認定標準。同時,對于生成內(nèi)容涉嫌“深度偽造”可能構(gòu)成侵權(quán)的,則應利用技術(shù)創(chuàng)新、技術(shù)對抗等方式,建立并完善精準的檢測標準。

[作者呂紅兵系全國政協(xié)委員、國浩律師(上海)事務所合伙人]

編輯:李敏杰