免费视频看片app,东京热人妻一区二区三区,肉多荤文高h羞耻玩弄校园,牛和人交xxxx欧美

大通天成

13391522356
全國(guó)咨詢服務(wù):8:00-22:00

知識(shí)庫> 辦事指南> 生成式人工智能技術(shù)應(yīng)用法律風(fēng)險(xiǎn)及合規(guī)要點(diǎn)(互聯(lián)網(wǎng)信息服務(wù)算法備案)

生成式人工智能技術(shù)應(yīng)用法律風(fēng)險(xiǎn)及合規(guī)要點(diǎn)(互聯(lián)網(wǎng)信息服務(wù)算法備案)

更新時(shí)間:2024-12-28 16:57:19     發(fā)布時(shí)間:2023-06-02 09:09:13     作者:財(cái)稅小編-富炎



摘要:生成式人工智能技術(shù)應(yīng)用法律風(fēng)險(xiǎn)及合規(guī)要點(diǎn)(互聯(lián)網(wǎng)信息服務(wù)算法備案)2023年4月11日推出《生成式人工智能服務(wù)管理辦法(征求意見稿)》(下稱“征求意見稿”),旨在促進(jìn)生成式AI健康發(fā)展和規(guī)范應(yīng)用,其中明確規(guī)定“研發(fā)、利用生成式人工智能產(chǎn)品,面向中華人民共和國(guó)境內(nèi)公眾提供服務(wù)的”均適用該辦法。該條規(guī)定明確了該辦法的適用范圍和對(duì)象,確立了“長(zhǎng)臂管轄”規(guī)則,將境外主體向境內(nèi)提供服務(wù)情形也納入適用范圍。

suanfa1.png

  生成式人工智能技術(shù)應(yīng)用法律風(fēng)險(xiǎn)及合規(guī)要點(diǎn)(互聯(lián)網(wǎng)信息服務(wù)算法備案)

  生成式人工智能技術(shù)應(yīng)用法律風(fēng)險(xiǎn)及合規(guī)要點(diǎn)看,是本文主要內(nèi)容。通過下文您將對(duì)人工智能技術(shù)合規(guī)應(yīng)用有更深的了解,其中2022年推出的互聯(lián)網(wǎng)信息服務(wù)算法備案是企業(yè)要及時(shí)參與。

  2022年底以來,隨著ChatGPT-3.5、Stable Diffusion、Midjourney等強(qiáng)人工智能的破圈,圍繞著各類人工智能應(yīng)用項(xiàng)目迅速發(fā)展。但同時(shí),人工智能應(yīng)用項(xiàng)目也帶來了傳播虛假信息、隱私泄露、知識(shí)產(chǎn)權(quán)侵權(quán)等潛在風(fēng)險(xiǎn)問題,對(duì)此全球多國(guó)也紛紛出手,出臺(tái)了各自的監(jiān)管政策,以期規(guī)范人工智能健康發(fā)展。

  2023年3月30日,意大利個(gè)人數(shù)據(jù)保護(hù)局(DPA)以違反GDPR為由,宣布暫時(shí)禁止使用ChatGPT。

  2023年5月11日,歐洲議會(huì)內(nèi)部市場(chǎng)委員會(huì)和公民自由委員會(huì)以84票贊成,7票反對(duì)和12票棄權(quán)通過《歐盟人工智能法案》(EU Artificial Intelligence Act,“歐盟AI法案”)提案的談判授權(quán)草案[1]。歐洲議會(huì)發(fā)布的聲明稱,一旦獲得批準(zhǔn),該法案將成為全世界首部有關(guān)人工智能的法規(guī)。法律通過后,違反規(guī)定的公司最高可被處以4000萬歐元或其全球年?duì)I業(yè)額7%的罰款。

  歐盟AI法案針對(duì)不同類型的人工智能系統(tǒng)制定了相應(yīng)的監(jiān)管措施,區(qū)分了不可接受的風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)和低或輕微風(fēng)險(xiǎn)四種風(fēng)險(xiǎn)類型,并針對(duì)不同類型施加了不同的監(jiān)管措施以及相應(yīng)類型的人工智能系統(tǒng)的提供者義務(wù)。對(duì)于不可接受的風(fēng)險(xiǎn)(包括可能扭曲用戶行為、導(dǎo)致用戶傷害的系統(tǒng),預(yù)測(cè)性警務(wù)系統(tǒng),無針對(duì)抓取面部數(shù)據(jù)建立面部識(shí)別數(shù)據(jù)庫的系統(tǒng)等),歐盟AI法案明確禁止其投放市場(chǎng),或在歐盟境內(nèi)使用。因此也有議員對(duì)該法案持批評(píng)的態(tài)度。德國(guó)議員阿克塞爾·沃斯表示,這項(xiàng)法案是“朝著正確方向邁出的一步”,但是以對(duì)人工智能的恐懼來限制其發(fā)展,可能會(huì)扼殺新技術(shù)涌現(xiàn)的機(jī)會(huì)。

  中國(guó)國(guó)家網(wǎng)信辦于2023年4月11日推出《生成式人工智能服務(wù)管理辦法(征求意見稿)》(下稱“征求意見稿”),旨在促進(jìn)生成式AI健康發(fā)展和規(guī)范應(yīng)用,其中明確規(guī)定“研發(fā)、利用生成式人工智能產(chǎn)品,面向中華人民共和國(guó)境內(nèi)公眾提供服務(wù)的”均適用該辦法。該條規(guī)定明確了該辦法的適用范圍和對(duì)象,確立了“長(zhǎng)臂管轄”規(guī)則,將境外主體向境內(nèi)提供服務(wù)情形也納入適用范圍。

  與歐盟AI法案不同的是,征求意見稿將監(jiān)管范圍限定在生成式人工智能,并未禁止某一類型技術(shù)的應(yīng)用,相反的,征求意見稿第三條、第四條明確提出支持和鼓勵(lì)技術(shù)發(fā)展,表明中國(guó)保護(hù)社會(huì)倫理道德秩序和輿論導(dǎo)向,引領(lǐng)新興技術(shù)的價(jià)值取向的監(jiān)管目標(biāo)。該征求意見稿所展現(xiàn)的監(jiān)管方式與此前出臺(tái)的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(“《算法規(guī)定》”)、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(“《深度合成規(guī)定》”)有異曲同工之妙,共同建立了以內(nèi)容安全和社會(huì)影響為監(jiān)管目標(biāo)的監(jiān)管機(jī)制,同時(shí),為技術(shù)研發(fā)和應(yīng)用預(yù)留了政策空間。

  我們擬從該征求意見稿所折射的監(jiān)管目標(biāo)和監(jiān)管尺度出發(fā),總結(jié)生成式人工智能技術(shù)在中國(guó)境內(nèi)應(yīng)用面臨的主要法律風(fēng)險(xiǎn)和監(jiān)管合規(guī)要點(diǎn)。

  一、內(nèi)容違法違規(guī)風(fēng)險(xiǎn)

  1. 對(duì)生成內(nèi)容的基本要求。征求意見稿第四條列舉了提供生成式人工智能產(chǎn)品或服務(wù)時(shí)應(yīng)遵守的法律法規(guī)要求和道德準(zhǔn)則。實(shí)質(zhì)上是對(duì)服務(wù)提供者施以內(nèi)容審查義務(wù)。該條是對(duì)生成內(nèi)容合規(guī)性的原則性規(guī)定,是對(duì)《網(wǎng)絡(luò)安全法》《算法規(guī)定》《深度合成規(guī)定》等法律法規(guī)中關(guān)于內(nèi)容合規(guī)要求在生成式人工智能技術(shù)背景下的匯總和重申。

  2. 生成內(nèi)容應(yīng)真實(shí)準(zhǔn)確。征求意見稿第四條第四款規(guī)定“利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確,采取措施防止生成虛假信息”。然而,我們理解,以目前生成式人工智能的技術(shù)水平,還尚達(dá)不到確保生成內(nèi)容100%真實(shí)準(zhǔn)確的程度,類似生成“林黛玉倒拔垂楊柳”的事例仍屢見不鮮。但從監(jiān)管的側(cè)重點(diǎn)出發(fā),我們認(rèn)為該款規(guī)定應(yīng)旨在要求服務(wù)提供者應(yīng)當(dāng)“采取措施”,在技術(shù)可以實(shí)現(xiàn)的范圍內(nèi)盡量避免虛假信息的產(chǎn)生。

  生成式人工智能的快速發(fā)展與深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)升級(jí)有密切聯(lián)系,而實(shí)驗(yàn)證明,深度神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力和模型大小呈正相關(guān),伴隨著模型參數(shù)量的增加,相對(duì)應(yīng)深度神經(jīng)網(wǎng)絡(luò)的能力一般會(huì)取得大幅提升[2]??梢哉J(rèn)為用于訓(xùn)練模型參數(shù)的數(shù)量和質(zhì)量,直接影響生成式人工智能所生成內(nèi)容的質(zhì)量。

  同時(shí),實(shí)踐中生成式人工智能服務(wù)提供者可能通過向第三方采購取得訓(xùn)練數(shù)據(jù),對(duì)此,我們建議應(yīng)當(dāng)審查第三方知識(shí)產(chǎn)權(quán)協(xié)議、要求其提供數(shù)據(jù)合法性來源證明,盡到服務(wù)提供者的注意義務(wù),并建立防控措施、窮盡可能的手段避免虛假信息的產(chǎn)生,以減輕內(nèi)容違法違規(guī)的風(fēng)險(xiǎn)。

  3. 違規(guī)內(nèi)容應(yīng)及時(shí)處置。征求意見稿第十三條、第十五條規(guī)定了提供者應(yīng)建立侵權(quán)內(nèi)容處理機(jī)制,對(duì)侵權(quán)和違規(guī)內(nèi)容應(yīng)當(dāng)采取措施,停止生成,防止危害持續(xù)。并且,還應(yīng)在3個(gè)月內(nèi)通過模型優(yōu)化訓(xùn)練等方式防止再次生成。在實(shí)踐中,識(shí)別違規(guī)內(nèi)容產(chǎn)生的原因,并再次通過模型優(yōu)化訓(xùn)練消除違規(guī)內(nèi)容可能存在較高技術(shù)難度,并且能否在3個(gè)月內(nèi)完成也有待實(shí)踐的檢驗(yàn),因此這一要求在實(shí)踐中落地可能面臨較大挑戰(zhàn)。

  因此,生成式人工智能服務(wù)提供者對(duì)模型訓(xùn)練數(shù)據(jù)的清洗和篩選尤為重要。我們建議服務(wù)提供者應(yīng)高度重視在使用訓(xùn)練數(shù)據(jù)之前,通過字段設(shè)置等技術(shù)結(jié)合人工審查手段,去除數(shù)據(jù)中的違法違規(guī)內(nèi)容和錯(cuò)誤內(nèi)容。通過對(duì)訓(xùn)練數(shù)據(jù)中侵權(quán)信息、違法信息、虛假信息、錯(cuò)誤信息的篩選和處理,最大程度保證訓(xùn)練出來的模型的準(zhǔn)確性。此外,在訓(xùn)練過程中,應(yīng)進(jìn)行調(diào)試和優(yōu)化,并注意及時(shí)、定期檢查和糾正錯(cuò)誤或虛假的信息。

  二、數(shù)據(jù)安全風(fēng)險(xiǎn)

  美國(guó)時(shí)間3月25日,OpenAI官方確認(rèn)有1.2%的ChatGPT Plus的用戶數(shù)據(jù)可能被泄露,而包括意大利在內(nèi)的有關(guān)國(guó)家的監(jiān)管機(jī)構(gòu)已對(duì)大語言模型及其數(shù)據(jù)安全問題開啟調(diào)查行動(dòng)。目前數(shù)據(jù)安全是生成式人工智能領(lǐng)域亟須解決的突出問題。

  對(duì)此,征求意見稿第五條首先強(qiáng)調(diào)了生成式人工智能服務(wù)提供者應(yīng)當(dāng)承擔(dān)的個(gè)人信息處理者的法定責(zé)任,并在第六條規(guī)定了安全評(píng)估和算法備案的前提性和必要性。其中明確要求生成式人工智能服務(wù)提供者應(yīng)當(dāng)根據(jù)《算法規(guī)定》《具有輿論屬性或社會(huì)動(dòng)員能力的互聯(lián)網(wǎng)信息服務(wù)安全評(píng)估規(guī)定》(“《安全評(píng)估規(guī)定》”)進(jìn)行算法備案和申報(bào)安全評(píng)估。根據(jù)算法備案要求,在算法備案前,生成式人工智能服務(wù)提供者應(yīng)當(dāng)設(shè)置算法安全機(jī)構(gòu),建立完善的公司內(nèi)部規(guī)章制度,主要包括算法安全自評(píng)估制度、算法安全監(jiān)測(cè)制度、算法安全事件應(yīng)急處置制度、算法違法違規(guī)處置制度、用戶真實(shí)身份核驗(yàn)以及注冊(cè)信息留存措施。

  根據(jù)《安全評(píng)估規(guī)定》,生成式人工智能服務(wù)提供者應(yīng)當(dāng)制定相關(guān)安全措施,包括用戶操作日志、發(fā)布內(nèi)容的留存措施,對(duì)違法有害信息的防范處置和記錄保存措施,個(gè)人信息保護(hù)和防范違法信息傳播的技術(shù)措施,建立投訴舉報(bào)渠道,建立協(xié)助網(wǎng)信部門、公安機(jī)關(guān)、國(guó)安機(jī)關(guān)等監(jiān)管的工作機(jī)制等。

  除了上述算法備案和安全評(píng)估所需的內(nèi)控制度和措施之外,征求意見稿第七條規(guī)定算法訓(xùn)練數(shù)據(jù)包含個(gè)人信息的,應(yīng)當(dāng)征得個(gè)人信息主體同意或者符合法律、行政法規(guī)規(guī)定的其他情形。第十一條要求提供者在提供服務(wù)過程中,對(duì)用戶的輸入信息和使用記錄承擔(dān)保護(hù)義務(wù)。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據(jù)用戶輸入信息和使用情況進(jìn)行畫像,不得向他人提供用戶輸入信息。

  因此,生成式人工智能服務(wù)提供者應(yīng)當(dāng)遵守《個(gè)人信息保護(hù)法》《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》等法律法規(guī)中針對(duì)個(gè)人信息保護(hù)的相關(guān)規(guī)定,通過技術(shù)及人工手段落實(shí)個(gè)人信息保護(hù)義務(wù),例如:

  1. 采用匿名化、脫敏等技術(shù)手段對(duì)算法訓(xùn)練數(shù)據(jù)中的個(gè)人隱私信息進(jìn)行及時(shí)處理,避免個(gè)人信息泄露或被濫用。

  2. 若用戶輸入的信息包含能夠推斷用戶身份的信息,不得非法留存,并應(yīng)進(jìn)行定期刪除。

  3. 建立人工審查機(jī)制,及時(shí)監(jiān)督、發(fā)現(xiàn)和糾正個(gè)人信息留存、泄露和濫用問題。

  4. 服務(wù)提供者還應(yīng)在產(chǎn)品或官網(wǎng)、主頁等位置公開處理投訴的機(jī)制和方式,落實(shí)用戶投訴接收處理機(jī)制,并及時(shí)處理個(gè)人關(guān)于更正、刪除、屏蔽個(gè)人信息的請(qǐng)求。

  三、知識(shí)產(chǎn)權(quán)侵權(quán)風(fēng)險(xiǎn)

  生成式人工智能模型的技術(shù)原理是通過對(duì)現(xiàn)有數(shù)據(jù)的學(xué)習(xí),學(xué)習(xí)到數(shù)據(jù)的分布規(guī)律和特點(diǎn),然后基于這些規(guī)律和特點(diǎn)來生成新的數(shù)據(jù)或完成任務(wù)。其中最廣為人知的生成式模型是生成對(duì)抗網(wǎng)絡(luò)(GAN)。GAN模型由兩個(gè)神經(jīng)網(wǎng)絡(luò)組成,分別為“生成器” 和 “判別器”。生成器根據(jù)數(shù)據(jù)分布樣本生成具有相似分布的樣本,而判別器則根據(jù)生成器生成出來的樣本以及真實(shí)數(shù)據(jù)對(duì)兩者進(jìn)行判斷分辨。在對(duì)抗中,生成器會(huì)嘗試生成能混淆判別器的樣本,而判別器會(huì)不斷學(xué)習(xí),以識(shí)別真實(shí)樣本和生成器生成的樣本。這樣的對(duì)抗過程將導(dǎo)致生成器的輸出越來越接近真實(shí)數(shù)據(jù)的分布,生成器最終可以產(chǎn)生逼真的新數(shù)據(jù)。GAN的變種如條件GAN(CGAN)等技術(shù)可以更加精細(xì)地控制生成樣本的特征。

  該技術(shù)原理決定了生成式人工智能的創(chuàng)作也需要?jiǎng)?chuàng)作素材來“喂養(yǎng)”。通常這些創(chuàng)作素材是以數(shù)據(jù)形式表現(xiàn)的各種數(shù)字化作品。從內(nèi)容生成的過程上看,生成式人工智能服務(wù)提供者可能面臨的較為突出的法律風(fēng)險(xiǎn),主要集中在訓(xùn)練數(shù)據(jù)的輸入端。生成式人工智能服務(wù)提供者利用爬蟲技術(shù)等各種方式取得未經(jīng)授權(quán)獲取版權(quán)作品和侵權(quán)信息的,可能涉及著作權(quán)侵權(quán)、不正當(dāng)競(jìng)爭(zhēng)、侵犯商業(yè)秘密等知識(shí)產(chǎn)權(quán)侵權(quán)風(fēng)險(xiǎn)。

  目前生成式人工智能生成的內(nèi)容主要是文本、圖片、聲音、視頻、代碼。其中,在生成文字的任務(wù)中,基于大型語言模型的生成式人工智能輸出的結(jié)果往往不是訓(xùn)練文本的原文復(fù)述,所以知識(shí)產(chǎn)權(quán)侵權(quán)風(fēng)險(xiǎn)相對(duì)較低。但是,在生成圖片、聲音、視頻、代碼的領(lǐng)域,存在較為突出的侵權(quán)風(fēng)險(xiǎn)。

  對(duì)此,征求意見稿第七條明確規(guī)定,用于生成式人工智能產(chǎn)品的預(yù)訓(xùn)練、優(yōu)化訓(xùn)練數(shù)據(jù)應(yīng)當(dāng)不含有侵犯知識(shí)產(chǎn)權(quán)的內(nèi)容。并且提供者應(yīng)當(dāng)對(duì)生成式人工智能產(chǎn)品的預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練數(shù)據(jù)來源的合法性負(fù)責(zé)。

  該條規(guī)定對(duì)生成式人工智能服務(wù)提供者提出了明確的要求,即在算法訓(xùn)練階段,應(yīng)當(dāng)對(duì)算法訓(xùn)練數(shù)據(jù)來源的合法性和侵權(quán)風(fēng)險(xiǎn)進(jìn)行審查,從數(shù)據(jù)源頭上切斷知識(shí)產(chǎn)權(quán)侵權(quán)風(fēng)險(xiǎn)。例如在一些生成圖片人工智能模型的生成產(chǎn)品中,可能出現(xiàn)與訓(xùn)練圖像較為近似的圖像結(jié)果,生成式人工智能服務(wù)提供者需要在模型設(shè)置、訓(xùn)練資料的選取,以及訓(xùn)練、調(diào)試和優(yōu)化過程中注意此類生成結(jié)果侵權(quán)的風(fēng)險(xiǎn)。

  我們注意到,通過爬蟲爬取的互聯(lián)網(wǎng)各類公開數(shù)據(jù)用于模型訓(xùn)練是否屬于合理使用目前在國(guó)內(nèi)外均極具爭(zhēng)議。征求意見稿第七條的要求如何落地也有待實(shí)踐檢驗(yàn)。另外,人工智能生成的結(jié)果是否具有著作權(quán),應(yīng)當(dāng)由誰享有著作權(quán),目前在學(xué)術(shù)界和實(shí)務(wù)界也爭(zhēng)論頗多。在中國(guó)著作權(quán)法的框架下,主要爭(zhēng)議觀點(diǎn)集中于“屬于人工智能的設(shè)計(jì)者”還是“屬于人工智能的使用者”。這關(guān)系到技術(shù)創(chuàng)新發(fā)展與政策支持、法律規(guī)制的匹配和銜接問題,我們后續(xù)對(duì)此爭(zhēng)議問題也將另行撰文展開論述。

  綜上所述,關(guān)于生成式人工智能技術(shù)應(yīng)用法律風(fēng)險(xiǎn)及合規(guī)要點(diǎn)(互聯(lián)網(wǎng)信息服務(wù)算法備案)的文章,如果您需要辦理互聯(lián)網(wǎng)信息服務(wù)算法備案或者想更多咨詢問題,請(qǐng)聯(lián)系大通天成在線客服。也可以撥打我們的電話13391522356。


熱門搜索
熱門資質(zhì)標(biāo)簽:   互聯(lián)網(wǎng)信息服務(wù)算法備案互聯(lián)網(wǎng)信息服務(wù)算法備案辦理互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定
熱門閱讀
相關(guān)推薦

產(chǎn)品推薦:

電話咨詢
售前咨詢電話

13391522356

在線咨詢 官方微信
微信掃一掃

互聯(lián)網(wǎng)資質(zhì)服務(wù)

qc
售后投訴
微信掃一掃

售后投訴客服

qc
返回頂部