首頁 > 新聞 > IT資訊 > 正文

        每日訊息!陳兵:建議僅對適用于高風(fēng)險生成式人工智能應(yīng)用施加真實性義務(wù)

        2023-04-17 21:40:44來源:中新經(jīng)緯  

        中新經(jīng)緯4月17日電 題:建議僅對適用于高風(fēng)險生成式人工智能應(yīng)用施加真實性義務(wù)


        (相關(guān)資料圖)

        作者 陳兵 南開大學(xué)法學(xué)院副院長、教授

        4月11日,國家互聯(lián)網(wǎng)信息辦公室起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(下文簡稱“《征求意見稿》”)。《征求意見稿》的發(fā)布意味著中國第一時間將AIGC(人工智能生成內(nèi)容)技術(shù)創(chuàng)新應(yīng)用及相關(guān)產(chǎn)品開發(fā)有針對性地納入法治化治理架構(gòu),樹牢“安全是發(fā)展的前提”的底線思維,明確為新技術(shù)、新產(chǎn)業(yè)、新業(yè)態(tài)的發(fā)展指明合規(guī)發(fā)展的主線。

        同時,其中還存在可進一步討論之處,如何更好地設(shè)計規(guī)則以統(tǒng)籌安全與發(fā)展的關(guān)系尤為重要,在夯實安全發(fā)展的基礎(chǔ)之上,給予創(chuàng)新發(fā)展以可容、可信、可控的制度環(huán)境,以高質(zhì)量的制度型開放為中國人工智能技術(shù)和產(chǎn)業(yè)的彎道超車,提供科學(xué)有力、堅實堅定的制度支撐,釋放創(chuàng)新是發(fā)展第一動力的明確信號。結(jié)合《征求意見稿》,筆者有五點理解:

        一、《征求意見稿》第六條規(guī)定的安全評估,算法備案和變更、注銷備案手續(xù)等事前審查規(guī)定是有意義且有必要的,但是需要注意事前審查的方式方法,避免不合理地增加企業(yè)的負擔(dān)。

        任何技術(shù)都是一把雙刃劍。生成式人工智能產(chǎn)品作為高度智慧化的人工智能形態(tài),帶給人類社會的便捷與風(fēng)險同在,應(yīng)勇敢審慎地應(yīng)對接受新科技浪潮的洗禮?!墩髑笠庖姼濉吩黾邮虑皩彶?,不僅可以提升利用生成式人工智能產(chǎn)品向公眾提供服務(wù)的合法性,增加其安全、可靠、可解釋、可問責(zé)等可信性,還有助于更好地實現(xiàn)AI產(chǎn)品和技術(shù)適用的包容性,更好地預(yù)防風(fēng)險,保障安全,及時發(fā)現(xiàn)其運作程序、服務(wù)內(nèi)容所存在的問題,從而提高生成式人工智能產(chǎn)品向公眾提供服務(wù)的可接受性。

        建議進一步明確事前審查的審查范圍以及方式方法。由于事前審查會在一定程度上增加企業(yè)的合規(guī)成本,若事前審查范圍設(shè)置不當(dāng),可能會抑制生成式人工智能產(chǎn)品的研發(fā)與訓(xùn)練效能,客觀上會導(dǎo)致生成式人工智能發(fā)展的降速。因此,需注意事前審查的方式方法可能對企業(yè)經(jīng)營產(chǎn)生的影響,譬如企業(yè)未經(jīng)審查之前,是否能夠發(fā)布相關(guān)產(chǎn)品,若不能,事前審查所需要的時間是否會不當(dāng)?shù)刈璧K企業(yè)的正常經(jīng)營行為等等。

        二、《征求意見稿》第五條針對責(zé)任主體方面進行了細化規(guī)定,生成式人工智能產(chǎn)品提供者承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任,該規(guī)定是對人工智能追責(zé)體系的補充和完善,但也需考慮到提供者對人工智能產(chǎn)品控制力度的有限性,否則可能會導(dǎo)致提供者責(zé)任的承擔(dān)范圍會被不合理地放大,建議進一步明確提供者的免責(zé)事由。

        生成式人工智能產(chǎn)品提供者承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任,這里實際上需要關(guān)注的重點在于對生成內(nèi)容生產(chǎn)者的認定。如果生成式人工智能產(chǎn)品提供者是生成內(nèi)容的生產(chǎn)者,這里的生產(chǎn)者即應(yīng)對生成內(nèi)容的過程、具體數(shù)據(jù)信息的真實性和算法使用的適當(dāng)性等整個生成過程負責(zé),那么當(dāng)然需要對其承擔(dān)責(zé)任。該規(guī)定是對生成式人工智能產(chǎn)品提供者(通常是平臺主體)應(yīng)該盡到高度注意義務(wù)的規(guī)定,在一定程度上講,也只有為生成式人工智能產(chǎn)品提供者確定相應(yīng)的責(zé)任義務(wù),才能更好地對生成內(nèi)容的合法合規(guī)作出要求。

        建議參照“安全港”制度合理設(shè)置平臺承擔(dān)責(zé)任的范圍,明確提供者免責(zé)事由。如果平臺盡到相應(yīng)注意義務(wù),在責(zé)任的承擔(dān)上,鑒于其對創(chuàng)新發(fā)展的貢獻,不宜施加其嚴(yán)格責(zé)任,否則不利于技術(shù)的開發(fā)和未來商用。另外,關(guān)于運營公司是否需要承擔(dān)相應(yīng)的補充責(zé)任,應(yīng)綜合考慮侵權(quán)范圍、損害程度以及平臺避免損失擴大的能力。

        三、《征求意見稿》第十七條規(guī)定提供者應(yīng)當(dāng)根據(jù)要求提供可以影響用戶信任、選擇的必要信息。該規(guī)定實際上是對生成式人工智能算法的可解釋性提出了新的要求,使隱私權(quán)、個人信息的保護不再僅局限于被動的事后救濟,保護鏈條前移,更加積極有效地規(guī)范AI訓(xùn)練過程,有助于增強用戶信任,使生成式人工智能產(chǎn)品更好發(fā)展。

        建議進一步細化對提供者公開信息的范圍和限度。對可解釋的要求不能過于苛刻或過度放大,應(yīng)當(dāng)進一步規(guī)定對信息公開的程度和限度,避免提出不合理要求使生成式人工智能算法的關(guān)鍵信息被迫公開,導(dǎo)致企業(yè)的技術(shù)機密泄露,對企業(yè)創(chuàng)新發(fā)展產(chǎn)生不可挽回的損失。

        四、《征求意見稿》第十五條規(guī)定,對于運行中發(fā)現(xiàn)、用戶舉報的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過濾等措施外,應(yīng)在3個月內(nèi)通過模型優(yōu)化訓(xùn)練等方式防止再次生成。該規(guī)定針對生成式人工智能的關(guān)鍵問題,對癥下藥,豐富和完善了對生成式人工智能違規(guī)的處理方式。

        建議優(yōu)化并完善驗證整改優(yōu)化的方式方法。整改優(yōu)化的結(jié)果驗證應(yīng)落實于技術(shù)實踐,在尊重技術(shù)實踐及規(guī)律的基礎(chǔ)上,輔之以監(jiān)管保障,鼓勵和支持平臺探索創(chuàng)新并優(yōu)化技術(shù)實現(xiàn)路徑。為此,在設(shè)定技術(shù)運用的基本門檻之上,落實于實踐試用,加之定期和不定期的監(jiān)測,保證其整改優(yōu)化結(jié)果的安全性與可信度。在整改優(yōu)化后,可通過人工測試模擬運行、“監(jiān)管沙盒”以及設(shè)置監(jiān)管過渡期等方式,檢驗整改優(yōu)化后的內(nèi)容生成是否仍存在不符合規(guī)定的生成內(nèi)容。

        五、《征求意見稿》第四條規(guī)定利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實準(zhǔn)確。該規(guī)定主要針對目前生成式人工智能無法保證生成信息的真實性問題,目前生成式人工智能并不會對生成內(nèi)容的正確性進行驗證,這可能會導(dǎo)致一些缺乏專業(yè)知識的人誤將生成內(nèi)容作為正確答案。但是,以目前主流的生成式人工智能技術(shù)來看,主要是通過強化學(xué)習(xí)和搜索增強等方式,提升生成內(nèi)容的邏輯性和可讀性,但并不能像人一樣去辨別內(nèi)容的真實性。

        若將生成式人工智能生成的內(nèi)容應(yīng)該真實準(zhǔn)確作為提供者的義務(wù),目前AI難以自行完成,這意味著,中國的生成式人工智能提供者必須通過人工審核的方式達成義務(wù)。但是,這在很大程度上會影響生成式人工智能的運行和生成內(nèi)容的效率,降低消費者用戶的體驗,而且也會增加企業(yè)的負擔(dān),花費大量的人力和技術(shù)資源用于審核信息。

        生成式人工智能目前仍主要作為人類工作的輔助工具,用戶仍可以通過指令的方式實現(xiàn)對生成內(nèi)容的控制,而且在多數(shù)場景中,內(nèi)容生成多為私人使用,生成后并不會自動向公眾公開和傳播,因此,對于生成式人工智能的義務(wù)規(guī)定,仍需要區(qū)分使用場景。

        從用戶需求和服務(wù)體驗來看,用戶對于此類工具的使用有隱私和保密方面的需求,人工審查的方式也不利于滿足用戶對于隱私保護的需求,實際上也對生成式人工智能的功能產(chǎn)生影響。且從事實層面來看,賦予主體審查義務(wù),必須考慮該主體對于審查的可控性和技術(shù)實現(xiàn)的可能性,而在現(xiàn)實中,用戶是對生成內(nèi)容有直接控制的能力,提供者能夠通過完善算法的方式提升信息生成的準(zhǔn)確率,但無法100%保證真實準(zhǔn)確。

        建議將該條款調(diào)整為一種鼓勵式、提倡式的條款,僅對適用于特殊場景的高風(fēng)險生成式人工智能應(yīng)用施加真實性義務(wù),譬如,有些平臺將生成式人工智能內(nèi)置在平臺之中,此時生成內(nèi)容會直接進行公開傳播,在這種場景下,存在虛假信息傳播的風(fēng)險,且平臺擁有對信息傳播的控制力。2022年9月通過的歐盟《人工智能民事責(zé)任指令》規(guī)定只有高風(fēng)險的AI應(yīng)用才承擔(dān)嚴(yán)格的責(zé)任。

        總體來講,對仍存在較大發(fā)展空間且技術(shù)仍待發(fā)展成熟的領(lǐng)域,立法仍需給予一定的包容空間,不宜超出提供者的能力范圍設(shè)置強制性義務(wù)。以國外的ChatGPT為例,其目前也暫時無法確保生成內(nèi)容的真實性,若將此作為生成式AI提供者的義務(wù),無形之間提高了進入該市場的門檻,不利于中國生成式AI產(chǎn)業(yè)發(fā)展,或?qū)χ袊@取該領(lǐng)域的國際競爭新優(yōu)勢造成阻礙。(中新經(jīng)緯APP)

        本文由中新經(jīng)緯研究院選編,因選編產(chǎn)生的作品中新經(jīng)緯版權(quán)所有,未經(jīng)書面授權(quán),任何單位及個人不得轉(zhuǎn)載、摘編或以其它方式使用。選編內(nèi)容涉及的觀點僅代表原作者,不代表中新經(jīng)緯觀點。

        責(zé)任編輯:張芷菡

        編輯:吳曉薇

        關(guān)鍵詞:

        責(zé)任編輯:hnmd003

        相關(guān)閱讀

        相關(guān)閱讀

        精彩推送

        推薦閱讀

        亚洲精品视频在线免费| 亚洲日韩在线视频| 亚洲av极品无码专区在线观看| 亚洲电影一区二区三区| 亚洲精品无码不卡在线播放HE| 亚洲女人被黑人巨大进入| 精品国产_亚洲人成在线| 精品久久久久久久久亚洲偷窥女厕| 亚洲精品无码久久久久牙蜜区| 亚洲欧美熟妇综合久久久久| 亚洲综合精品伊人久久| 亚洲综合一区国产精品| 亚洲精品无码久久久久久| 亚洲第一综合天堂另类专| 色偷偷亚洲第一综合| 一级毛片直播亚洲| 亚洲黄黄黄网站在线观看| 中文字幕亚洲天堂| 狠狠色伊人亚洲综合成人| 久久精品国产亚洲av四虎| 亚洲一区中文字幕久久| 亚洲毛片基地日韩毛片基地| youjizz亚洲| 亚洲youwu永久无码精品| 无码欧精品亚洲日韩一区夜夜嗨 | 91亚洲精品第一综合不卡播放| 久久精品a亚洲国产v高清不卡| 亚洲精品成人网站在线播放| 亚洲人成电影院在线观看| 国产 亚洲 中文在线 字幕| 亚洲国产成人精品无码区二本| 偷自拍亚洲视频在线观看99| 国产午夜亚洲精品理论片不卡| 亚洲精品乱码久久久久久中文字幕| 久久精品国产精品亚洲艾| 亚洲福利视频网站| 亚洲欧美日韩中文无线码| 无码欧精品亚洲日韩一区夜夜嗨| 夜夜春亚洲嫩草影院| 色拍自拍亚洲综合图区| 性xxxx黑人与亚洲|