首頁 > 新聞 > 智能 > 正文

        AI 正在瘋狂污染中文互聯網

        2023-06-19 13:18:00來源:ZAKER科技  

        污染中文互聯網,AI 成了 " 罪魁禍首 " 之一。

        事情是這樣的,最近大家不是都熱衷于向 AI 咨詢嘛,有位網友就問了 Bing 這么一個問題:


        (相關資料圖)

        象鼻山是否有纜車?

        Bing 也是有問必答,給出了看似挺靠譜的答案:

        在給出肯定的答復之后,Bing 還貼心地附帶上了票價、營業時間等細節信息。

        不過這位網友并沒有直接采納答案,而是順藤摸瓜點開了下方的 " 參考鏈接 "。

        此時網友察覺到了一絲絲的不對勁——這人的回答怎么 " 機里機氣 " 的。于是他點開了這位叫 " 百變人生 " 的用戶主頁,猛然發覺,介是個 AI ?。?/strong>因為這位用戶回答問題速度可以說是極快,差不多每一兩分鐘就能搞定一個問題,甚至能在 1 分鐘之內回答 2 個問題。

        在這位網友更為細心的觀察之下,發現這些回答的內容都是沒經過核實的那種……

        并且他認為,這就是導致 Bing 輸出錯誤答案的原因:

        這個 AI 瘋狂地污染中文互聯網。

        "AI 污染源 ",不止這一個

        那么被網友發現的這位 AI 用戶,現在怎么樣了?從目前結果來看,他已經被被知乎 " 判處 " 為禁言狀態。

        但盡管如此,也有其他網友直言不諱地表示:

        不止一個。

        若是點開知乎的 " 等你回答 " 這個欄目,隨機找一個問題,往下拉一拉,確實是能碰到不少 " 機言機語 " 的回答。

        例如我們在 "AI 在生活中的應用場景有哪些?" 的回答中便找到了一個:

        不僅是回答的語言 " 機言機語 ",甚至回答直接打上了 " 包含 AI 輔助創作 " 的標簽。

        然后,如果我們把問題丟給 ChatGPT,那么得到回答……嗯,挺換湯不換藥的。

        事實上,諸如此類的 "AI 污染源 " 不只是在這一個平臺上有。就連簡單的科普配圖這事上,AI 也是屢屢犯錯:網友們看完這事也是蚌不住了:" 好家伙,沒有一個配圖是河蚌 "。甚至各類 AI 生成的假新聞也是屢見不鮮。

        例如前一段時間,便有一則聳人聽聞的消息在網上瘋傳,標題是《鄭州雞排店驚現血案,男子用磚頭砸死女子!》。

        但事實上,這則新聞是江西男子陳某為吸粉引流,利用 ChatGPT 生成的。

        無獨有偶,廣東深圳的洪某弟也是通過 AI 技術,發布過《今晨,甘肅一火車撞上修路工人, 致 9 人死亡》假新聞。

        具體而言,他在全網搜索近幾年的社會熱點新聞,并使用 AI 軟件對新聞時間、地點等進行修改編輯后,在某些平臺賺取關注和流量進行非法牟利。

        警方均已對他們采取了刑事強制措施。

        但其實這種 "AI 污染源 " 的現象不僅僅是在國內存在,在國外亦是如此。

        程序員問答社區 Stack Overflow 便是一個例子。

        早在去年年底 ChatGPT 剛火起來的時候,Stack Overflow 便突然宣布 " 臨時禁用 "。當時官方給出來的理由是這樣的:

        (這樣做)的目的是減緩使用 ChatGPT 創建的大量答案流入社區。

        因為從 ChatGPT 得到錯誤答案的概率太高了!

        Stack Overflow 進一步闡述了這種現象。

        他們認為以前用戶回答的問題,都是會有專業知識背景的其他用戶瀏覽,并給出正確與否,相當于是核實過。

        但自打 ChatGPT 出現之后,涌現了大量讓人覺得 " 很對 " 的答案;而有專業知識背景的用戶數量是有限的,沒法把這些生成的答案都看個遍。

        加之 ChatGPT 回答這些個專業性問題,它的錯誤率是實實在在擺在那里的;因此 Stack Overflow 才選擇了禁用。

        一言蔽之,AI 污染了社區環境。

        而且像在美版貼吧 Reddit 上,也是充斥著較多的 ChatGPT 板塊、話題:

        許多用戶在這種欄目之下會提出各式各樣的問題,ChatGPT bot 也是有問必答。

        不過,還是老問題,答案的準確性如何,就不得而知了。

        但這種現象背后,其實還隱藏著更大的隱患。

        濫用 AI,也毀了 AI

        AI 模型獲得大量互聯網數據,卻無法很好地辨別信息的真實性和可信度。

        結果就是,我們不得不面對一大堆快速生成的低質量內容,讓人眼花繚亂,頭暈目眩。

        很難想象ChatGPT 這些大模型如果用這種數據訓練,結果會是啥樣……

        而如此濫用 AI,反過來也是一種自噬。

        最近,英國和加拿大的研究人員在 arXiv 上發表了一篇題目為《The Curse of Recursion: Training on Generated Data Makes Models Forget》的論文。

        探討了現在 AI 生成內容污染互聯網的現狀,然后公布了一項令人擔憂的發現,使用模型生成的內容訓練其他模型,會導致結果模型出現不可逆的缺陷。

        這種 AI 生成數據的 " 污染 " 會導致模型對現實的認知產生扭曲,未來通過抓取互聯網數據來訓練模型會變得更加困難。

        論文作者,劍橋大學和愛丁堡大學安全工程教授 Ross Anderson 毫不避諱地直言:

        正如我們用塑料垃圾布滿了海洋,用二氧化碳填滿了大氣層,我們即將用廢話填滿互聯網。

        對于虛假信息滿天飛的情況,Google Brain 的高級研究科學家達芙妮 · 伊波利托(Daphne Ippolito)表示:想在未來找到高質量且未被 AI 訓練的數據,將難上加難。

        假如滿屏都是這種無營養的劣質信息,如此循環往復,那以后 AI 就沒有數據訓練,輸出的結果還有啥意義呢。

        基于這種狀況,大膽設想一下。一個成長于垃圾、虛假數據環境中的 AI,在進化成人前,可能就先被擬合成一個 " 智障機器人 "、一個心理扭曲的心理智障。

        就像 1996 年的科幻喜劇電影《丈夫一籮筐》,影片講述了一個普通人克隆自己,然后又克隆克隆人,每一次克隆都導致克隆人的智力水平呈指數下降,愚蠢程度增加。

        那個時候,我們可能將不得不面臨一個荒謬困境:人類創造了具有驚人能力的 AI,而它卻塞滿了無聊愚蠢的信息。

        如果 AI 被喂進的只是虛假的垃圾數據,我們又能期待它們創造出什么樣的內容呢?

        假如時間到那個時候,我們大概都會懷念過去,向那些真正的人類智慧致敬吧。

        話雖如此,但也不全是壞消息。比如部分內容平臺已開始關注 AI 生成低劣內容的問題,并推出相關規定加以限制。

        一些個 AI 公司也開始搞能鑒別 AI 生成內容的技術,以減少 AI 虛假、垃圾信息的爆炸。

        關鍵詞:

        責任編輯:hnmd003

        相關閱讀

        相關閱讀

        亚洲码国产精品高潮在线| 亚洲成a人在线看天堂无码| 久久久久亚洲av成人无码电影| 精品亚洲福利一区二区| 亚洲欧美日韩国产成人| 亚洲欧美黑人猛交群| 亚洲经典千人经典日产| 亚洲欧洲无码一区二区三区| 亚洲人成网亚洲欧洲无码| 亚洲精品国产首次亮相| 午夜亚洲国产理论片二级港台二级| 亚洲精品国产高清在线观看| 亚洲国产欧美日韩精品一区二区三区| 亚洲影院天堂中文av色| 亚洲乱码av中文一区二区| 亚洲AV无码之国产精品| 偷自拍亚洲视频在线观看99| 亚洲高清国产拍精品青青草原| 亚洲国产人成精品| 国产亚洲人成A在线V网站| 不卡一卡二卡三亚洲| 亚洲精品制服丝袜四区| 亚洲av无码成h人动漫无遮挡| 亚洲男人天堂av| 亚洲国产成人手机在线电影bd| 亚洲人成高清在线播放| 亚洲成_人网站图片| 亚洲精品永久在线观看| 国产亚洲精品国产福利在线观看 | xvideos亚洲永久网址| 亚洲婷婷国产精品电影人久久| 亚洲午夜国产精品无码老牛影视 | 亚洲成在人线av| 亚洲色成人网一二三区| 精品亚洲AV无码一区二区三区| 亚洲丁香婷婷综合久久| 亚洲国产成人久久综合野外| 亚洲小说区图片区另类春色| 亚洲一区二区三区电影| 亚洲国产最大av| 国产AV日韩A∨亚洲AV电影|