首頁 > 新聞 > IT資訊 > 正文

        0.8秒出圖!國產AI繪畫上演“速度與激情”!

        2022-11-09 15:27:23來源:銀柿財經  

        秒速生圖火爆全網


        (相關資料圖)

        最近,在各大社交平臺上,一款叫作“盜夢師”的AI繪畫小程序火了。

        具體火到什么程度呢?據以往團隊的采訪得知,9月產品剛上線一周時間,盜夢師便創造了日增5萬用戶的紀錄。

        從Midjourney 到 Stable Diffusion,再到國內如雨后春筍般涌現的AI繪畫平臺,在使用方式上差異不大,均采用「以文生圖」的方式。「以文生圖」顧名思義就是只要你把想法、腦洞以文字輸入給AI,這些文字描述就會被算法驅動,變成一張張生動、精致的圖片。

        而真正能讓盜夢師從眾多AI繪畫平臺中脫穎而出的,當屬其鮮明的技術優勢與舒適的產品體驗。

        從輸入描述到輸出圖片,全程僅不到5秒,對比其他產品動輒幾十秒甚至幾分鐘的時間,可謂天壤之別。

        同時還有多種繪畫風格、多圖批量輸出、多尺寸高分辨率、畫師參考等功能輔助用戶開展創作,使得整個繪畫過程更便捷、有趣和惠普。加之其免費的新手體驗,上線以來便在用戶間產生了良好的口碑。

        最快,有多快

        據了解,盜夢師由前谷歌人工智能研究院科學家、NLP自然語言處理領域預訓練語言模型“ALBERT”第一作者——藍振忠博士帶隊研發。

        最終由西湖大學深度學習實驗室和西湖心辰科技有限公司(西湖大學深度學習實驗室孵化的 AIGC 創業公司)共同推出。

        依托于西湖大學良好的科研和成果轉化環境、充足的科研資金及軟硬件設備,西湖心辰組建了一支長期致力于研究自然語言處理,計算機視覺及深度學習的結合與應用的團隊。

        在Stable Diffusion的基礎上,盜夢師憑借團隊在AI領域多年的深耕以及西湖大學實驗室的成熟算力,找到了一個可發揮自有技術優勢的地帶,并通過“秒生圖,生精圖”的特點快速占領AI畫畫高地。

        我們通過原生stable diffusion在pytorch、TensorRT與Oneflow三個框架下的實現與盜夢師自有模型對比可以看到:

        pytorch上原生的Stable diffusion生成一張圖需要3.4s,第三方Oneflow需要1.4s生成時間。而盜夢師的自有模型只需要0.8s,并且不會影響生成效果。

        這是因為盜夢師針對速度和質量兩個方面分別做了技術優化,在提速側,進行了算子重寫、模型量化、采樣函數優化;在提質側,采用了自有中文語言模型、多尺寸彈性訓練等。這才使得盜夢師在生成圖片時,不僅速度上有了質的提升,最終的呈現效果也有明顯優化。

        原生 Stable -Diffusion(左)與盜夢師生成圖(右)對比

        各大模型分析

        從今年8月發布至今,Stable Diffusion仍是最火的開源AI生圖模型。與其他開源圖片生成模型相比,其有著出圖速度快、質量高等特點。

        但在畫人物方面,Stable Diffusion的弊端也很明顯,如經常存在多頭、多只手、多條腿或人物部分肢體丟失等問題。

        原生 Stable -Diffusion(左)與盜夢師(右)對比

        同時,原生Stable Diffusion僅支持英文作為唯一輸入語言,對于國內用戶來說也十分不友好。

        針對語言障礙的問題,國內曾有團隊開源了支持中文的stable diffusion 模型——“太乙 Stable Diffusion”。但經測試發現,太乙Stable Diffusion雖然能夠理解中文獨特的文化表達,但語義理解方面仍有所欠缺,會給出與輸入prompt不匹配的圖片。

        如輸入:霧氣彌漫的森林,中世紀風格霍比特人村莊

        太乙 Stable Diffusion(左)與盜夢師(右)對比

        而且無論對于哪種模型,圖片質量的好壞都與輸入的關鍵詞密切相關,專業、適當的輸入詞需要用戶有大量的經驗,新手往往用戶難以克服。

        因此,改變模型是一切問題的根本解。

        盜夢師改變了什么

        如上文所說,文生圖效果由模型的圖像生成能力與自然語言理解能力共同決定。于是,盜夢師團隊在訓練圖像生成能力的同時著重加強了機器理解層的能力,使自己區別于市面上的其他平臺。

        在圖像生成方面,盜夢師根據過往在AI生成領域積累的經驗,在前期做了大量科研和訓練工作。并且使用了與Stable Diffusion不同的訓練方案,使得盜夢師生成的圖片更加精細,不會產生截斷等問題。

        原生 Stable -Diffusion(左)與盜夢師(右)對比

        在語義理解方面,依賴于西湖心辰在NLP領域的大量技術與數據積累,盜夢師自有模型不僅能更好地理解用戶輸入詞,還擴大了原生Stable Diffusion的文本長度限制,支持更長的文本輸入。

        此外,針對不懂得如何撰寫關鍵詞的新用戶,盜夢師還開發了“夢境增強模式”,可以對用戶的輸入詞做聯想增強,幫助新手畫師更輕易地畫出驚艷的圖片。

        夢境增強前(左)與夢境增強后(右)對比

        當然,盜夢師目前仍然存在一些業內普遍的待解決的問題,比如眾所周知的AI畫手、AI吃面畫的缺陷

        在藍振忠看來,目前AI繪畫仍處于早期階段,雖然目前的圖片生成 AI 能力確實到達了歷史上的峰值,但還是需要更大的規模的數據以及更長時間的訓練。

        持續迭代后的AI,繪畫速度會更快,可以及時調控的能力也會更強。以盜夢師自我進修的速度和深度來看,我們有理由相信它將是未來引領 AIGC 潮流的先鋒。

        關鍵詞: Stable Diffusion

        責任編輯:hnmd003

        相關閱讀

        相關閱讀

        推薦閱讀

        亚洲理论片在线观看| 午夜亚洲福利在线老司机| 国产亚洲中文日本不卡二区| 亚洲AV无码成人精品区在线观看 | 亚洲一本到无码av中文字幕| 亚洲国产高清视频在线观看| 久久久久亚洲av无码专区导航 | 亚洲一区精彩视频| 亚洲人成网站色在线观看| 色噜噜亚洲男人的天堂| 亚洲精品美女网站| 狠狠色伊人亚洲综合网站色| 亚洲日韩精品无码专区加勒比| 亚洲欧美日韩自偷自拍| 亚洲av无码专区在线观看下载| 久久亚洲欧美国产精品| 国产精品亚洲一区二区三区久久 | 亚洲国产精品无码第一区二区三区| 国产 亚洲 中文在线 字幕| 亚洲愉拍一区二区三区| 亚洲精品自偷自拍无码| 毛片亚洲AV无码精品国产午夜| 国产精品亚洲а∨无码播放麻豆| 婷婷亚洲综合五月天小说在线| 天堂亚洲免费视频| 国产亚洲?V无码?V男人的天堂| 亚洲人成网亚洲欧洲无码久久| 久久精品国产亚洲沈樵| 亚洲资源在线观看| 亚洲专区中文字幕| 亚洲乱妇熟女爽到高潮的片| WWW亚洲色大成网络.COM | 亚洲美女中文字幕| 亚洲国产乱码最新视频| 亚洲av无码成人精品区一本二本| 亚洲成A人片在线观看中文| 国产gv天堂亚洲国产gv刚刚碰| 亚洲av无码乱码国产精品fc2| 久久亚洲熟女cc98cm| 国产精品亚洲午夜一区二区三区| 亚洲国产精品99久久久久久|