首頁 > 新聞 > 智能 > 正文

        熱門:用 GPT-4 實(shí)現(xiàn)可控文本圖像生成,UC 伯克利 & 微軟提出新框架 Control-GPT

        2023-05-31 13:11:32來源:ZAKER科技  

        機(jī)器之心報(bào)道


        (相關(guān)資料圖)

        編輯:小舟、梓文

        擴(kuò)散模型雖好,但如何保證生成的圖像準(zhǔn)確高質(zhì)量?GPT-4 或許能幫上忙。

        文本到圖像生成領(lǐng)域近兩年取得了很大的突破,從 GAN 到 Stable Diffusion,圖像生成的速度越來越快,生成效果越來越好。然而,AI 模型生成的圖像在細(xì)節(jié)上還有很多瑕疵,并且使用自然語言指定對象的確切位置、大小或形狀存在一定的困難。為了生成精準(zhǔn)、高質(zhì)量的圖像,現(xiàn)有方法通常依賴于廣泛的提 prompt 工程或手動創(chuàng)建圖像草圖。這些方法需要大量的人工工作,因此非常低效。

        最近,來自加州大學(xué)伯克利分校(UC 伯克利)和微軟研究院的研究者從編程的角度思考了這個問題。當(dāng)前,用戶能夠使用大型語言模型較好地控制代碼生成,這讓該研究看到了編寫程序來控制生成圖像細(xì)節(jié)的可能,包括物體的形狀、大小、位置等等。基于此,該研究提出利用大型語言模型(LLM)生成代碼的功能實(shí)現(xiàn)可控型文本到圖像生成。

        論文地址:https://arxiv.org/pdf/2305.18583.pdf

        該研究提出了一個簡單而有效的框架 Control-GPT,它利用 LLM 的強(qiáng)大功能根據(jù)文本 prompt 生成草圖。Control-GPT 的工作原理是首先使用 GPT-4 生成 TikZ 代碼形式的草圖。如下圖 1 ( c ) 所示,程序草圖(programmatic sketch)是按照準(zhǔn)確的文本說明繪制的,隨后這些草圖被輸入 Control-GPT。Control-GPT 是 Stable Diffusion 的一種變體,它能接受額外的輸入,例如參考圖像、分割圖等等。這些草圖會充當(dāng)擴(kuò)散模型的參考點(diǎn),使擴(kuò)散模型能夠更好地理解空間關(guān)系和特殊概念,而不是僅僅依賴于文本 prompt。這種方法使得 prompt 工程和草圖創(chuàng)建過程不再需要人為干預(yù),并提高了擴(kuò)散模型的可控性。

        我們來看一下 Control-GPT 方法的具體細(xì)節(jié)。

        方法

        對圖像生成來說,訓(xùn)練過程的一個較大挑戰(zhàn)是缺乏包含對齊文本和圖像的數(shù)據(jù)集。為了解決這個難題,該研究將現(xiàn)有實(shí)例分割數(shù)據(jù)集(例如 COCO 和 LVIS)中的實(shí)例掩碼轉(zhuǎn)換為多邊形的表示形式,這與 GPT-4 生成的草圖類似。

        然后,該研究構(gòu)建了一個包含圖像、文本描述和多邊形草圖的三元數(shù)據(jù)集,并微調(diào)了 ControlNet。該研究發(fā)現(xiàn)這種方法有助于更好地理解 GPT 生成的草圖,并且可以幫助模型更好地遵循文本 prompt 指令。

        ControlNet 是擴(kuò)散模型的一種變體,它需要額外的輸入條件。該研究使用 ControlNet 作為基礎(chǔ)圖像生成模型,并通過編程草圖和 grounding token 的路徑對其進(jìn)行擴(kuò)展。

        框架

        如下圖 2 所示,在 Control-GPT 中,首先 GPT-4 會根據(jù)文本描述生成 TikZ 代碼形式的草圖,并輸出圖像中物體的位置。然后該研究用 LATEX 編譯 TikZ 代碼,將草圖轉(zhuǎn)換為圖像格式,再將編程草圖、文本描述和物體位置的 grounding token 提供給經(jīng)過調(diào)優(yōu)的 ControlNet 模型,最終生成符合條件的圖像。

        使用 GPT-4 生成的草圖訓(xùn)練 ControlNet 是必要的,因?yàn)轭A(yù)訓(xùn)練的 ControlNet 不理解生成的草圖,不能將其轉(zhuǎn)換為現(xiàn)實(shí)圖像。為了 prompt GPT-4,該研究要求用戶遵循如下的 prompt 樣本,以讓 GPT-4 請求 TikZ 代碼片段的結(jié)構(gòu)化輸出,以及相關(guān)物體的名稱和位置。然后,該研究使用 GPT-4 的輸出來編譯草圖圖像并獲得 grounding token。LLM 繪制草圖的準(zhǔn)確性如何

        Control-GPT 的精度取決于 LLM 生成草圖時(shí)的準(zhǔn)確性和可控性。因此,該研究對 LLM 在草圖生成方面的性能進(jìn)行了基準(zhǔn)測試。實(shí)驗(yàn)結(jié)果表明 GPT 系列模型在草圖生成方面明顯優(yōu)于 LLaMa 等開源模型,并且 GPT-4 在遵循文本指令方面表現(xiàn)出驚人的高準(zhǔn)確性(約 97%)。

        該研究對 Control-GPT 和一些經(jīng)典模型的生成結(jié)果進(jìn)行了人工評估,結(jié)果表明當(dāng)圖像中包含兩個不相關(guān)的罕見物體組合時(shí),一些模型的生成效果比較差,而 Control-GPT 的生成結(jié)果相對較好,如下表 2 所示:

        查詢 LLMs,生成一個 TikZ 代碼片段來描述給定的文本,進(jìn)而檢查 LLMs 的性能。如下表 1 所示,GPT-series 模型的大多數(shù)代碼片段都可以編譯為有效的草圖,而 LLaMA 和 Alpaca 的輸出要么是空的,要么不可運(yùn)行。在 GPT-series 模型中,最新的 GPT-4 在 95 個查詢中只有 3 次失敗,這些查詢成功地生成了有效草圖,在遵循文本指令方面的成功率大約有 97%。ChatGPT 是 GPT-3.5 的 RLHF 微調(diào)版本,其性能明顯低于原始 GPT-3.5。在調(diào)優(yōu)過程中,聊天能力和代碼生成之間可能存在著權(quán)衡。在下圖 4 中,研究者提供了一個來自 GPT 系列模型的可視化草圖例子。雖然生成的草圖不如照片那樣逼真,但它們往往能捕捉到語義,并正確推理出物體的空間關(guān)系。生成的草圖經(jīng)常出人意料地通過簡單的代碼片斷來正確處理物體形狀。

        下圖最后一行展示了 GPT-4 的一個失敗案例,即模型無法生成物體形狀,而 GPT-3.5 卻能給出一個正確的草圖。GPT-4 在草圖生成方面的高精度帶來的啟發(fā)是:可以使用它來提高圖像生成模型的可控性。

        實(shí)驗(yàn)

        基于 Visor 數(shù)據(jù)集,研究者對 Control-GPT 進(jìn)行了一系列實(shí)驗(yàn)設(shè)置的評估,測試其在空間關(guān)系、物體位置和大小方面的可控性。他們還將評估擴(kuò)展到多個物體和分布外的 prompt。廣泛的實(shí)驗(yàn)表明,Control-GPT 可以大大提升擴(kuò)散模型的可控性。

        下表 3 中列出了定量評估結(jié)果。可以看到,Control-GPT 模型可以在給定的一些規(guī)格下更好地控制物體的大小和位置。與幾乎無法控制物體位置和尺寸的 Stable Diffusion 模型(SD-v1.5)相比,Control-GPT 將總體精度從 0% 提高到 14.18%。與現(xiàn)成的 ControlNet 相比,Control-GPT 在所有指標(biāo)上也取得了更好的表現(xiàn),獲得了從 8.46% 到 4.18% 的整體改善。這些結(jié)果展示了本文的 LLM 集成框架在更細(xì)化和精確控制圖像生成過程方面的潛力。

        視覺化。下圖 6 展示了定性評估結(jié)果,可以看到,ControlGPT 可以按照物體位置和尺寸的規(guī)范繪制物體。相比之下,ControlNet 也能遵循,但卻很難生成正確的物體,而 Stable Diffusion 則無法遵循規(guī)范。對空間關(guān)系的消融實(shí)驗(yàn)。研究者還探討了模型是否對不同類型的空間關(guān)系(如左 / 右 / 上 / 下)有偏好,作為空間關(guān)系基準(zhǔn)分析的一部分。從下表 4 中可以看出,Control-GPT 在 Visor Score 和物體準(zhǔn)確性方面一直比所有的基線模型工作得更好。多個物體之間的關(guān)系。研究者對 Control-GPT 生成多個物體的能力進(jìn)行了進(jìn)一步的評估,這些物體的空間關(guān)系由 prompt 指定。下圖 7 展示了一些例子,Control-GPT 能理解不同物體之間的空間關(guān)系,并在 GPT-4 的幫助下將它們放入布局中,表現(xiàn)出了更好的性能。可控性與圖像逼真度。通常,在生成逼真圖像與遵循精確布局之間往往存在著妥協(xié),特別是對于分布外的文字 prompt。如下圖 8 所示,(a)是一個例子,生成的圖像完全遵循布局,但這導(dǎo)致了圖像中的一些偽影;而在(b)中,照片往往看起來很逼真,但沒有很好地遵循草圖。更多研究細(xì)節(jié),可參考原論文。

        THE END

        轉(zhuǎn)載請聯(lián)系本公眾號獲得授權(quán)

        投稿或?qū)で髨?bào)道:content@jiqizhixin.com

        關(guān)鍵詞:

        責(zé)任編輯:hnmd003

        相關(guān)閱讀

        相關(guān)閱讀

        精彩推送

        推薦閱讀

        亚洲AV无一区二区三区久久| 亚洲av日韩av欧v在线天堂| 国产精品亚洲精品爽爽| 亚洲制服丝袜中文字幕| 亚洲精品日韩中文字幕久久久| 亚洲AV无一区二区三区久久| 国产AV无码专区亚洲A∨毛片| 国产自偷亚洲精品页65页| 国产午夜亚洲精品午夜鲁丝片| 国产成人99久久亚洲综合精品| 国产成人综合久久精品亚洲| 风间由美在线亚洲一区| 亚洲 国产 图片| 亚洲国产精品成人网址天堂| 亚洲国产精品无码久久九九| 国产福利电影一区二区三区,亚洲国模精品一区| 亚洲av无码专区在线电影| 国产亚洲一卡2卡3卡4卡新区 | 亚洲an日韩专区在线| 亚洲av日韩av无码av| 伊人久久五月丁香综合中文亚洲 | 亚洲国语在线视频手机在线| 亚洲国产成人精品电影| 亚洲人成影院在线高清| 精品国产成人亚洲午夜福利| 亚洲欧美熟妇综合久久久久 | 青草久久精品亚洲综合专区| 亚洲av成人一区二区三区在线观看 | 亚洲中文字幕无码av| 亚洲精品GV天堂无码男同| 久久亚洲精品无码av| 亚洲国产一区二区三区| 亚洲中文字幕在线观看| 亚洲AV无码码潮喷在线观看| 777亚洲精品乱码久久久久久 | 亚洲乱码一二三四五六区| 亚洲精品人成网在线播放影院| 亚洲精品GV天堂无码男同| 亚洲精品视频免费| 亚洲av综合色区| 亚洲成av人片不卡无码|