7 月 4 日消息,今日,騰訊混元文生圖大模型(混元 DiT)宣布開源小顯存版本,僅需 6G 顯存即可運行,對使用個人電腦本地部署的開發(fā)者十分友好,該版本與 LoRA、ControlNet 等插件,都已適配至 Diffusers 庫;并新增對 Kohya 圖形化界面的支持,讓開發(fā)者可以低門檻地訓(xùn)練個性化 LoRA 模型;同時,混元 DiT 模型升級至 1.2 版本,在圖片質(zhì)感與構(gòu)圖方面均有所提升。
此外,騰訊宣布混元文生圖打標(biāo)模型”混元 Captioner“正式對外開源。該模型支持中英文雙語,針對文生圖場景進(jìn)行專門優(yōu)化,可幫助開發(fā)者快速制作高質(zhì)量的文生圖數(shù)據(jù)集。
騰訊混元 DiT 模型宣布了三大更新:推出小顯存版本與 Kohya 訓(xùn)練界面,并升級至1.2版本,進(jìn)一步降低使用門檻的同時提升圖片質(zhì)量。
基于 DiT 架構(gòu)的文生圖模型生成圖片質(zhì)感更佳,但對顯存的要求卻非常高,讓許多開發(fā)者望而卻步。這也是新版本 Stable Diffusion 模型無法快速普及的原因之一。
在提升模型易用性的同時,騰訊混元團(tuán)隊也在開放更多的關(guān)鍵技術(shù),包括此前的訓(xùn)練代碼,最新的打標(biāo)模型混元 Captioner。
本文鏈接:http://m.zh1234.com/news11800.html騰訊混元DiT再升級:推出6G小顯存版本