圖像生成模型 Stable Diffusion 現已開源
Stable Diffusion 是一個「文本到圖像」的人工智慧模型。近日,Stable AI 公司向公眾開放了它的預訓練模型權重。當輸入一個文字描述時,Stable Diffusion 可以生成 512×512 像素的圖像,這些圖像如相片般真實,反映了文字描述的場景。
這個項目先是經歷了早期的代碼發布,而後又向研究界有限制地發布了模型權重,現在模型權重已經向公眾開放。對於最新版本,任何人都可以在為普通消費者設計的硬體上下載和使用 Stable Diffusion。該模型不僅支持文本到圖像的生成,而且還支持圖像到圖像的風格轉換和放大。與之一同發布的還有 DreamStudio 測試版,這是一個用於該模型的 API 和 Web 用戶界面。
Stable AI 公司表示:
「Stable Diffusion 是一個文本到圖像的模型,它將使數十億人在幾秒鐘內創造出令人驚嘆的藝術。它在速度和質量上的突破意味著它可以在消費者級的 GPU 上運行。這將允許研究人員和公眾在一系列條件下運行它,並使圖像生成普及化。我們期待著有圍繞這個模型和其他模型的開放生態系統出現,以真正探索潛伏空間的邊界。」
Latent Diffusion 模型(LDM)是 Stable Diffusion 模型建立的一種圖像生成方法。LDM 通過在 潛伏表示空間 中迭代「去噪」輸入來創建圖像,然後將表示解碼為完整的圖像,這與其他著名的圖像合成技術,如生成對抗網路(GAN)和 DALL-E 採用的自動回歸方法不同。最近的 IEEE/CVF 計算機視覺和模式識別會議(CVPR)上有一篇關於 LDM 的論文,它是由慕尼黑路德維希-馬克西米利安大學的機器視覺和學習研究小組創建的。今年早些時候,InfoQ 也報道的另一個基於擴散的圖片生成 AI 是谷歌的 Imagen 模型。
Stable Diffusion 可以支持眾多的操作。與 DALL-E 類似,它可以生成一個高質量的圖像,並使其完全符合所需圖像的文字描述。我們也可以使用一個直觀的草圖和所需圖像的文字描述,從而創建一個看起來很真實的圖像。類似的「圖像到圖像」的能力可以在 Meta AI 的 Make-A-Scene 模型中找到,該模型剛發布不久。
一些人公開分享了 Stable Diffusion 創建的照片的例子,Stable AI 的首席開發人員 Katherine Crowson 也在 Twitter 上分享了許多照片。毫無疑問,基於人工智慧的圖片合成技術將對藝術家和藝術界產生影響,這令一些觀察家感到擔憂。值得注意的是,在 Stable Diffusion 發布的同一周,一幅由人工智慧生成的作品在科羅拉多州博覽會的藝術競賽中獲得了最高榮譽。
Stable Diffusion 的源代碼可以在 GitHub 上查閱。
via: https://www.opensourceforu.com/2022/09/image-generation-model-stable-diffusion-is-now-open-source/
作者:Laveesh Kocher 選題:lkxed 譯者:lkxed 校對:wxy
本文轉載來自 Linux 中國: https://github.com/Linux-CN/archive