Generación de imágenes con Diffusers#
En este cuaderno, exploraremos cómo utilizar modelos de difusión con la biblioteca Diffusers de Hugging Face. Dado que estos modelos requieren muchos recursos computacionales, nos limitaremos a un ejemplo sencillo con un modelo ligero.
Implementación#
Utilizaremos el modelo small-stable-diffusion desarrollado por OFA-Sys (OFA-Sys/small-stable-diffusion-v0).
from diffusers import DiffusionPipeline
diffuser = DiffusionPipeline.from_pretrained("OFA-Sys/small-stable-diffusion-v0") #"stabilityai/sdxl-turbo"
vae/diffusion_pytorch_model.safetensors not found
Loading pipeline components...: 29%|██▊ | 2/7 [00:01<00:03, 1.48it/s]The config attributes {'predict_epsilon': True} were passed to DPMSolverMultistepScheduler, but are not expected and will be ignored. Please verify your scheduler_config.json configuration file.
Loading pipeline components...: 100%|██████████| 7/7 [00:01<00:00, 4.05it/s]
La generación puede tardar unos minutos, dependiendo de las capacidades de tu computadora.
outputAutre=diffuser("A car in the winter")
100%|██████████| 50/50 [03:01<00:00, 3.63s/it]
import matplotlib.pyplot as plt
print(outputAutre.images[0])
plt.imshow(outputAutre.images[0])
plt.axis("off")
plt.show()
<PIL.Image.Image image mode=RGB size=512x512 at 0x733D54E7F210>
Ahora sabes cómo generar imágenes utilizando la biblioteca Diffusers de Hugging Face.
Para profundizar: Si deseas aprender más sobre las aplicaciones de los modelos de difusión, te recomiendo el curso gratuito “Prompt Engineering for Vision Models” en deeplearning.ai. Allí descubrirás cómo reemplazar objetos en una imagen utilizando SAM y un modelo de difusión.