Según noticias de IT House del 28 de junio, investigadores del Instituto Max Planck de Ciencias de la Computación, MIT CSAIL y Google estudiaron recientemente un nuevo método para controlar GAN llamado DragGAN, simplemente haga clic y arrastre para ajustar rápidamente el tema de la posición de la foto, postura, expresión, tamaño y ángulo, etc. El proyecto es actualmente de código abierto en GitHub. Los investigadores dicen que su método supera a SOTA en operaciones basadas en GAN y abre nuevas direcciones para la edición de imágenes. En los próximos meses, esperan extender la edición basada en puntos a modelos generativos 3D.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Según noticias de IT House del 28 de junio, investigadores del Instituto Max Planck de Ciencias de la Computación, MIT CSAIL y Google estudiaron recientemente un nuevo método para controlar GAN llamado DragGAN, simplemente haga clic y arrastre para ajustar rápidamente el tema de la posición de la foto, postura, expresión, tamaño y ángulo, etc. El proyecto es actualmente de código abierto en GitHub. Los investigadores dicen que su método supera a SOTA en operaciones basadas en GAN y abre nuevas direcciones para la edición de imágenes. En los próximos meses, esperan extender la edición basada en puntos a modelos generativos 3D.