De acordo com a notícia da IT House em 28 de junho, pesquisadores do Max Planck Institute of Computer Science, MIT CSAIL e Google estudaram recentemente um novo método de controle de GAN chamado DragGAN, basta clicar e arrastar para ajustar rapidamente o assunto da posição da foto, postura, expressão, tamanho e ângulo, etc. Atualmente, o projeto é de código aberto no GitHub. Os pesquisadores dizem que seu método supera o SOTA em operações baseadas em GAN e abre novas direções para a edição de imagens. Nos próximos meses, eles esperam estender a edição baseada em pontos para modelos generativos 3D.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
De acordo com a notícia da IT House em 28 de junho, pesquisadores do Max Planck Institute of Computer Science, MIT CSAIL e Google estudaram recentemente um novo método de controle de GAN chamado DragGAN, basta clicar e arrastar para ajustar rapidamente o assunto da posição da foto, postura, expressão, tamanho e ângulo, etc. Atualmente, o projeto é de código aberto no GitHub. Os pesquisadores dizem que seu método supera o SOTA em operações baseadas em GAN e abre novas direções para a edição de imagens. Nos próximos meses, eles esperam estender a edição baseada em pontos para modelos generativos 3D.