De acordo com a notícia da IT House em 28 de junho, pesquisadores do Max Planck Institute of Computer Science, MIT CSAIL e Google estudaram recentemente um novo método de controle de GAN chamado DragGAN, basta clicar e arrastar para ajustar rapidamente o assunto da posição da foto, postura, expressão, tamanho e ângulo, etc. Atualmente, o projeto é de código aberto no GitHub. Os pesquisadores dizem que seu método supera o SOTA em operações baseadas em GAN e abre novas direções para a edição de imagens. Nos próximos meses, eles esperam estender a edição baseada em pontos para modelos generativos 3D.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
De acordo com a notícia da IT House em 28 de junho, pesquisadores do Max Planck Institute of Computer Science, MIT CSAIL e Google estudaram recentemente um novo método de controle de GAN chamado DragGAN, basta clicar e arrastar para ajustar rapidamente o assunto da posição da foto, postura, expressão, tamanho e ângulo, etc. Atualmente, o projeto é de código aberto no GitHub. Os pesquisadores dizem que seu método supera o SOTA em operações baseadas em GAN e abre novas direções para a edição de imagens. Nos próximos meses, eles esperam estender a edição baseada em pontos para modelos generativos 3D.