De acordo com a notícia da IT House em 28 de junho, pesquisadores do Max Planck Institute of Computer Science, MIT CSAIL e Google estudaram recentemente um novo método de controle de GAN chamado DragGAN, basta clicar e arrastar para ajustar rapidamente o assunto da posição da foto, postura, expressão, tamanho e ângulo, etc. Atualmente, o projeto é de código aberto no GitHub. Os pesquisadores dizem que seu método supera o SOTA em operações baseadas em GAN e abre novas direções para a edição de imagens. Nos próximos meses, eles esperam estender a edição baseada em pontos para modelos generativos 3D.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
De acordo com a notícia da IT House em 28 de junho, pesquisadores do Max Planck Institute of Computer Science, MIT CSAIL e Google estudaram recentemente um novo método de controle de GAN chamado DragGAN, basta clicar e arrastar para ajustar rapidamente o assunto da posição da foto, postura, expressão, tamanho e ângulo, etc. Atualmente, o projeto é de código aberto no GitHub. Os pesquisadores dizem que seu método supera o SOTA em operações baseadas em GAN e abre novas direções para a edição de imagens. Nos próximos meses, eles esperam estender a edição baseada em pontos para modelos generativos 3D.