Microsoft marcará conteúdo gerado por IA para combater deepfakes

Com cada vez mais imagens e vídeos "deep fake" surgindo, a Microsoft decidiu tomar medidas proativas para garantir que sua arte de IA gerada processualmente possa ser identificada, informou a Financial Associated Press em 24 de maio. Na conferência de desenvolvedores Build 2023 da Microsoft, a empresa anunciou que adicionará um recurso nos próximos meses que permitirá a qualquer pessoa identificar se uma imagem ou videoclipe gerado pelo Bing Image Creator e Microsoft Designer foi gerado por IA. A Microsoft diz que a tecnologia usa métodos criptográficos para marcar e assinar conteúdo gerado por IA, juntamente com informações de metadados sobre sua origem. A Microsoft diz que o recurso funcionará com “principais formatos de imagem e vídeo” suportados por seus dois programas de geração de conteúdo de IA, mas não anunciou quais formatos ele suporta.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)