Microsoft ajoutera un filigrane au contenu généré par l'IA pour lutter contre les deepfakes

Avec de plus en plus d'images et de vidéos "deep fake" émergeant, Microsoft a décidé de prendre des mesures proactives pour s'assurer que son art d'IA généré de manière procédurale puisse être identifié, a rapporté le Financial Associated Press le 24 mai. Lors de la conférence des développeurs Build 2023 de Microsoft, la société a annoncé qu'elle ajouterait une fonctionnalité dans les mois à venir qui permettra à quiconque d'identifier si une image ou un clip vidéo généré par Bing Image Creator et Microsoft Designer a été généré par AI. Microsoft affirme que la technologie utilise des méthodes cryptographiques pour marquer et signer le contenu généré par l'IA, ainsi que des informations de métadonnées sur son origine. Microsoft affirme que la fonctionnalité fonctionnera avec les "principaux formats d'image et de vidéo" pris en charge par ses deux programmes de génération de contenu d'IA, mais n'a pas annoncé les formats qu'elle prend en charge.

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)