Microsoft dévoile VASA-1 : l’IA sensationnelle qui fait parler les visages en photo – Quels sont les risques et les opportunités?
Le dernier exploit de Microsoft : donner la parole aux visages dans les photos
Imaginez un monde où une image fixe peut parler avec une synchronisation labiale précise et reproduire les émotions humaines. Microsoft l’a rendu possible avec son nouveau modèle d’intelligence artificielle, VASA-1. Ce modèle peut transformer une simple photographie et un enregistrement audio en un personnage virtuel capable de parler. Il n’a été que brièvement présenté par Microsoft, évoquant des préoccupations quant à son utilisation abusive potentielle.
VASA-1 n’est pas le premier outil de ce type. D’autres entreprises, comme Elai et Synthesia, proposent également des plateformes de génération d’avatar virtuel. Cependant, aucune d’entre elles n’a réussi à atteindre le niveau de réalisme que Microsoft a pu incorporer dans VASA-1. Ce dernier peut créer des « compagnons virtuels » avec une gamme de nuances faciales et des mouvements de tête incroyablement réalistes.
Microsoft pousse les limites du réalisme avec VASA-1
VASA-1 est capable de générer des vidéos de visages homogènes avec une résolution de 512×512 à une fréquence de 45 images par seconde. Et cela, pour une durée maximale d’une minute. Ce qui distingue VASA-1, c’est qu’il peut traiter des photos artistiques et des pistes audio qui n’ont pas été incluses dans ses données d’entraînement. Cela a permis à l’équipe de Microsoft de produire une vidéo où la Joconde, la célèbre peinture de Léonard De Vinci, chante une version parodique de la chanson « Paparazzi ».
Les capacités techniques de VASA-1 sont impressionnantes, mais elles suscitent également des inquiétudes éthiques. La possibilité d’utiliser cette technologie de manière abusive, notamment pour créer des deepfakes ou du contenu trompeur, est un problème reconnu par les chercheurs de Microsoft.
Les implications éthiques de VASA-1
Avec l’essor des technologies d’IA, les questions éthiques se multiplient. Microsoft est conscient de ces problèmes avec VASA-1. Bien que l’outil puisse être utilisé pour des applications bénéfiques, comme l’amélioration de l’éducation et l’accessibilité pour les personnes ayant des difficultés de communication, il y a aussi un risque de mauvaise utilisation. À cause de cela, Microsoft a décidé de garder le contrôle sur sa technologie pour le moment.
La décision de Microsoft de ne pas publier VASA-1 au public est une mesure préventive. Ils veulent s’assurer que la technologie est utilisée de manière responsable et conforme aux réglementations en vigueur. Cela montre l’importance de la responsabilité et de l’éthique dans le développement et l’application de nouvelles technologies d’IA.
Voici quelques points clés sur VASA-1 de Microsoft :
- Il peut donner la parole à des images fixes avec un niveau de réalisme sans précédent.
- Il peut créer des « compagnons virtuels » avec une gamme de nuances faciales et des mouvements de tête très réalistes.
- Il a la capacité de traiter des photos artistiques et des pistes audio qui n’ont pas été incluses dans ses données d’entraînement.
- Il y a des préoccupations éthiques quant à son utilisation abusive potentielle, notamment pour créer des deepfakes ou du contenu trompeur.
- Microsoft a décidé de garder le contrôle sur VASA-1 pour le moment, afin de garantir son utilisation responsable et conforme aux réglementations en vigueur.