Les visages photoréalistes dans les jeux vidéo nous accompagnent depuis un certain temps, mais ils sont encore loin de ce que vous appelleriez réaliste, alors que les polygones et la texture sont presque parfaits, les animations faciales restent bloquées dans les profondeurs de l’étrange vallée.
Il ne s’agit pas de faire chier les animateurs et les modélisateurs – imiter les nuances des expressions faciales humaines est clairement un travail très difficile, et les équipes ont parcouru un long chemin depuis Oeil doré à Half Life 2 à Yakuza– mais c’est comme ça. Des progrès sont encore en cours, cependant, et bien que nous nous soyons tous habitués à accepter le fait que les personnages de jeux vidéo peuvent avoir l’air un peu réels jusqu’à ce qu’ils ouvrent la bouche ou essaient d’avoir peur, nous allons arriver un jour au point où le l’étrange vallée est comblé, et ils ont simplement faire avoir l’air réel.
C’est une façon d’y arriver. Vous regardez le travail du studio VFX Ziva Dynamics, dont les exemples basés sur Unreal Engine montrent ici la création d’une technologie d’animation faciale capable de réaliser des choses vraiment exceptionnelles. À titre d’exemple, regardez le modèle sur la gauche généré à partir de la capture en temps réel sur la droite :
Ce truc en temps réel a l’air bien, excellent même, mais pas non plus cette bien au-delà de ce à quoi nous sommes habitués en ce moment. Maintenant, regardez ce qui se passe lorsque vous exécutez le même modèle à travers quelques téraoctets de données de référence et que vous le transmettez par un apprentissage de l’IA :
Putain de merde. Alors que Ziva travaille dans l’ensemble de l’industrie du divertissement, de la télévision au cinéma, cette technologie a en particulier l’industrie du jeu à l’esprit, car elle permettrait aux développeurs d’introduire toute une gamme d’émotions faciales difficiles, voire impossibles à faire passer pour le moment en utilisant seulement expressions.
Pour un exemple un peu plus technique, voici une bande-annonce de l’entreprise axée sur l’industrie, qui montre à la fin l’un des effets secondaires les plus prometteurs de l’approche utilisée : qu’elle peut fonctionner à travers les ethnies et même les espèces (fictives) :
.
Les visages photoréalistes dans les jeux vidéo nous accompagnent depuis un certain temps, mais ils sont encore loin de ce que vous appelleriez réaliste, alors que les polygones et la texture sont presque parfaits, les animations faciales restent bloquées dans les profondeurs de l’étrange vallée.
Il ne s’agit pas de faire chier les animateurs et les modélisateurs – imiter les nuances des expressions faciales humaines est clairement un travail très difficile, et les équipes ont parcouru un long chemin depuis Oeil doré à Half Life 2 à Yakuza– mais c’est comme ça. Des progrès sont encore en cours, cependant, et bien que nous nous soyons tous habitués à accepter le fait que les personnages de jeux vidéo peuvent avoir l’air un peu réels jusqu’à ce qu’ils ouvrent la bouche ou essaient d’avoir peur, nous allons arriver un jour au point où le l’étrange vallée est comblé, et ils ont simplement faire avoir l’air réel.
C’est une façon d’y arriver. Vous regardez le travail du studio VFX Ziva Dynamics, dont les exemples basés sur Unreal Engine montrent ici la création d’une technologie d’animation faciale capable de réaliser des choses vraiment exceptionnelles. À titre d’exemple, regardez le modèle sur la gauche généré à partir de la capture en temps réel sur la droite :
Ce truc en temps réel a l’air bien, excellent même, mais pas non plus cette bien au-delà de ce à quoi nous sommes habitués en ce moment. Maintenant, regardez ce qui se passe lorsque vous exécutez le même modèle à travers quelques téraoctets de données de référence et que vous le transmettez par un apprentissage de l’IA :
Putain de merde. Alors que Ziva travaille dans l’ensemble de l’industrie du divertissement, de la télévision au cinéma, cette technologie a en particulier l’industrie du jeu à l’esprit, car elle permettrait aux développeurs d’introduire toute une gamme d’émotions faciales difficiles, voire impossibles à faire passer pour le moment en utilisant seulement expressions.
Pour un exemple un peu plus technique, voici une bande-annonce de l’entreprise axée sur l’industrie, qui montre à la fin l’un des effets secondaires les plus prometteurs de l’approche utilisée : qu’elle peut fonctionner à travers les ethnies et même les espèces (fictives) :
. — to kotaku.com