Magazine Gadgets

3 méthodologies pour la détection et la capture automatisées des points forts des jeux vidéo – TechCrunch

Publié le 11 septembre 2021 par Mycamer

Nathan Babcock
Donateur

Nathan Babcock est informaticien et rédacteur indépendant à Chicago et co-fondateur d’une startup de détection automatisée des surbrillances. Coupez-le.

Benjamin Clingan
Donateur

Benjamin Clingan est un développeur de logiciels spécialisé dans les back-ends Python, la finance, les réseaux de neurones génétiques et d’autres stratégies d’apprentissage automatique et co-fondateur d’une startup de détection automatisée des surbrillances. Coupez-le.

Avec la montée de la diffusion en direct, le jeu est passé d’un produit de consommation ressemblant à un jouet à une plate-forme et à un support légitimes à part entière pour le divertissement et la compétition.

La base de téléspectateurs de Twitch à elle seule est passée de 250 000 téléspectateurs simultanés moyens à plus de 3 millions depuis son acquisition par Amazon en 2014. Des concurrents comme Facebook Gaming et YouTube Live suivent des trajectoires similaires.

L’explosion du nombre de téléspectateurs a alimenté un écosystème de produits de support alors que les streamers professionnels d’aujourd’hui poussent la technologie à ses limites pour augmenter la valeur de production de leur contenu et automatiser les aspects répétitifs du cycle de production vidéo.

Les plus grands streamers embauchent des équipes de monteurs vidéo et de gestionnaires de réseaux sociaux, mais les streamers en pleine croissance et à temps partiel ont du mal à le faire eux-mêmes ou à trouver l’argent pour l’externaliser.

Le jeu en streaming en ligne est une corvée, avec des créateurs à temps plein qui réalisent des performances de huit, voire 12 heures par jour. Dans le but de capter l’attention des téléspectateurs, les flux marathon de 24 heures ne sont pas rares non plus.

Cependant, ces heures devant la caméra et le clavier ne représentent que la moitié du flux de streaming. Maintenir une présence constante sur les réseaux sociaux et YouTube alimente la croissance de la chaîne de diffusion en continu et attire davantage de téléspectateurs pour regarder une diffusion en direct, où ils peuvent acheter des abonnements mensuels, faire un don et regarder des publicités.

Distiller les cinq à 10 minutes de contenu les plus percutantes sur huit heures ou plus de vidéo brute devient un engagement de temps non négligeable. Au sommet de la chaîne alimentaire, les plus grands streamers peuvent embaucher des équipes de monteurs vidéo et de gestionnaires de réseaux sociaux pour s’attaquer à cette partie du travail, mais les streamers en pleine croissance et à temps partiel ont du mal à trouver le temps de le faire eux-mêmes ou de trouver le de l’argent pour l’externaliser. Il n’y a pas assez de minutes dans la journée pour examiner attentivement toutes les images en plus des autres priorités de la vie et du travail.

Analyse de la vision par ordinateur de l’interface utilisateur du jeu

Une solution émergente consiste à utiliser des outils automatisés pour identifier les moments clés dans une diffusion plus longue. Plusieurs startups rivalisent pour dominer ce créneau émergent. Les différences dans leurs approches pour résoudre ce problème sont ce qui différencie les solutions concurrentes les unes des autres. Beaucoup de ces approches suivent une dichotomie informatique classique entre matériel et logiciel.

Athénascope a été l’une des premières entreprises à mettre en œuvre ce concept à grande échelle. Soutenu par un financement de 2,5 millions de dollars en capital-risque et une équipe impressionnante d’anciens élèves de la Silicon Valley Big Tech, Athenascope a développé un système de vision par ordinateur pour identifier les clips phares dans les enregistrements plus longs.

En principe, ce n’est pas si différent du fonctionnement des voitures autonomes, mais au lieu d’utiliser des caméras pour lire les panneaux de signalisation et les feux de circulation à proximité, l’outil capture l’écran du joueur et reconnaît les indicateurs dans l’interface utilisateur du jeu qui communiquent les événements importants qui se produisent dans- jeu : victoires et morts, buts et arrêts, victoires et défaites.

Ce sont les mêmes repères visuels qui informent traditionnellement le joueur du jeu ce qui se passe dans le jeu. Dans les interfaces utilisateur de jeu modernes, ces informations sont à contraste élevé, claires et non obscurcies, et généralement situées à des emplacements fixes et prévisibles sur l’écran à tout moment. Cette prévisibilité et cette clarté se prêtent extrêmement bien aux techniques de vision par ordinateur telles que la reconnaissance optique de caractères (OCR) – la lecture de texte à partir d’une image.

Les enjeux ici sont également inférieurs à ceux des voitures autonomes, car un faux positif de ce système ne produit rien de plus qu’un clip vidéo moins excitant que la moyenne – pas un accident de voiture.

Nathan Babcock
Donateur

Nathan Babcock est informaticien et rédacteur indépendant à Chicago et co-fondateur d’une startup de détection automatisée des surbrillances. Coupez-le.

Benjamin Clingan
Donateur

Benjamin Clingan est un développeur de logiciels spécialisé dans les back-ends Python, la finance, les réseaux de neurones génétiques et d’autres stratégies d’apprentissage automatique et co-fondateur d’une startup de détection automatisée des surbrillances. Coupez-le.

Avec la montée de la diffusion en direct, le jeu est passé d’un produit de consommation ressemblant à un jouet à une plate-forme et à un support légitimes à part entière pour le divertissement et la compétition.

La base de téléspectateurs de Twitch à elle seule est passée de 250 000 téléspectateurs simultanés moyens à plus de 3 millions depuis son acquisition par Amazon en 2014. Des concurrents comme Facebook Gaming et YouTube Live suivent des trajectoires similaires.

L’explosion du nombre de téléspectateurs a alimenté un écosystème de produits de support alors que les streamers professionnels d’aujourd’hui poussent la technologie à ses limites pour augmenter la valeur de production de leur contenu et automatiser les aspects répétitifs du cycle de production vidéo.

Les plus grands streamers embauchent des équipes de monteurs vidéo et de gestionnaires de réseaux sociaux, mais les streamers en pleine croissance et à temps partiel ont du mal à le faire eux-mêmes ou à trouver l’argent pour l’externaliser.

Le jeu en streaming en ligne est une corvée, avec des créateurs à temps plein qui réalisent des performances de huit, voire 12 heures par jour. Dans le but de capter l’attention des téléspectateurs, les flux marathon de 24 heures ne sont pas rares non plus.

Cependant, ces heures devant la caméra et le clavier ne représentent que la moitié du flux de streaming. Maintenir une présence constante sur les réseaux sociaux et YouTube alimente la croissance de la chaîne de diffusion en continu et attire davantage de téléspectateurs pour regarder une diffusion en direct, où ils peuvent acheter des abonnements mensuels, faire un don et regarder des publicités.

Distiller les cinq à 10 minutes de contenu les plus percutantes sur huit heures ou plus de vidéo brute devient un engagement de temps non négligeable. Au sommet de la chaîne alimentaire, les plus grands streamers peuvent embaucher des équipes de monteurs vidéo et de gestionnaires de réseaux sociaux pour s’attaquer à cette partie du travail, mais les streamers en pleine croissance et à temps partiel ont du mal à trouver le temps de le faire eux-mêmes ou de trouver le de l’argent pour l’externaliser. Il n’y a pas assez de minutes dans la journée pour examiner attentivement toutes les images en plus des autres priorités de la vie et du travail.

Analyse de la vision par ordinateur de l’interface utilisateur du jeu

Une solution émergente consiste à utiliser des outils automatisés pour identifier les moments clés dans une diffusion plus longue. Plusieurs startups rivalisent pour dominer ce créneau émergent. Les différences dans leurs approches pour résoudre ce problème sont ce qui différencie les solutions concurrentes les unes des autres. Beaucoup de ces approches suivent une dichotomie informatique classique entre matériel et logiciel.

Athénascope a été l’une des premières entreprises à mettre en œuvre ce concept à grande échelle. Soutenu par un financement de 2,5 millions de dollars en capital-risque et une équipe impressionnante d’anciens élèves de la Silicon Valley Big Tech, Athenascope a développé un système de vision par ordinateur pour identifier les clips phares dans les enregistrements plus longs.

En principe, ce n’est pas si différent du fonctionnement des voitures autonomes, mais au lieu d’utiliser des caméras pour lire les panneaux de signalisation et les feux de circulation à proximité, l’outil capture l’écran du joueur et reconnaît les indicateurs dans l’interface utilisateur du jeu qui communiquent les événements importants qui se produisent dans- jeu : victoires et morts, buts et arrêts, victoires et défaites.

Ce sont les mêmes repères visuels qui informent traditionnellement le joueur du jeu ce qui se passe dans le jeu. Dans les interfaces utilisateur de jeu modernes, ces informations sont à contraste élevé, claires et non obscurcies, et généralement situées à des emplacements fixes et prévisibles sur l’écran à tout moment. Cette prévisibilité et cette clarté se prêtent extrêmement bien aux techniques de vision par ordinateur telles que la reconnaissance optique de caractères (OCR) – la lecture de texte à partir d’une image.

Les enjeux ici sont également inférieurs à ceux des voitures autonomes, car un faux positif de ce système ne produit rien de plus qu’un clip vidéo moins excitant que la moyenne – pas un accident de voiture.

— to techcrunch.com


Retour à La Une de Logo Paperblog

A propos de l’auteur


Mycamer Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte

Magazines