Crédit : Pixabay/CC0 Domaine public
Les médias sociaux représentent un canal majeur pour la diffusion de fausses nouvelles et de désinformation. Cette situation s’est aggravée avec les progrès récents des outils de montage photo et vidéo et d’intelligence artificielle, qui facilitent la falsification des fichiers audiovisuels, par exemple avec les soi-disant deepfakes, qui combinent et superposent des images, des clips audio et vidéo pour créer des montages. qui ressemblent à de vraies images.
Des chercheurs des groupes K-riptographie et sécurité de l’information pour les réseaux ouverts (KISON) et Réseaux de communication et changement social (CNSC) de l’Institut interdisciplinaire Internet (IN3) de l’Universitat Oberta de Catalunya (UOC) ont lancé un nouveau projet pour développer une technologie innovante qui, utilisant l’intelligence artificielle et des techniques de dissimulation de données, devrait aider les utilisateurs à différencier automatiquement l’original de l’altéré contenu multimédia, contribuant ainsi à minimiser la rediffusion de fake news. DISSIMILAR est une initiative internationale dirigée par l’UOC et comprenant des chercheurs de l’Université de technologie de Varsovie (Pologne) et de l’Université d’Okayama (Japon).
« Le projet a deux objectifs : premièrement, fournir créateurs de contenu avec des outils pour filigraner leurs créations, rendant ainsi toute modification facilement détectable ; et deuxièmement, offrir des médias sociaux utilisateurs d’outils basés sur des méthodes de traitement du signal et d’apprentissage automatique de dernière génération pour détecter les faux contenus numériques », a expliqué le professeur David Megías, chercheur principal de KISON et directeur de l’IN3. En outre, DISSIMILAR vise à inclure « la dimension culturelle et le point de vue de la fin l’utilisateur tout au long du projet », de la conception des outils à l’étude de l’utilisabilité dans les différentes étapes.
Le danger des préjugés
Actuellement, il existe essentiellement deux types d’outils pour détecter les fausses nouvelles. Premièrement, il y a ceux qui sont automatiques et basés sur l’apprentissage automatique, dont il n’existe (actuellement) que quelques prototypes. Et, deuxièmement, il y a les plateformes de détection de fausses nouvelles impliquant une implication humaine, comme c’est le cas avec Facebook et Twitter, qui nécessitent la participation de personnes pour déterminer si un contenu spécifique est authentique ou faux. Selon David Megías, cette solution centralisée pourrait être affectée par “différents biais” et favoriser la censure. “Nous pensons qu’une évaluation objective basée sur des outils technologiques pourrait être une meilleure option, à condition que les utilisateurs aient le dernier mot pour décider, sur la base d’une pré-évaluation, s’ils peuvent ou non faire confiance à certains contenus”, a-t-il expliqué.
Pour Megías, il n’y a pas de “solution unique” capable de détecter les fausses nouvelles : la détection doit plutôt être effectuée avec une combinaison de différents outils. “C’est pourquoi nous avons choisi d’explorer la dissimulation d’informations (filigranes), les techniques d’analyse de contenu numérique (en grande partie basées sur le traitement du signal) et, cela va sans dire, l’apprentissage automatique”, a-t-il noté.
Vérification automatique des fichiers multimédia
Le tatouage numérique comprend une série de techniques dans le domaine de la dissimulation de données qui intègrent des informations imperceptibles dans le fichier d’origine pour pouvoir vérifier ” facilement et automatiquement ” un fichier multimédia. “Il peut être utilisé pour indiquer la légitimité d’un contenu en confirmant par exemple qu’une vidéo ou une photo a été diffusée par une agence de presse officielle, et peut également être utilisé comme marque d’authentification, qui serait supprimée en cas de modification de le contenu, ou pour retracer l’origine des données. En d’autres termes, il peut dire si la source de l’information (par exemple un compte Twitter) diffuse un faux contenu », a expliqué Megías.
Techniques d’analyse criminalistique du contenu numérique
Le projet combinera le développement de filigranes avec l’application de techniques d’analyse médico-légale du contenu numérique. L’objectif est de tirer parti de la technologie de traitement du signal pour détecter les distorsions intrinsèques produites par les appareils et les programmes utilisés lors de la création ou de la modification de tout fichier audiovisuel. Ces processus donnent lieu à une gamme d’altérations, telles que le bruit du capteur ou la distorsion optique, qui pourraient être détectées au moyen de modèles d’apprentissage automatique. “L’idée est que la combinaison de tous ces outils améliore les résultats par rapport à l’utilisation de solutions uniques”, a déclaré Megías.
Études avec des utilisateurs en Catalogne, en Pologne et au Japon
L’une des principales caractéristiques de DISSIMILAR est son approche “holistique” et son rassemblement des “perceptions et composantes culturelles autour des fake news”. Dans cette optique, différentes études centrées sur les utilisateurs seront réalisées, déclinées en différentes étapes. « Premièrement, nous voulons savoir comment les utilisateurs interagissent avec l’actualité, ce qui les intéresse, quels médias ils consomment, en fonction de leurs centres d’intérêt, sur quoi ils se basent pour identifier certains contenus comme fake news et ce qu’ils sont prêts à faire pour vérifier sa véracité. Si nous pouvons identifier ces choses, il sera plus facile pour les outils technologiques que nous concevons d’aider à prévenir la propagation de fausses nouvelles », a expliqué Megías.
Ces perceptions seront mesurées dans différents lieux et contextes culturels, dans des études de groupes d’utilisateurs en Catalogne, en Pologne et au Japon, afin d’intégrer leurs idiosyncrasies lors de la conception des solutions. “C’est important parce que, par exemple, chaque pays a des gouvernements et/ou des autorités publiques plus ou moins crédibles. Cela a un impact sur le suivi de l’actualité et le soutien à fausses nouvelles: si je ne crois pas à la parole des autorités, pourquoi devrais-je prêter attention à la nouvelles provenant de ces sources ? Cela s’est vu pendant la crise du COVID-19 : dans les pays où il y avait moins de confiance dans les pouvoirs publics, il y avait moins de respect pour les suggestions et les règles sur la gestion de la pandémie et la vaccination », a déclaré Andrea Rosales, chercheur au CNSC.
Un produit facile à utiliser et à comprendre
Dans la deuxième étape, les utilisateurs participeront à la conception de l’outil pour “s’assurer que le produit sera bien reçu, facile à utiliser et compréhensible”, a déclaré Andrea Rosales. “Nous aimerions qu’ils soient impliqués à nos côtés tout au long du processus jusqu’à la production du prototype final, car cela nous aidera à mieux répondre à leurs besoins et priorités et à faire ce que d’autres solutions n’ont pas pu faire”, a ajouté David Megías.
Cette acceptation par les utilisateurs pourrait à l’avenir être un facteur qui amène les plateformes de réseaux sociaux à intégrer les solutions développées dans ce projet. “Si nos expériences portent leurs fruits, ce serait formidable qu’elles intègrent ces technologies. Pour l’instant, nous serions satisfaits d’un prototype fonctionnel et d’une preuve de concept qui pourrait encourager les plateformes de médias sociaux à inclure ces technologies à l’avenir, ” a conclu David Megías.
Des recherches antérieures ont été publiées dans le Numéro spécial sur les ateliers ARES 2021.
Plus d’information:
D. Megías et al, Architecture d’un système de détection de fausses nouvelles combinant tatouage numérique, traitement du signal et apprentissage automatique, Numéro spécial sur les ateliers ARES 2021 (2022). DOI : 10.22667/JOWUA.2022.03.31.033
A. Qureshi et al, Détection de vidéos Deepfake à l’aide du filigrane numérique, Sommet et conférence annuels 2021 de l’Association Asie-Pacifique de traitement des signaux et de l’information (APSIPA ASC) (2021). ieeexplore.ieee.org/document/9689555
David Megías et al, DISSIMILAR : vers la détection de fausses nouvelles à l’aide de la dissimulation d’informations, du traitement du signal et de l’apprentissage automatique, 16e Conférence internationale sur la disponibilité, la fiabilité et la sécurité (ARES 2021) (2021). doi.org/10.1145/3465481.3470088
Fourni par Universitat Oberta de Catalunya (UOC)
Citation: Comment la technologie peut détecter les fausses nouvelles dans les vidéos (2022, 29 juin) récupéré le 29 juin 2022 sur https://techxplore.com/news/2022-06-technology-fake-news-videos.html
Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.
Crédit : Pixabay/CC0 Domaine public
Les médias sociaux représentent un canal majeur pour la diffusion de fausses nouvelles et de désinformation. Cette situation s’est aggravée avec les progrès récents des outils de montage photo et vidéo et d’intelligence artificielle, qui facilitent la falsification des fichiers audiovisuels, par exemple avec les soi-disant deepfakes, qui combinent et superposent des images, des clips audio et vidéo pour créer des montages. qui ressemblent à de vraies images.
Des chercheurs des groupes K-riptographie et sécurité de l’information pour les réseaux ouverts (KISON) et Réseaux de communication et changement social (CNSC) de l’Institut interdisciplinaire Internet (IN3) de l’Universitat Oberta de Catalunya (UOC) ont lancé un nouveau projet pour développer une technologie innovante qui, utilisant l’intelligence artificielle et des techniques de dissimulation de données, devrait aider les utilisateurs à différencier automatiquement l’original de l’altéré contenu multimédia, contribuant ainsi à minimiser la rediffusion de fake news. DISSIMILAR est une initiative internationale dirigée par l’UOC et comprenant des chercheurs de l’Université de technologie de Varsovie (Pologne) et de l’Université d’Okayama (Japon).
« Le projet a deux objectifs : premièrement, fournir créateurs de contenu avec des outils pour filigraner leurs créations, rendant ainsi toute modification facilement détectable ; et deuxièmement, offrir des médias sociaux utilisateurs d’outils basés sur des méthodes de traitement du signal et d’apprentissage automatique de dernière génération pour détecter les faux contenus numériques », a expliqué le professeur David Megías, chercheur principal de KISON et directeur de l’IN3. En outre, DISSIMILAR vise à inclure « la dimension culturelle et le point de vue de la fin l’utilisateur tout au long du projet », de la conception des outils à l’étude de l’utilisabilité dans les différentes étapes.
Le danger des préjugés
Actuellement, il existe essentiellement deux types d’outils pour détecter les fausses nouvelles. Premièrement, il y a ceux qui sont automatiques et basés sur l’apprentissage automatique, dont il n’existe (actuellement) que quelques prototypes. Et, deuxièmement, il y a les plateformes de détection de fausses nouvelles impliquant une implication humaine, comme c’est le cas avec Facebook et Twitter, qui nécessitent la participation de personnes pour déterminer si un contenu spécifique est authentique ou faux. Selon David Megías, cette solution centralisée pourrait être affectée par “différents biais” et favoriser la censure. “Nous pensons qu’une évaluation objective basée sur des outils technologiques pourrait être une meilleure option, à condition que les utilisateurs aient le dernier mot pour décider, sur la base d’une pré-évaluation, s’ils peuvent ou non faire confiance à certains contenus”, a-t-il expliqué.
Pour Megías, il n’y a pas de “solution unique” capable de détecter les fausses nouvelles : la détection doit plutôt être effectuée avec une combinaison de différents outils. “C’est pourquoi nous avons choisi d’explorer la dissimulation d’informations (filigranes), les techniques d’analyse de contenu numérique (en grande partie basées sur le traitement du signal) et, cela va sans dire, l’apprentissage automatique”, a-t-il noté.
Vérification automatique des fichiers multimédia
Le tatouage numérique comprend une série de techniques dans le domaine de la dissimulation de données qui intègrent des informations imperceptibles dans le fichier d’origine pour pouvoir vérifier ” facilement et automatiquement ” un fichier multimédia. “Il peut être utilisé pour indiquer la légitimité d’un contenu en confirmant par exemple qu’une vidéo ou une photo a été diffusée par une agence de presse officielle, et peut également être utilisé comme marque d’authentification, qui serait supprimée en cas de modification de le contenu, ou pour retracer l’origine des données. En d’autres termes, il peut dire si la source de l’information (par exemple un compte Twitter) diffuse un faux contenu », a expliqué Megías.
Techniques d’analyse criminalistique du contenu numérique
Le projet combinera le développement de filigranes avec l’application de techniques d’analyse médico-légale du contenu numérique. L’objectif est de tirer parti de la technologie de traitement du signal pour détecter les distorsions intrinsèques produites par les appareils et les programmes utilisés lors de la création ou de la modification de tout fichier audiovisuel. Ces processus donnent lieu à une gamme d’altérations, telles que le bruit du capteur ou la distorsion optique, qui pourraient être détectées au moyen de modèles d’apprentissage automatique. “L’idée est que la combinaison de tous ces outils améliore les résultats par rapport à l’utilisation de solutions uniques”, a déclaré Megías.
Études avec des utilisateurs en Catalogne, en Pologne et au Japon
L’une des principales caractéristiques de DISSIMILAR est son approche “holistique” et son rassemblement des “perceptions et composantes culturelles autour des fake news”. Dans cette optique, différentes études centrées sur les utilisateurs seront réalisées, déclinées en différentes étapes. « Premièrement, nous voulons savoir comment les utilisateurs interagissent avec l’actualité, ce qui les intéresse, quels médias ils consomment, en fonction de leurs centres d’intérêt, sur quoi ils se basent pour identifier certains contenus comme fake news et ce qu’ils sont prêts à faire pour vérifier sa véracité. Si nous pouvons identifier ces choses, il sera plus facile pour les outils technologiques que nous concevons d’aider à prévenir la propagation de fausses nouvelles », a expliqué Megías.
Ces perceptions seront mesurées dans différents lieux et contextes culturels, dans des études de groupes d’utilisateurs en Catalogne, en Pologne et au Japon, afin d’intégrer leurs idiosyncrasies lors de la conception des solutions. “C’est important parce que, par exemple, chaque pays a des gouvernements et/ou des autorités publiques plus ou moins crédibles. Cela a un impact sur le suivi de l’actualité et le soutien à fausses nouvelles: si je ne crois pas à la parole des autorités, pourquoi devrais-je prêter attention à la nouvelles provenant de ces sources ? Cela s’est vu pendant la crise du COVID-19 : dans les pays où il y avait moins de confiance dans les pouvoirs publics, il y avait moins de respect pour les suggestions et les règles sur la gestion de la pandémie et la vaccination », a déclaré Andrea Rosales, chercheur au CNSC.
Un produit facile à utiliser et à comprendre
Dans la deuxième étape, les utilisateurs participeront à la conception de l’outil pour “s’assurer que le produit sera bien reçu, facile à utiliser et compréhensible”, a déclaré Andrea Rosales. “Nous aimerions qu’ils soient impliqués à nos côtés tout au long du processus jusqu’à la production du prototype final, car cela nous aidera à mieux répondre à leurs besoins et priorités et à faire ce que d’autres solutions n’ont pas pu faire”, a ajouté David Megías.
Cette acceptation par les utilisateurs pourrait à l’avenir être un facteur qui amène les plateformes de réseaux sociaux à intégrer les solutions développées dans ce projet. “Si nos expériences portent leurs fruits, ce serait formidable qu’elles intègrent ces technologies. Pour l’instant, nous serions satisfaits d’un prototype fonctionnel et d’une preuve de concept qui pourrait encourager les plateformes de médias sociaux à inclure ces technologies à l’avenir, ” a conclu David Megías.
Des recherches antérieures ont été publiées dans le Numéro spécial sur les ateliers ARES 2021.
Plus d’information:
D. Megías et al, Architecture d’un système de détection de fausses nouvelles combinant tatouage numérique, traitement du signal et apprentissage automatique, Numéro spécial sur les ateliers ARES 2021 (2022). DOI : 10.22667/JOWUA.2022.03.31.033
A. Qureshi et al, Détection de vidéos Deepfake à l’aide du filigrane numérique, Sommet et conférence annuels 2021 de l’Association Asie-Pacifique de traitement des signaux et de l’information (APSIPA ASC) (2021). ieeexplore.ieee.org/document/9689555
David Megías et al, DISSIMILAR : vers la détection de fausses nouvelles à l’aide de la dissimulation d’informations, du traitement du signal et de l’apprentissage automatique, 16e Conférence internationale sur la disponibilité, la fiabilité et la sécurité (ARES 2021) (2021). doi.org/10.1145/3465481.3470088
Fourni par Universitat Oberta de Catalunya (UOC)
Citation: Comment la technologie peut détecter les fausses nouvelles dans les vidéos (2022, 29 juin) récupéré le 29 juin 2022 sur https://techxplore.com/news/2022-06-technology-fake-news-videos.html
Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.
— to techxplore.com