Le web devient une source de premier ordre pour les études. Si l’analyse des flux de navigation (fichiers logs), les questionnaires en ligne, et le contenu des commentaires des forums et des blogs soumettent au datamining et au textmining de nouveaux gisements à explorer et de nouveaux enjeux d’analyse, l’image fixe ou animée, sera sans doute la prochaine frontière.
En matière de source de données, les sites web2.0 tels que Flickr, AOL, YouTube, DailyMotion rassemblent un matériau unique. Des images dont la particularité est de ne pas avoir été produite dans une intention commerciale, mais qui représente le regard quotidien et naïf d’une large population, une population internationale, une image globale, une image localisable. On y cherchera volontiers la manière dont les marques y sont représentées. On y trouve aussi un matériau plus habituel, celui qui provient de sources commerciales, et auxquelles ces populations sont exposées, son abondance à l’avantage d’avoir été sélectionnées par ces dernières. La première garde la valeur de l’ingénuité qui rend compte de ce que deviennent les efforts à produire des images.
Quelques soient les buts de l’étude : analyse phénoménologiques, exploration de l’expérience des consommateurs, étude sémiotique, association d’idée, représentations sociales, images de marques, deux grands problèmes se dégagent. Comment constituer à partir de ces sources un corpus pertinent ? Autrement dit la question de l’échantillonnage. Comment analyser ce corpus ? Quel codage ? Quel traitement ?
Ces questions feront l’objet de la discussion de l’atelier du 31 janvier 2008 à la suite de la présentation d’un travail initiateur d’ Eric Vernette, Professeur à l’Université Toulouse I et par ailleurs Président de l’Association Française du Marketing.