Un des intérêts de l'IA est qu'il nous a rappelé que les outils "scientifiques" que nous utilisons reposent sur des hypothèses implicites. Or, ces hypothèses, très souvent, ont un impact déterminant sur le résultat obtenu.
Une hypothèse centrale en statistiques est : la "variable aléatoire". L'origine du nom vient du dé. Une variable aléatoire se comporte comme ce que l'on obtient en jouant aux dés. Surtout, si l'on répète souvent l'expérience, le comportement des variables aléatoires tendent à ressembler à une même "loi normale". Ce qui est pratique.
Malheureusement, ressembler ne veut pas dire être. Par exemple, on tend à représenter la répartition des tailles humaines par une loi normale, alors que la dite loi peut avoir des valeurs négatives ou "infinies", ce qui n'est pas le cas de la taille humaine. En gros, l'approximation peut être utile en ce qui concerne la majorité de la population, mais pas ses extrêmes. Or, ce sont eux qui, très souvent, nous intéressent.
Il est probable que cela est connu. Mais, ceux qui le savent pensent que c'est le résultat qui justifie l'hypothèse. On entre là dans un second niveau d'erreur : la prédiction auto réalisatrice. Si votre algorithme jette une personne en prison, elle aura beaucoup de mal à prouver son innocence. Et s'il vous pousse à déclarer une guerre, la vérification sera impossible.
L'IA, fruit de notre paresse intellectuelle ?