La technologie n'a pas encore été testée devant un tribunal
Une patate chaude : Les services de police utilisent un nouvel outil qui leur permet de rédiger des rapports à l’aide de l’IA générative. Le fournisseur de logiciels qui fournit ce logiciel affirme que son approche a résolu certains des problèmes les plus épineux associés à l’IA générative, comme les hallucinations, mais la technologie n’a pas encore été examinée par les tribunaux, ce qui signifie que le débat sur son utilisation est loin d’être terminé. Les discussions devraient porter sur les questions de confidentialité, de droits civiques et de justice.
Les services de police, habitués depuis longtemps à utiliser la technologie dans leurs opérations, ont récemment commencé à intégrer l’IA générative dans leurs processus de rédaction de rapports. Ce changement fait suite à l’introduction de Draft One, un nouvel outil créé par le fournisseur d’équipements de police Axon plus tôt cette année.
Draft One utilise la plateforme Azure OpenAI de Microsoft pour retranscrire les enregistrements audio des caméras corporelles de la police, puis générer des brouillons de récits. Pour garantir l'exactitude et l'objectivité, ces rapports sont strictement basés sur des transcriptions audio, évitant toute forme de spéculation ou d'embellissement.
Les agents sont tenus de vérifier et d’approuver les rapports, qui sont signalés pour indiquer l’implication de l’IA dans leur création. Bien qu’utilisant la même technologie sous-jacente que ChatGPT, connue pour produire occasionnellement des informations trompeuses, Axon affirme avoir affiné l’IA pour donner la priorité à l’exactitude des faits et minimiser les problèmes d’hallucinations.
« Nous utilisons la même technologie sous-jacente que ChatGPT, mais nous avons accès à plus de boutons et de cadrans que n'en aurait un véritable utilisateur de ChatGPT », a déclaré à l'AP Noah Spitzer-Williams, qui gère les produits d'IA d'Axon. Le fait de baisser le « bouton de créativité » aide le modèle à s'en tenir aux faits afin qu'il « n'embellisse pas ou n'hallucine pas de la même manière que si vous utilisiez ChatGPT seul », a-t-il déclaré.
Les arguments de vente de Draft One sont clairs. Il est commercialisé comme un outil conçu pour réduire considérablement le temps que les policiers consacrent aux formalités administratives, ce qui pourrait réduire le temps de rédaction des rapports de 30 à 45 minutes par rapport. Cette efficacité, selon Axon, permet aux policiers de consacrer plus de temps à l'engagement communautaire et à la prise de décision, ce qui pourrait améliorer les résultats en matière de désescalade.
Pour être honnête, les agents qui ont utilisé Draft One rapportent que ces documents générés par l’IA sont non seulement efficaces en termes de temps, mais aussi précis et bien structurés. De plus, l’IA capture parfois des détails que les agents pourraient négliger.
Les services de police de tout le pays utilisent Draft One de différentes manières. À Oklahoma City, les rapports générés par l’IA se limitent actuellement aux incidents mineurs qui n’impliquent pas d’arrestations ou de crimes violents, conformément aux recommandations des procureurs locaux qui recommandent de procéder avec prudence.
À l’inverse, dans des villes comme Lafayette et Fort Collins, l’utilisation de l’IA est plus étendue, englobant même des cas majeurs, même si des défis subsistent, comme la gestion des environnements bruyants.
Axon n’a pas révélé le nombre de services de police qui utilisent actuellement sa technologie. L’entreprise n’est pas la seule sur ce marché, car des startups telles que Policereports.ai et Truleo proposent également des solutions comparables. Cependant, en raison des liens établis par Axon avec les forces de l’ordre qui achètent ses Tasers et ses caméras corporelles, les experts du secteur et les responsables de la police prévoient que l’utilisation de rapports générés par l’IA deviendra de plus en plus répandue dans un avenir proche.
Malgré son potentiel, l'utilisation de l'IA dans la rédaction de rapports suscite des inquiétudes parmi les juristes, les procureurs et les militants communautaires. Ils s'inquiètent de la tendance de l'IA à « halluciner » ou à produire de fausses informations et de la possibilité qu'elle modifie des documents critiques au sein du système de justice pénale. Parmi les autres problèmes figurent l'intégration de préjugés sociétaux dans les rapports et le risque que les policiers deviennent trop dépendants de l'IA, ce qui pourrait conduire à une rédaction de rapports moins méticuleuse.
« Je crains que l'automatisation et la facilité d'utilisation de la technologie n'incitent les policiers à être moins prudents dans leur façon d'écrire », a déclaré Andrew Ferguson, professeur de droit à l'American University, qui travaille sur ce qui semble être le premier article de revue juridique sur cette technologie émergente.