Faut-il avoir peur des robots-journalistes?


Les journalistes doivent-ils craindre les robots générateurs d’articles? Notre consoeur belge Laurence Dierickx vient de consacrer à la question son travail de fin d’études, à l’Université libre de Bruxelles (ULB). Nous lui avons demandé de nous livrer le résultat de ses recherches, qui mettent en évidence la capacité des robots à rédiger des textes objectifs, précis et complets, mais peu agréables à lire. Voici son article (dont nous sommes en mesure de garantir qu’il n’a pas été rédigé par un robot!).

La génération automatique de textes en langue naturelle (GAT), branche du traitement automatique de la langue (TAL), a fait ses premiers pas dans le contexte journalistique européen le 22 mars 2015, à l’occasion des élections départementales françaises. Plus de 30.000 résultats ont fait l’objet d’un traitement automatisé, dans le cadre d’un partenariat entre la start-up parisienne Syllabs et le journal “Le Monde”. En octobre de l’année précédente, l’AFP, via la filiale allemande Sport Informations Dienst, se lançait dans la génération automatique de résultats sportifs dans treize langues. Quelques mois plus tôt, l’agence de presse américaine Associated Press signait un partenariat avec Automated Insights pour automatiser la rédaction de bilans trimestriels d’entreprises.

Dans un contexte journalistique, les entreprises de GAT répondent à une demande croissante en contenus originaux, permettent de couvrir des niches d’information qui ne l’étaient pas ou peu, en raison de leurs coûts, et – last but not least – sont capables de traiter de larges volumes de données en un temps record. Mais ces technologies ne sont pas sans poser de nombreuses questions, dans un contexte de crise économique et de transformation du métier : quid du rôle du journaliste, de sa valeur ajoutée, des règles éthiques régissant ces systèmes et de la qualité des textes proposés ? Pour plusieurs observateurs, les craintes que véhiculent ces technologies devraient être pondérées par leurs bénéfices.

Menace ou opportunité pour les journalistes ?

« Je ne vois pas cela comme quelque chose qui menace le rôle du journaliste. Ce métier est un artisanat qui ne se mécanise pas. Aucune machine ne sera jamais capable d’obtenir le rapport qu’entretiennent les journalistes avec leurs sources : la relation humaine reste une donnée fondamentale », indique Ricardo Gutiérrez, secrétaire général de la Fédération européenne des journalistes.

« Ceux qui dont le métier est d’écrire des résultats financiers ou sportifs sont menacés. Mais ce n’est pas très grave parce que ce sont des métiers à faible valeur ajoutée. Je trouve que l’arrivée des robots pour faire des tâches les plus ingrates est, au contraire, totalement libératrice et permet aux journalistes de faire des choses beaucoup plus intéressantes, à forte valeur ajoutée, plus intelligentes, plus valorisantes et plus significatives pour son rôle dans la société. C’est un outil en plus », estime Eric Scherer, directeur de la prospective à France Télévisions.

Nicolas Kayser-Bril, fondateur de Journalism ++, ajoute que « comme n’importe quelle innovation, les technologies qui arrivent dans le monde des journalistes créent des tensions. Nous créons des outils pour permettre aux journalistes de travailler sur des tâches à forte valeur ajoutée, mais un patron peut très bien décider d’utiliser ces augmentations de productivité pour licencier. Les compétences à valeur ajoutée aujourd’hui ne sont pas celles d’il y a trente ans ou même cinq ans ; le besoin d’adaptation est très fort. Mais rien de cela n’est nouveau : la composition manuelle était indispensable depuis le XVIe siècle et s’est retrouvée inutile à la fin du XIXe siècle ».

Les technologies de la GAT participent à ce qu’Uricchio appelle le « tournant algorithmique ». Un tournant qui couvre l’ensemble de la chaîne de production journalistique : de la détection de breaking news à la publication personnalisée, en passant par la sélection de l’information, la hiérarchisation des contenus. L’automatisation des tâches et processus ne se passe toutefois pas en dehors de toute intervention humaine : derrière tout algorithme, se trouve un humain qui le paramètre. « Les algorithmes ne posent pas d’autre choix que des choix éditoriaux, qui ont toujours existé dans le journalisme », analyse Paul Bradshaw, journaliste et professeur invité à la School of journalism of London.

Quelle perception des contenus ?

En raison de son caractère relativement récent sur le terrain journalistique, peu de recherches se sont intéressées à la perception des articles générés de manière automatique. En Suède, Clerwall a étudié la perception d’articles générés de manière automatique dans le domaine du sport, auprès d’étudiants en journalisme. Aux-Pays-Bas, Krahmer et van der Kaa ont exploré le champ de la crédibilité des textes générés, en se focalisant sur les différences et similarités entre des articles rédigés par des journalistes et des articles générés de manière automatique. Si en raison d’échantillons ou de corpus restreints, ces deux expériences n’ont pas permis d’énoncer des règles générales, elles convergent vers un même indicateur : celui d’une perception similaire des deux types de contenus.

Dans le cadre d’un mémoire réalisé à l’Université libre de Bruxelles (ULB), sous la direction de Seth van Hooland, ma recherche a porté sur la perception de textes générés par des professionnels de la rédaction. Dans ce cadre, des méthodes d’évaluation relevant du domaine de la linguistique computationnelle ont été mises en œuvre. En premier lieu, un corpus de vingt textes générés de manière automatique (en langue anglaise), dans le domaine de la presse économique, a été soumis à une série d’évaluations métriques automatiques dont l’objectif était d’analyser la correction de la langue. Au cours de ces premières observations, il a été constaté que les articles générés obtenaient, le plus souvent, un meilleur score de lisibilité que des articles rédigés par des journalistes.

Les trois textes ayant obtenu les meilleurs scores ont été ensuite soumis à l’appréciation d’experts de la rédaction (journalistes, éditeurs, copywriters…), dans la perspective d’évaluer leur perception de la qualité des contenus. Ces experts ont été sollicités via plusieurs organisations professionnelles, au Royaume-Uni et aux Etats-Unis. 80 personnes ont participé à cette évaluation, dont la méthodologie a été inspirée par celle de Clerwall. 75 l’ont poursuivie jusqu’à son terme. Pour ne pas influencer leurs réponses, les participants n’étaient pas informés de la nature exacte de l’expérience.

Dans un premier temps, ceux-ci étaient invités à s’exprimer sur la qualité perçue de ces textes, au regard de douze descripteurs. Les trois critères ayant obtenu le meilleur score moyen sont l’objectivité (68,46%), la précision (65,69%) et la complétude (65,17%). Les plus mauvais scores moyens obtenus concernent les critères de plaisir de lecture (51,52%), d’intérêt (51,51%) et de qualité d’écriture (60,39%). Ils avaient en outre la possibilité de ne pas répondre et, le cas échéant, de commenter leurs non-réponses. A ce propos, il est intéressant d’observer que les critiques portaient essentiellement sur les sources jugées non fiables ou insuffisantes (32,9%).

Dans un second temps, il était demandé aux évaluateurs de se prononcer sur la nature de l’auteur des textes : humaine ou logicielle? 52% des participants ont reconnu ces textes comme ayant été rédigés par un humain. Mais ce résultat est à pondérer en fonction du sous-groupe auquel ils appartiennent : les journalistes sont ceux qui se sont montrés les plus sceptiques.

Laurence Dierickx

(Crédit photo: theogeo under Creative Commons)