Un futur schisme dans le journalisme ?

Comment un journaliste, c’est-à-dire un être humain à la fois imparfait mais perfectible, peut-il faire face à la machine et aux algorithmes, qui sont capables de rédiger des bulletins d’informations et de les publier avant même que le journaliste ne commence à rédiger son propre article ?

A une certaine époque, nous pensions que la télévision et la radio tueraient le journalisme « traditionnel », aussi sûrement et simplement qu’on écraserait une fourmi : pourquoi s’échiner, en tant que journaliste, à écrire des papiers pour les journaux, alors que la radio et la télédiffusion se démocratisent, au point que l’article dont traitera le journal acheté au kiosque le jour-même aura été d’ors et déjà traité par la télévision la veille. Pourtant, ce dernier continue de vivre, voire de survivre, aidé par la diffusion des articles via leurs partages sur les réseaux sociaux, qui ont remplacé la vente en kiosque. Le journalisme traditionnel trouve son compte en prenant un angle différent de ceux des médias télévisuels et radiophoniques, en prenant des détails qui ne sont pas toujours compréhensible oralement.

Aujourd’hui, le journaliste fait face à une menace, réelle cette fois. Les algo-rédacteurs, ces nouveaux Deus ex machina qui peuvent, grâce à la collecte et l’exploitation des données, rédiger un article net et concis sur une situation et ce, en temps réel.

Prenons l’exemple de Quakebot, un robot branché à l’US Geological Survey (Bureau Géologique des Etats-Unis). Lors d’un tremblement de terre dans la région de Los Angeles, il rédigea l’article suivant, en se basant sur les données enregistrées par l’UGS :

« A shallow magnitude 4.7 earthquake was reported Monday morning five miles from Westwood, California, according to the U.S. Geological Survey. The temblor occurred at 6:25 a.m. Pacific time at a depth of 5.0 miles.

According to the USGS, the epicenter was six miles from Beverly Hills, California, seven miles from Universal City, California, seven miles from Santa Monica, California and 348 miles from Sacramento, California. In the past ten days, there have been no earthquakes magnitude 3.0 and greater centered nearby.

This information comes from the USGS Earthquake Notification Service and this post was created by an algorithm written by the author. »

L’article fut publié à 6h25 du matin, soit 3 minutes après le séisme, une performance inatteignable pour un journaliste, fut-il multiple fois vainqueur du prix Albert Londres et du Pulitzer. Mais, en définitive, n’est-ce pas là le but recherché ? La performance, la chasse aux informations, rédigées d’une manière peut-être brutale et froide, mais aussi concises et précises que possible ?

C’est à craindre. Selon les projections, en 2030, 90% des articles de presses seront rédigés par des robots et le Pulitzer serait attribué, toujours en 2030, à une machine froide et sans âme, selon Kristian Hammond, cofondateur de Narrative Science, qui créé des algo-rédacteurs.
Parce qu’est-ce qu’un algo-rédacteur, sinon une simple carte-mère que quelqu’un a pris la peine de coder ? Bref, c’est une IA.

Le journaliste est un être humain, à la fois imparfait et perfectible, qui a besoin de repos pour permettre à la fois à son corps et à son esprit de relâcher la pression qui pèse sur ses épaules, aussi robustes soient-elles. Tandis que la machine n’a pas ce genre de problèmes. Elle fonctionne tous les jours, à chaque instant de la journée, sans s’arrêter. Le travail du journaliste va finalement se réduire à s’assurer que les données soient bien collectées par les systèmes automatisés adéquat. Ce qui le détournera, au final, de sa tâche première, de son devoir : informer.

Que faudrait-il faire pour contrer ce Deus ex machina et ainsi faire mentir Kristian Hammond ?

Se rappeler que le journalisme, ce n’est pas seulement livrer des informations, mais conter une histoire.
Se rappeler, et rappeler aux lecteurs, que le quantitatif n’est qu’un aspect secondaire du journalisme et que le qualitatif a toujours sa place dans nos articles. Les robots peuvent tenter d’imiter « la tonalité humaine », pour donner de l’émotion au corps général de l’article, mais cela ne reste qu’une imitation. La machine, pour le moment, ne peut ressentir d’émotions et donc les retranscrire au mieux à ses lecteurs, quand bien même les récits de science-fiction, tel I, Robot, veulent nous faire découvrir des mondes dans lesquels ce fantasme est possible.

Pour le moment, un ordinateur n’est pas encore parvenu à tromper un être humain, malgré une tentative de Kevin Warwick. Sa création passa avec succès le test de Turing, avant qu’on ne découvre qu’il s’agissait, en réalité, que d’un logiciel de type « chatbot », qui répondait aux questions posées grâce à une série de scripts préenregistrés, et non pas d’un super-ordinateur, comme Warwick l’avait présenté.

Pourtant, il suffit de passer un peu de temps avec un logiciel de type chatbot pour en cerner les limites, le plus accessible étant Cleverbot.

Preuve en est qu'une conversation avec un chatbot est loin d'être aussi enrichissante qu'une conversation avec un être humain...
Preuve en est qu’une conversation avec un chatbot est loin d’être aussi enrichissante qu’une conversation avec un être humain…

Dernièrement, Tay, une IA développée pour Twitter, a vu son expérience « mal finir » : les derniers tweets qu’elle posta avant d’être mise hors service auraient eu leurs places sur 4chan… Parce que l’on espérait qu’elle puisse apprendre grâce à l’être humain, et donc acquérir ce « qualitatif » qui manque aux algo-rédacteurs.

Dans Transmetropolitan, un comics centré sur un journaliste d’investigation gonzo, Spider-Jerusalem, Warren Ellis place ces mots dans la bouche de son personnage : « Le journalisme, c’est juste un flingue. Mais tu n’as qu’une balle. Si tu vises bien, tu fais sauter le genou du monde. »

Certes, cette prouesse est possible, comme preuve les Panama Papers, et certes, les algo-rédacteurs sont tout à fait capable de prendre un revolver, y charger une balle et abaisser le chien. Mais sera-t-il capable d’appuyer sur la détente au bon moment, c’est-à-dire non pas quand l’article est rédigé, mais au moment où le genou sera dans le viseur ?

Ce sont-là les limites de l’algo-rédacteur. Ils peuvent être bien moins chers que des journalistes, écrire plus d’articles qu’eux en une journée, mais ils restent incapables d’appréhender l’esprit humain et donc de faire dans le qualitatif. C’est là la véritable différence entre le journaliste et l’algo-rédacteur, et c’est là où se situe le cheval de bataille de nos futurs Spider Jerusalem.

Antoine Barré