FERRO Elodie
Master 2 CRDM
UFR PHILLIA
2022-2023
L’intelligence artificielle : des progrès fulgurants,
mais non sans conséquences pour le journalisme
Enseignant encadrant le mémoire : Marta Severo
Image générée par IA
Résumé
Dans le cadre de ce mémoire, nous nous sommes concentrés sur l’impact de
l’émergence des intelligences artificielles génératives sur les métiers du journalisme.
Depuis le lancement de ChatGPT, un logiciel générateur de texte, en novembre
2022, les IA génératives inquiètent le plus grand nombre. Pour cause, les logiciels
générateurs d’images et de textes deviennent de plus en plus performants et ont
connu des progrès fulgurants en quelques mois seulement. L’inquiétude de voir
ChatGPT remplacer le métier de rédacteur a rapidement émergé, tandis que les
fausses images générées par les logiciels générateurs d’images ont envahi le web.
Nous nous sommes donc demandés quelles étaient les conséquences de ces
nouveaux logiciels sur le monde de l’information et notamment sur les métiers de
photojournalistes et journalistes de presse. L’étude de la littérature nous a permis de
comprendre l’histoire et l’évolution de ces technologies, afin de mieux évaluer leur
impact. Nous avons ensuite abordé les limites éthiques de ces intelligences
artificielles génératives et les risques que celles-ci comportent pour l’information et le
métier de photojournaliste. Nous avons également analysé les compétences de
ChatGPT et des IA génératrices de textes afin d’évaluer si ces logiciels pouvaient
remplacer le métier de journaliste et comment les rédacteurs pourraient utiliser ces
nouveaux outils à bon escient.
Mots clés:
● Intelligence artificielle
● IA
● Journalisme
● Rédacteur
● Technologie
● IA générative
● Photojournalisme
● ChatGPT
● Dall-E
● Midjourney
2
Sommaire
Introduction 4
Partie 1 : Revue de la littérature 6
I. Qu’est ce que l’intelligence artificielle ? 6
a) Naissance de l’intelligence artificielle 6
b) L’utilisation de l’intelligence artificielle aujourd’hui 9
c) La régulation actuelle 10
II. Les limites de l’intelligence artificielle 11
a) La crainte de l’Homme face à l’intelligence artificielle 11
b) Les limites juridiques 13
c) Les limites éthiques 15
III. L’émergence récente des IA génératives 17
a) Les IA génératives : qu’est ce que ChatGPT 17
b) Le risque de désinformation 18
c) S’adapter à ces nouvelles technologies 18
Partie 2 : les IA génératives d’images et le photojournalisme 20
a) L’émergence de l’IA dans les domaines de la rédaction et de la création 20
b) Un risque pour la crédibilité des photos reporters 24
c) La nécessité de développer un nouveau rapport à l’image 28
Partie 3 : les IA génératives de textes et le métier de journaliste 33
a) L’utilisation de l’intelligence artificielle en journalisme 33
b) Un outil qui ne remplacera pas le journalisme : étude de cas de ChatGPT 38
c) Comment utiliser l’IA en tant que journaliste 44
Conclusion 51
Références bibliographiques 53
3
Introduction
Pensée pour la première fois dans les années 1950, la première intelligence
artificielle a vu le jour en 1955. Depuis, les technologies et les innovations autour de
cette invention n’ont cessé de progresser à travers les décennies. Aujourd’hui,
l’intelligence artificielle est utilisée dans de nombreux domaines tels que la banque,
les impôts ou encore la sécurité, et se glisse dans notre vie sous de nombreuses
formes telles que les algorithmes des réseaux sociaux ou les outils de traduction
automatique. Pourtant, depuis quelques mois, les progrès de l’intelligence artificielle
semblent inquiéter le plus grand nombre. Pour cause, l’IA s'immisce de plus en plus
dans notre quotidien et y devient omniprésente. Ces progrès impactent désormais
l’information, l’éducation, la création, ce qui n’est pas sans conséquences.
En novembre 2022, ChatGPT, une intelligence artificielle génératrices de textes, était
officiellement lancée, accessible gratuitement et en ligne. En parallèle, les IA
génératrices d’images ont connu des progrès fulgurants. Midjourney a sorti les
versions 4 puis 5 de son logiciel générateur d’images, des versions aux capacités
étonnantes en matière de création d’images, puisque les images générées
ressemblent désormais à de vraies photographies. Ainsi, tandis que certains
craignent de voir ChatGPT remplacer des métiers et faire tous les devoirs des
étudiants, d’autres s’inquiètent des progrès des IA génératrices d’images et des
risques éthiques que celles-ci peuvent comporter. En effet, le risque de
désinformation est un des dangers les plus présents dans l’utilisation de ces IA
génératrices de textes ou d’images.
Dans le cadre de ce mémoire, nous nous sommes donc concentrés sur le cas de ces
IA génératrices d’images et de textes, et de la façon dont celles-ci peuvent impacter
le milieu du journalisme, d’un point de vue éthique et technique. On peut en effet se
questionner sur l’utilité des rédacteurs aujourd’hui face à l'émergence d’un outil
comme ChatGPT. La crédibilité des photographes de presse peut également être
remise en question, maintenant que n’importe quelle photographie réaliste peut être
4
générée par une IA. Nous nous demanderons donc quelles sont les conséquences
de l’arrivée fulgurante de l’IA sur les métiers du journalisme et quelles sont les limites
de ce progrès technologique ?
Notre hypothèse est que ces nouvelles IA génératives cachent, finalement,
beaucoup de défauts et que, même si elles comportent énormément de risques
éthiques quant à la désinformation, elles ne pourront pas remplacer les journalistes
d’un point de vue technique.
Nous tâcherons de répondre à notre problématique et de tester notre hypothèse au
cours de cette réflexion. Nous analyserons les conséquences de l’utilisation des IA
sur le milieu du journalisme, et en particulier sur les métiers de rédacteurs et de
photoreporter. Nous aborderons également les limites de l'intelligence artificielle,
qu’elles soient éthiques, déontologiques ou légales, mais également les façons
d’utiliser ces progrès technologiques à bon escient.
Pour cela, nous analyserons dans un premier temps ce qui a été dit théoriquement
sur la création, l'évolution et les limites de l’intelligence artificielle à travers le temps.
Puis, nous discuterons des conséquences de l’émergence des IA génératrices
d’images sur le métier de photojournaliste et sur notre rapport à l’image. Enfin, nous
étudierons les IA génératrices de textes telles que ChatGPT afin d’observer dans
quel cadre les intelligences artificielles peuvent être utilisées ou non dans le
journalisme de presse.
5
Partie 1 : Revue de la littérature
I. Qu’est ce que l’intelligence artificielle ?
a) Naissance de l’intelligence artificielle
Le débat autour de l’intelligence artificielle, qui anime de plus en plus la société
depuis la fin d’année 2022, est loin d’être récent. Ce qui est nouveau, c’est la façon
dont on pense l’intelligence artificielle et dont on l’appréhende. En effet, il y a
soixante-dix ans, le débat sur l'intelligence artificielle était centré sur la question
technique, tandis qu’aujourd’hui le débat tend vers la question éthique. (Ashta,
Mogha, 2022)
Ainsi, pour comprendre les débats autour de l’intelligence artificielle, il est nécessaire
de connaître l’histoire et l’évolution de cette technologie.
En mai 1942, Frank Fremont-Smith1
organise une réunion sur l’inhibition cérébrale2
afin de rassembler des chercheurs autour de la question du réseau neuronal, de la
pensée humaine et du fonctionnement plus général du cerveau humain. Véritable
réussite, cette réunion lance un certain nombre de réflexions autour de la
cybernétique3
et donne lieu à 10 conférences, appelées “les conférences de Macy”,
organisées de 1946 à 1953 afin de comprendre le fonctionnement général de la
pensée humaine. Mais si l’objectif de départ de ces conférences n’est pas atteint –
les chercheurs ne sont pas parvenus à comprendre le fonctionnement du cerveau et
des processus cognitifs – celles-ci ont permis de lancer les recherches autour du
système neuronal, dont les avancées joueront un rôle majeur en informatique et en
technologie. (Haiech, 2020) L’officialisation de l’intelligence artificielle survient
quelques années plus tard, en 1956, lors d’une conférence à Dartmouth aux
3
Cybernétique : étude des mécanismes complexes d'informations tels que les êtres vivants, les
cellules ou encore la société.
2
Inhibition cérébrale : capacité à contrôler ou bloquer nos intuitions ou nos actions
1
Frank Fremont-Smith : 1895-1974, administrateur américain, président de la fédération mondiale de
la santé mentale et promoteur de conférences interdisciplinaires pour faire avancer la connaissance.
6
États-Unis. (Rougier, 2015) Cette conférence dure 8 semaines et réunit une
vingtaines de chercheurs, dont quatre avaient déjà assisté aux conférences de Macy
quelques années plus tôt. (Haiech, 2020). Les pionniers de l’intelligence artificielle
tels que John McCarthy, Herbet Simon, Claude Shannon et Marvin Minsky assistent
à cette conférence, chacun rêvant d’une machine capable de surpasser l’Homme –
une idée complètement utopique puisqu’à l’époque, tout est à inventer. (Rougier,
2015) C’est alors que John Mc Carthy choisit le terme “intelligence artificielle” afin de
se distinguer de la cybernétique, un domaine dont ces chercheurs se rapprochent
mais dont la recherche est différente. En effet, le but des chercheurs en intelligence
artificielle est de comprendre et de simuler les processus cognitifs afin de reproduire
le système de pensée et de réflexion humaines sur une machine. La cybernétique,
elle, se concentre sur les réponses effectuées dans un système lorsque ce même
système s’éloigne de son objectif à atteindre, soit le concept de feedback. Au fil des
recherches et notamment à partir de 1956, une distinction se creuse entre
cybernétique et intelligence artificielle, deux domaines de recherche qui interagissent
et se nourrissent entre eux, mais qui connaîtront des évolutions et des financements
différents. (Haiech, 2020)
En parallèle de ces évolutions théoriques, de réels progrès techniques sont
développés par les chercheurs. Ainsi, la première machine capable de raisonnement
voit le jour en 1955, lorsque Allen Newell et Herbert Simon conçoivent le programme
"Logic theorist4
”, permettant de démontrer automatiquement 38 des 52 théorèmes du
traité Principia Mathematica d'Alfred North Whitehead et Bertrand Russell5
. Ce
programme est alors considéré comme un progrès majeur et comme la première
intelligence artificielle. L’invention sera rapidement suivie par le GPS ("General
Problem Solver") un programme qui permet de résoudre n’importe quel type de
problème mathématique. Les années 1960 amènent ensuite la traduction
automatique, les avancées en robotique et de nombreux progrès dans la recherche
scientifique. (Rougier, 2015) Dans les années 1970, l’intelligence artificielle fait ses
5
Principia Mathematica : œuvre qui regroupe les grands fondements des mathématiques
4
Logic Theorist : premier programme informatique capable de résoudre des problèmes
mathématiques
7
premiers pas en médecine avec MYCIN6
, un système expert d’aide au diagnostic.
(Haiech, 2020) L'intelligence artificielle connaît des avancées majeures jusqu’à la fin
des années 1970, avant que les chercheurs ne se rendent compte qu’ils étaient trop
optimistes. En effet, Marvin Minsky déclarait en 1970 "Dans trois à huit ans nous
aurons une machine avec l'intelligence générale d'un être humain ordinaire” – une
déception qui marque une première pause dans les avancées technologiques autour
de l’IA7
. (Rougier, 2015).
Les innovations reprennent doucement au cours des années 1980. Les chercheurs
souhaitent désormais aller plus loin et développer des machines apprenantes, qui
seraient capables de classer les objets. Ces machines retiennent les classifications
programmées puis, par déduction, apprennent à reconnaître et à classer des objets
en autonomie. C’est ce qu’on appelle aujourd’hui le machine learning. Dans les
années 1990, la puissance des ordinateurs s'accroît fortement, ce qui permet de
traiter et d’analyser plus de données, et donc de développer des intelligences
artificielles plus performantes. (Haiech, 2020) En 1997, une machine bat un humain
aux échecs pour la première fois. Le super-ordinateur8
d’IBM devient ainsi champion
du monde d'échecs. Malgré cette grande avancée, les objectifs de l’intelligence
artificielle ne sont pas atteints. En effet, les chercheurs souhaitaient créer une
machine capable de battre l’homme dans n’importe quel domaine. Ici, la machine est
capable de gagner une partie d’échec grâce à des calculs de probabilité, mais elle
reste inférieure à l’Homme qui, lui, est doté d’une logique et d’une raison. En effet,
l’humain connaît une expérience sensible dans le monde qui lui permet de
comprendre plus de choses : les émotions, les sensations, les envies, tandis que
l’intelligence artificielle ne fonctionne que grâce aux algorithmes. Face au manque de
résultats par rapport à ce qui était attendu par les chercheurs, l’innovation ralentit
une fois de plus à la fin des années 1990. À partir de 2010, le deep learning, un
algorithme d’apprentissage qui permet à la machine d’apprendre seule à partir
d’exemple, est extrêmement développé. Grâce aux progrès technologiques des
8
Super-ordinateur : ordinateur conçu pour atteindre les plus hautes performances technologiques
possibles au moment de sa conception
7
IA : Intelligence artificielle
6
MYCIN : système utilisant l’intelligence artificielle afin d’identifier des bactéries responsables
d’infections graves et de déterminer un traitement
8
dernières années, les ordinateurs ont une puissance de calcul leur permettant de
traiter une grande quantité de données. L’intelligence artificielle se développe donc
de plus en plus dans le traitement de données, dans la traduction ou dans la
reconnaissance d’images. Tous ces progrès effectués sur plus d’une soixantaine
d’années ont permis de développer de nombreux champs de recherches tels que la
reconnaissance de la parole, la fouille de données, les réseaux de neurones
artificiels ou encore le machine learning – des algorithmes qui nous entourent
aujourd’hui au quotidien sans que l’on s’en rende compte, dans les banques, dans le
systèmes des impôts ou encore sur les réseaux sociaux. (Rougier, 2015)
b) L’utilisation de l’intelligence artificielle aujourd’hui
Aujourd’hui, l’intelligence artificielle est répandue dans notre quotidien sans qu’on ne
la remarque et qu’on ne la considère comme telle. On la retrouve notamment dans
les algorithmes de traduction automatique, dans les voitures autonomes, ou encore
dans les robots et logiciels de plus en plus performants. (Rougier, 2015)
Du côté de l’industrie, l’IA est adoptée par de plus en plus d’entreprises, tant dans un
objectif d’innovation, que de rentabilité, d’efficacité ou de commerce, que ce soit par
de grandes entreprises comme Amazon ou par des petites entreprises. L’IA est alors
utilisée dans des objectifs de surveillance ou de reporting9
, afin de mieux connaître
les consommateurs, leurs besoins, leurs habitudes d’achats etc. Mais certaines
industries sont plus confrontées à l’IA que d’autres car elles ont besoin d'innover plus
régulièrement. C’est le cas notamment des marques d’appareils électroniques ou
technologiques tels que les ordinateurs ou les téléphones, qui sont poussées à
innover pour conserver leur compétitivité et leurs avantages concurrentiels. Ainsi,
l’innovation pousse à l’innovation, ce qui permet des progrès conséquents
rapidement. (Ashta, Mogha, 2022)
L’IA est également de plus en plus utilisée dans les secteurs de l’économie, afin
d’améliorer les prévisions, d’analyser une plus grande quantité de données et ainsi
9
Reporting : réalisation de rapports sur les activités et résultats d’une organisation
9
améliorer la productivité et l’efficacité. Elle permet également de prévenir les risques
et de lutter contre la fraude ou les crimes financiers en permettant de meilleures
prévisions. (Ashta, Mogha, 2022)
Enfin, l’intelligence artificielle est également utilisée en médecine, notamment en
imagerie médicale, que ce soit avec les IRM, les scanner ou les radio. (Haiech,
2020)
Jusqu’ici, les algorithmes étaient limités aux calculs et permettaient un gain de
productivité, de sécurité ou de rentabilité. Les machines n’étant pas capables de
comprendre le monde sensible, elles ne peuvent par exemple pas comprendre les
captcha10
. Pourtant, depuis 2015, l’IA progresse sur des domaines alternatifs et
divers, et s’éloigne de plus en plus du calcul pour développer de nouvelles
compétences. (Rougier, 2015) On peut donc se demander si l’intelligence artificielle
ne sera pas bientôt capable de résoudre les captcha, voire de pouvoir surpasser
l’humain, comme le souhaitaient les chercheurs des années 1960 et 1970.
c) La régulation actuelle
Note : au moment de la rédaction, soit en mai 2023, il n’y a pas de régulation
spécifique encadrant l’intelligence artificielle. La seule loi qui se rapproche assez de
cette technologie et qui puisse l’encadrer pour l’instant est la loi qui concerne le
RGPD.
Il a très vite été nécessaire de réguler les traitements automatisés de données
personnelles afin de respecter le droit au respect de la vie privée. L’essor du
traitement massif de données a en effet débouché sur la loi du 6 janvier 1978, la loi
française Informatique et Libertés. Cette loi comporte le RGPD, le Règlement
Général sur la Protection des Données, un règlement qui encadre juridiquement le
traitement des données personnelles sur le territoire de l’Union Européenne encore
10
Captcha : mesure de sécurité sous forme de question/réponse permettant de distinguer un humain
d’un robot
10
aujourd’hui. Cette loi implique plusieurs règles sur l’utilisation des données. Ainsi, les
données collectées doivent être “adéquates, pertinentes et limitées à ce qui est
nécessaire au regard des finalités pour lesquelles elles sont traitées” (art. 5-1).
Chacun a le droit de savoir si ses “données à caractère personnel font ou non l’objet
d’un traitement” (art. 15-1). La personne concernée a également le droit d’avoir
accès à ces données et de connaître les finalités du traitement, le type de données
concernées, leur durée de conservation, ainsi que les destinataires auxquels elles
ont été ou seront communiquées. Cinq règles relatives aux données ont ainsi été
déterminées : le traitement de données doit être licite c’est-à-dire que la personne
concernée doit avoir consenti à l’utilisation de ses données, il doit être loyal et
transparent c’est-à-dire que la personne doit savoir comment sont traitées les
données de façon accessible et intelligible, les données sensibles telles que l'ethnie,
l’opinion politique, la religion ou l’appartenance syndicale ne doivent pas être
traitées, la personne peut s’opposer à un traitement de ses données et elle a le droit
de ne pas être jugée uniquement à partir d’un traitement de données mais par une
décision fondée effectuée par un humain. Il faudrait donc prolonger et adapter les
règles du RGPD à l’intelligence artificielle. Il serait nécessaire de mettre en place une
législation propre aux données non personnelles, de demander à ce que les données
utilisées dans l’apprentissage des IA soient “de qualité, pertinentes et non biaisées”
et d’exiger une traçabilité des données utilisées. (Donnat, 2019)
En effet, face à l’ancienneté de la loi Informatique et Libertés, on peut se demander
s’il ne serait pas nécessaire de modifier et d’adapter le RGPD à notre époque
contemporaine et à tous les progrès technologiques que celle-ci implique, afin de
mieux encadrer l’IA – une technologie révolutionnaire mais aux nombreuses limites.
II. Les limites de l’intelligence artificielle
a) La crainte de l’Homme face à l’intelligence artificielle
Toute innovation a toujours suscité de nombreuses craintes et inquiétudes. C’est
notamment le cas pour les innovations technologiques, qui par leur grande
11
nouveauté, confrontent régulièrement les humains à l’inconnu. C’est d’ailleurs cette
crainte de l’inconnu qui provoque une peur de l’intelligence artificielle, comme
d’autres ont pu avoir peur des progrès informatiques par le passé. (Ashta, Mogha,
2022)
En effet, la peur des intelligences artificielles à laquelle nous sommes confrontés
aujourd’hui n’a rien de nouveau. Vernor Vinge, auteur de science-fiction, écrivait
dans les années 1990 “Dans 30 ans, nous disposerons de la technologie adéquate
pour créer une super-intelligence. Peu de temps après, l'humanité s'éteindra”. Les
sciences-fictions et les dystopies ont ainsi nourri et continuent de nourrir des
inquiétudes quant aux progrès technologiques. Les gens ont peur que les chercheurs
inventent un ordinateur si intelligent qu’il dépassera son programmeur et qu’il sera
capable à son tour d’inventer des ordinateurs intelligents – un cercle vicieux qui
mènera à la fin de l’humanité. (Rougier, 2015) Une crainte s’est ainsi installée à
travers les années, celle que l’humain devienne plus faible que les robots, que
ceux-ci finissent par dominer le monde, voire que l’on devienne leurs esclaves. Une
autre inquiétude se répand de plus en plus au fur et à mesure des progrès
technologiques, relative cette fois à l’utilisation des données. En effet, l’IA pourrait
déboucher sur une surveillance accrue de la population grâce à l’utilisation de nos
données personnelles, voire sur un gouvernement totalitaire. Une autre crainte
majeure concerne la potentielle présence d’un biais dans les algorithmes qui pourrait
provoquer des discriminations raciales ou sociales. (Ashta, Mogha, 2022) Cette
peur de l’intelligence artificielle, qui paraît pourtant irrationnelle, est très répandue et
évolue à travers le temps. Ainsi à chaque innovation, cette peur se concrétise un peu
plus. Pourtant, pour Rougier, les chercheurs n’auraient pas pour ambition de créer
des machines omnipotentes, mais plutôt des algorithmes capables de résoudre des
problèmes précis (Rougier, 2015) – une affirmation que l’on peut remettre en
question lorsque l’on voit les robots les plus performants du moment tels que
Sophia11
, conçus pour imiter les comportements sociaux des humains.
11
Sophia : une gynoïde, conçue pour imiter l’humain, activée en 2015 à Hong-Kong. Elle a reçu la
nationalité saoudienne en 2017.
12
b) Les limites juridiques
L’intelligence artificielle possède également de nombreuses limites juridiques. En
effet, même si l’IA est souvent utilisée dans la prévention des risques, cette
technologie génère parallèlement ses propres dangers. Eric Schmidt, l’ancien PDG
de Google, affirmait d’ailleurs que les grandes limites de l’intelligence artificielle se
rattachaient à des questions de partialité, de préjudices, d’abus, de conflits
géopolitiques et de limites scientifiques et technologiques. (Ashta, Mogha, 2022)
Mais si tous les progrès scientifiques comportent des dangers, les risques liés à
l’intelligence artificielle ne sont pas forcément là où on le pense. Le danger ne réside
pas dans la construction d’une super intelligence artificielle capable de battre ou de
remplacer l’humain, mais plutôt dans le manque d’encadrement juridique de ces
nouvelles technologies. Il faut en effet se questionner sur les risques liés à la
reconnaissance faciale, que ce soit sur le web ou dans la rue, et imaginer les dérives
que cela pourrait entraîner et les problèmes juridiques que cela causerait. (Rougier,
2015)
Ainsi, la protection des données est l’une des problématiques juridiques majeures
posées par l’avènement de l’intelligence artificielle et constitue une question centrale.
En effet, l'intelligence artificielle traite une grande quantité de données qui peuvent
ensuite être utilisées pour l’intérêt public, par des entreprises ou l'État. Certaines
entreprises utilisent par exemple des données sur leurs clients afin d’améliorer leurs
expériences d’achats. Mais face à cette multiplication du traitement des données
dans tous les domaines du quotidien, les gens finissent par se préoccuper de plus en
plus de la protection de leur vie privée et de leurs données personnelles. Pour
l’instant, rien n’encadre réellement l’intelligence artificielle d’un point de vue juridique
à part le RGPD, qui oblige à ce que les données soient “collectées à des fins
déterminées, explicites et légitimes et ne soient pas traitées ultérieurement d‟une
manière incompatible avec ces finalités” et qu'elles soient “traitées de manière licite,
loyale et transparente au regard de la personne concernée”. (Ashta, Mogha, 2022)
Mais cette réglementation n’est plus assez pertinente vis-à-vis des nouvelles
intelligences artificielles. Il faudrait donc revoir cette législation en prenant en compte
les nouvelles problématiques amenées par l’IA. L’article 4 du RGPD déclare
13
d’ailleurs que “toute opération ou tout ensemble d’opérations effectuées ou non à
l’aide de procédés automatisés et appliquées à des données ou des ensembles de
données à caractère personnel” est concerné par les règles du RGPD. Les
algorithmes devraient donc être considérés comme un traitement de données et
devraient respecter les régulations du RGPD. Pourtant, les IA semblent parvenir à
contourner de nombreuses règles par leur statut particulier. Les progrès du machine
learning – les algorithmes apprenants – constituent alors une menace d’un point de
vue de cette régulation. La question de la transparence dans le traitement des
données y est fortement remise en question car il est compliqué de rendre des
comptes dans le cas du machine learning. En effet, le but premier est que la machine
développe ses propres moyens de fonctionnement, elle ne peut donc pas se justifier
elle-même de la façon dont elle traite les données. Un vide juridique entoure ainsi
l’IA. Il est donc nécessaire de réfléchir rapidement à une nouvelle réglementation afin
d’encadrer au plus vite ces nouvelles technologies. (Donnat, 2019)
Une autre problématique juridique majeure qui entoure l’intelligence artificielle et
notamment les nouvelles IA génératrices d’images ou de textes est la question du
droit d’auteur. Récemment, les discussions se multiplient autour des IA et des
problématiques que celle-ci pose telles que la question du plagiat, de l’appropriation,
du copyright ou encore du droit d’auteur dans le cas d’un texte généré par ChatGPT,
une IA génératrice de texte. Aujourd’hui, aucune régulation n’encadre cette nouvelle
innovation, il est donc impossible de déterminer qui est l’auteur légal d’un texte
généré par IA ou qui en est le responsable en cas de contenu offensant par exemple.
Cette faille juridique pose de nombreux problèmes puisque n’importe qui peut faire
passer un contenu généré par Chat GPT pour son propre contenu. Ces
problématiques sont d’autant plus inquiétantes que nos outils de détection de plagiat
sont devenus obsolètes face à l’avancée fulgurante des IA. Aucun détecteur de
plagiat ne peut à ce jour détecter un texte généré par IA. Il devient donc nécessaire
de discuter une réglementation stricte autour du droit d’auteur et de l’intelligence
artificielle. (Liebrenz, Schleifer, Buadze, Bhugra, Smith, 2023)
14
c) Les limites éthiques
L’une des limites éthiques principales de l’intelligence artificielle est la problématique
de la responsabilité. Il est aujourd’hui impossible de déterminer un responsable dans
le cas de l’utilisation de l’intelligence artificielle et notamment du machine learning.
En effet, l'algorithme apprenant est une suite d’instructions qui permet d’obtenir un
résultat plus ou moins satisfaisant, et d’ensuite déterminer de nouveaux types
d’algorithmes apprenants plus performants. La machine est ainsi capable
d’apprendre seule et d’atteindre un degré croissant d’autonomie, ce qui lui permet de
se détacher de son programmeur. Dans le cas d’un algorithme classique, la machine
reproduit les étapes que son programmeur a définies et programmées. En cas
d’erreur, c’est donc le programmeur qui est responsable. Mais les algorithmes
apprenants tels que les IA sont tellement autonomes qu’ils utilisent des algorithmes
de plus en plus différents de ceux programmés initialement par leurs créateurs. La
machine devient ainsi de plus en plus indépendante de son programmeur, ce qui
renforce les problématiques juridiques mais également éthiques puisqu’il devient de
plus en plus complexe de déterminer un responsable en cas d’erreur. (Donnat,
2019) Légalement, la machine ne peut pas être responsable puisqu’elle n’est pas
viable. Mais si une erreur est commise, est ce que l’on porte un homme pour
responsable, ou est ce que l’on considère que personne n’est responsable ? Par
exemple, si un véhicule autonome provoque un accident, qui est le responsable
moral : le passager ou le fabricant ? (Ashta, Mogha, 2022) Ainsi, l’émergence de
l’intelligence artificielle crée de grandes difficultés à déterminer un responsable, que
ce soit d’un point de vue juridique ou moral.
L’intelligence artificielle comporte un autre risque éthique majeur, celui de la
présence d’un biais dans son algorithme. La sélection des données transmises à l’IA
lors de son apprentissage est extrêmement importante car ce sont ces données qui
orienteront le raisonnement de l’IA par la suite. En effet, en sélectionnant des
données non neutres, l’intelligence artificielle devient elle aussi non neutre. Microsoft
avait par exemple remarqué en 2016 que son robot conversationnel Tay tenait des
propos racistes et misogynes, car l’algorithme était nourri par des conversations
15
issues des réseaux sociaux. Les biais peuvent alors être accidentels, comme dans
ce cas précis, mais peuvent également être insérés volontairement et par
malveillance dans l’algorithme d’une IA afin de biaiser une décision par exemple.
(Donnat, 2019) Ces biais peuvent ainsi créer des préjudices moraux et des injustices
discriminatoires, qui peuvent être fatidiques selon le domaine dans lequel l’IA est
utilisée, notamment en droit par exemple.
L’intelligence artificielle crée également de nombreuses inégalités sociales et
renforce la disparité. En effet, il existe deux types d’innovations, les innovations
incrémentales et les innovations disruptives. Les innovations incrémentales sont les
améliorations apportées à une technologie afin de conserver un avantage
concurrentiel en tant qu’entreprise. Ce sont des changements graduels qui
permettent aux utilisateurs de s’adapter progressivement à ces changements.
L’innovation disruptive, elle, est l’addition de plusieurs innovations incrémentales qui
est tellement forte qu’elle impose à toute l’industrie d’adopter cette même innovation,
au risque d’être désavantagée d’un point de vue concurrentiel. Ces innovations
disruptives sont souvent considérées comme des grandes avancées majeures mais
créent des disparités sociales violentes. En effet, ces deux types d’innovations
nécessitent un apprentissage de la part des utilisateurs, mais dans un cas,
l’apprentissage se fait en continue, au fur et à mesure du progrès, alors que dans
l’autre cas, l’apprentissage doit se faire de façon brutale. Un clivage social peut ainsi
s'installer entre ceux qui ont ou n’ont pas accès à ces innovations, mais également
entre ceux qui ont ou n’ont pas accès à cet apprentissage. (Ashta, Mogha, 2022) De
plus, pour ce qui concerne la recherche, l’utilisation de ChatGPT crée également des
inégalités entre les pays. En effet, l’accès à ChatGPT permet pour l’instant
d’améliorer la recherche scientifique, en permettant de produire des textes en
plusieurs langues, ce qui permettrait de démocratiser la diffusion de la connaissance
en annulant la problématique de la barrière de la langue. Cependant, la version
gratuite de ChatGPT est temporaire, ce qui pourrait créer des inégalités entre les
différents pays dans la recherche. Les pays plus pauvres ne pourront plus se payer
l’accès tandis que les pays plus aisés pourraient, ce qui accentuerait une disparité
16
déjà existante dans la recherche. (Liebrenz, Schleifer, Buadze, Bhugra et Smith,
2023)
Enfin, l’intelligence artificielle pose le problème du remplacement progressif de
l’humain, débouchant sur la perte de travail pour les métiers les plus facilement
substituables. Le remplacement des tâches voire d’emplois par la technologie
pourrait ainsi mener à une augmentation du chômage ou à une baisse des salaires
car la main d’œuvre humaine serait de moins en moins essentielle dans certains
domaines. Selon un rapport de McKinsey, environ la moitié des activités des
travailleurs pourraient être automatisées – ce qui pourrait déboucher sur une
instabilité sociale et politique. Les personnes les moins qualifiées, ayant fait peu
d’études, les ouvriers ainsi que certains employés de bureaux pourront voir leur
activité automatisée et perdre leur travail, ce qui une fois de plus pénaliserait le plus
les classes sociales les plus précaires. (Ashta, Mogha, 2022)
III. L’émergence récente des IA génératives
Note : les IA génératives ont émergé à la fin d’année 2022. Il y a donc très peu de
littérature sur le sujet au moment de l’écriture de ce mémoire.
a) Les IA génératives : qu’est ce que ChatGPT
ChatGPT est une IA chatbot, soit une intelligence artificielle qui simule une
conversation humaine pour répondre à une question ou à une requête. Cette
intelligence artificielle repose sur le concept de machine learning et se développe
grâce au feedback humain, qui peut venir le corriger ou lui signaler une erreur ou un
mécontentement. (Liebrenz, Schleifer, Buadze, Bhugra et Smith, 2023) En effet,
ChatGPT, ou Generative Pretrained Transformer, a été développé à l'aide d'une
technique appelée Reinforcement Learning from Human Feedback, ce qui lui permet
d'être très conversationnel. (Thorp, 2023) Il suffit donc de demander quelque chose,
de poser une question ou une requête, et ChatGPT génère automatiquement une
réponse, basée sur des centaines de ressources Internet. Sorti en novembre 2022,
ChatGPT a déjà attiré près de 200 millions d’utilisateurs au moment de l’écriture.
17
(Liebrenz, Schleifer, Buadze, Bhugra et Smith, 2023) L’IA a en effet connu une
émergence et un succès extrêmement rapide, en seulement deux mois. Accessible
gratuitement sur Internet, ChatGPT connaît un tel succès que la plateforme affiche
très régulièrement le message “at capacity right now”. (Thorp, 2023)
b) Le risque de désinformation
De nombreuses études ont déjà cité ChatGPT comme auteur, ce qui constitue un
grand risque de désinformation, que ce soit pour la recherche en sciences humaines
ou dans le domaine médical. Plusieurs individus ont utilisé ChatGPT pour générer
des dissertations, des essais académiques, ou des articles. Le risque est d’autant
plus présent que, si cela a été demandé dans la requête, les textes générés par l’IA
peuvent être accompagnés de références académiques et de sources. (Liebrenz,
Schleifer, Buadze, Bhugra et Smith, 2023) Mais ces textes générés par ChatGPT
peuvent devenir très dangereux une fois insérés dans le monde de la recherche car
ils peuvent contenir de fausses informations et ainsi contribuer à la désinformation.
La plateforme de ChatGPT l’annonce elle-même "ChatGPT écrit parfois des
réponses à l'apparence plausible, mais incorrectes ou absurdes". Le générateur de
textes génère ainsi des erreurs et des fausses informations et fait parfois référence à
des études scientifiques ou à des sources qui n'existent pas. Si ces contenus sont
repris dans des articles scientifiques ou des articles de presse, cela pourrait conduire
à une désinformation et à la promulgation de fausses informations (Thorp, 2023), ce
qui pourrait être d’autant plus grave dans des domaines tels que la médecine ou la
science. (Liebrenz, Schleifer, Buadze, Bhugra et Smith, 2023)
c) S’adapter à ces nouvelles technologies
Plutôt que de lutter catégoriquement contre l’émergence des IA génératives, qui est
inévitable, il faut plutôt apprendre à vivre avec ces nouvelles technologies et
s’adapter afin d’en éviter les risques. Pour ce qui concerne la recherche par
exemple, le problème majeur se situe dans la difficulté à détecter les textes générés
par IA. Une étude récente a en effet montré que sur un certain nombre de résumés
18
créés par ChatGPT, seulement 63 % d’entre eux ont été détectés par des
examinateurs universitaires. Si même les professionnels du milieu et les logiciels ne
parviennent pas à détecter les textes générés par IA, cela implique que certains faux
textes voire fausses informations pourraient bientôt se retrouver dans la littérature.
Depuis des années, les auteurs doivent préciser qu’il s’agit d’un texte original avant
de soumettre leur article scientifique. Aujourd’hui, il est même demandé de préciser
qu’il s’agit d’un texte non généré par IA. Pourtant, il n’y a aucun moyen de vérifier
ces déclarations sur l’honneur. (Thorp, 2023) Cela met en avant la nécessité de plus
en plus importante de créer un détecteur d’IA performant pour le milieu de la
recherche, afin de préserver l’authenticité et la véracité des informations partagées.
(Liebrenz, Schleifer, Buadze, Bhugra et Smith, 2023)
Pour ce qui concerne l’utilisation d’IA générative dans le milieu scolaire et
l’éducation, il faudrait que les professeurs adaptent leurs devoirs en prenant en
compte l’existence de l’intelligence artificielle. En effet, l’intelligence artificielle est
extrêmement performante en ce qui concerne les informations factuelles et les
calculs, mais elle rencontre beaucoup de difficultés avec le style d’écriture et la façon
de formuler les réponses. Les professeurs devraient ainsi mettre l’accent sur la
réflexion personnelle et l’argumentation plutôt que sur des questions factuelles afin
de se garantir que les devoirs ont bien été effectués par l’élève et non par une IA.
(Thorp, 2023)
Enfin, afin de lutter contre la perte d’emploi, il devient nécessaire pour les secteurs
de l’éducation de former différemment les jeunes en les initiant au plus tôt à
l’intelligence artificielle et aux outils permettant de gagner en productivité. (Ashta,
Mogha, 2022)
19
Partie 2 : les IA génératives d’images et le photojournalisme
a) L’émergence de l’IA dans les domaines de la rédaction et de la création
Les progrès majeurs en informatique et en technologie de ces dernières années ont
mené à un avènement de l’intelligence artificielle. Ces nouvelles technologies se
développent de plus en plus, dans divers domaines, jusqu’à atteindre notre
quotidien. En effet, si les intelligences artificielles étaient jusqu’alors utilisées par les
domaines techniques et professionnels tels que la médecine, les banques, les impôts
ou encore l’informatique, elles commencent aujourd’hui à être accessibles pour tous,
et au quotidien. C’est le cas des IA génératives, qui sont pour la plupart accessibles
sur Internet gratuitement ou à très faible coût, et qui sont très faciles à prendre en
main – leur permettant d’être utilisées par le plus grand nombre.
Les IA génératives sont des intelligences artificielles qui, à partir de contenus
existants, peuvent en générer de nouveaux. Ces intelligences artificielles peuvent
ainsi générer des sons, des images ou encore des textes de toutes pièces. Pour
cela, les IA génératives sont rattachées à une base de données conséquente,
comportant différentes images, vidéos ou textes, selon la spécificité de l’IA.
Parmi ces IA génératives, ce sont les générateurs d’images tels que Midjourney,
Stable Diffusion ou encore Dall-E qui ont connu l’essor le plus fulgurant, avec des
progrès majeurs en seulement quelques mois. Ces IA sont capables de générer des
visuels, des photographies ou des images de toutes pièces en seulement quelques
secondes, et ce à partir d’un simple prompt – une requête écrite détaillant le rendu
attendu. Pour créer ces images, les IA génératives se basent sur le machine
learning. “En s'entraînant à partir d’une base d’images conséquente, l’IA apprend à
reconnaître les liens entre un élément graphique et un texte, puis à reproduire ce lien
de façon autonome. Pour chaque requête, l’IA tente de repérer des éléments dans
sa base de données qui pourraient correspondre à ce qui lui est demandé puis
20
génère un visuel en s’inspirant des images correspondantes.” (Elodie Ferro, 15
astuces pour détecter une « fausse » photo générée par une IA, Phototrend)
Ces logiciels ont ainsi très vite intégré le milieu artistique, en permettant d’ouvrir le
champ des possibles de façon conséquente et presque infinie. Grâce à l’intelligence
artificielle, les réalisateurs de science-fiction ou de dystopie peuvent désormais
concrétiser leurs idées les plus irréalistes. Les coûts et temps de production des films
pourraient être considérablement réduits, ce qui freinerait nettement moins la
création et l’imagination des réalisateurs.
En effet, les IA génératrices d’images permettent un accès à la création que l’on
n’avait jamais connu auparavant, ce qui mène progressivement à une richesse
artistique. Il est désormais possible de créer tout ce que l’on souhaite, à partir d’une
simple requête, de façon presque inconditionnelle et illimitée. De nombreux artistes
ont ainsi commencé à centrer leur création sur l’utilisation de l’intelligence artificielle,
dans une démarche honnête et sincère. C’est le cas notamment de Mathieu Stern
qui pratique la photographie expérimentale. En 2021, il donnait une seconde vie à
des photographies en noir et blanc datant du siècle dernier en les colorisant et en y
corrigeant quelques imperfections. Pour ce faire, l’artiste avait utilisé les outils de
correction de Photoshop ainsi qu’une intelligence artificielle. Mais en quelques
années, les progrès technologiques fulgurants ont permis l’apparition d’IA nettement
plus performantes, ce qui a multiplié les possibilités de création pour le photographe.
Récemment, l’artiste a pu créer une série photographique de toutes pièces
uniquement grâce à l’intelligence artificielle. Il avait alors partagé sur ses réseaux
sociaux des images d’anciens appareils photo chinois. “Créés grâce à l’intelligence
artificielle, ces appareils n’ont jamais existé mais semblent plus vrais que nature. [...]
Pour réaliser ces faux appareils photo historiques, Mathieu Stern a utilisé
l’intelligence artificielle Midjourney. Le photographe y a écrit un texte décrivant ce
qu’il souhaitait obtenir comme résultat – un exercice difficile et long pour être sûr
d’avoir l’effet escompté [...] Une fois les images générées, le photographe les a
toutes retravaillées sur Photoshop afin de leur donner l’aspect le plus réaliste
possible. En effet, avec cette série expérimentale, Mathieu Stern ne souhaitait pas
obtenir des images virtuelles, mais bien des photographies convaincantes. [...] Afin
21
d’être le plus crédible possible, le photographe a utilisé une deuxième intelligence
artificielle, ChatGPT, afin de générer des origines historiques aux appareils issus de
son imagination. Il a ainsi imaginé une histoire générale et assez vague et l’a
soumise à l’IA qui en a fait une histoire complète, plus structurée et plus
convaincante.” (Elodie Ferro, Faux appareils photo historiques : un photographe
brouille les pistes grâce à l’IA Midjourney, Phototrend).
Cet essor de l’intelligence artificielle est donc une avancée considérable de notre
siècle en matière de création. Aujourd’hui il est désormais possible de créer tout ce
que l’on souhaite, un progrès qui peut cependant avoir de sérieuses limites éthiques.
En effet, dans son court métrage /Imagine, présenté au Nikon Film Festival, la
réalisatrice Anna Apter, récompensée par le Prix de la Critique et le Prix de la
meilleure mise en scène, utilisait avec ironie l’intelligence artificielle pour en
dénoncer les limites. Une démarche qui n’a pas plu à tous les spectateurs, et qui a
provoqué une mini-polémique. Dans son court-métrage, la réalisatrice lit en voix off
un texte qui questionne fortement les avancées technologiques, l’intelligence
artificielle et les réseaux sociaux – et qui nous interroge sur l'avenir de notre société.
Les images, elles, ont été générées par une intelligence artificielle. Pour cela, Anna
Apter a “imaginé des enfants et un ensemble de plans très précis, qu’elle a détaillés
à Midjourney afin de générer des images. La réalisatrice a ensuite animé ces mêmes
images pour en faire une vidéo.” (Elodie Ferro, /Imagine : un court-métrage réalisé
par IA, primé au Nikon Film Festival, fait polémique, Phototrend). En utilisant l’arme
du crime pour en dénoncer les limites, Anna Apter a donc relevé une question de
plus en plus présente dans le débat autour de l’intelligence artificielle, celle de la
problématique éthique d’un tel progrès technologique.
Ce court-métrage est le reflet d’une réflexion générale qui prend de plus en plus de
place au sein de la société. On se questionne aujourd’hui énormément sur l’éthique
derrière l’utilisation de l’intelligence artificielle, sur la superficialité du monde vers
lequel l’on risque d’aller, mais également sur des questions rattachées aux artistes
telles que le droit d’auteur, le copyright et la légitimité à se faire appeler artiste
lorsque l’on génère ses œuvres par IA.
22
En effet, si certains artistes profitent de l’intelligence artificielle de façon honnête afin
de dépasser les frontières du possible, d’autres utilisent ces nouvelles technologies
comme un véritable moyen de fraude. De nombreux cas d’artistes ayant fait passer
des photographies, images ou œuvres générées par IA pour leurs propres créations
ont été relevés en seulement quelques mois. C’est le cas par exemple d’Emmanuele
Boffa, un photographe italien dont les photographies avaient été relayées par Vogue
et qui a été accusé d’avoir fait générer ses images par une IA. En mars 2023, le
photographe a fini par admettre avoir généré 5 de ses images avec une intelligence
artificielle – une démarche qui pose de réelles questions éthiques. “En effet, le
photographe ne mentionne à aucun moment l’origine de ces photographies dans ses
publications, laissant entendre que ce sont, au même titre que ses autres
publications, des clichés bien réels.” (Elodie Ferro, Photo Vogue : un photographe
admet avoir utilisé l’IA pour générer certaines de ses images, Phototrend) Cette
démarche remet ainsi en cause sa légitimité en tant que photographe, mais
également la crédibilité de tous les autres artistes. En faisant passer des fausses
images pour ses propres photographies, Emmanuele Boffa – et bien d’autres –
contribue à briser la confiance du public envers les photographes et artistes.
En parallèle, plusieurs personnes se sont faites avoir par des fausses-photographies
qui avaient été générées par IA, dont des professionnels du milieu artistique. Les
fausses photographies générées par IA sont en effet parvenus à se glisser dans
différents concours photo. En avril 2023, c’est d’ailleurs une photographie générée
par IA qui a remporté le Grand Prix des Sony World Photography Awards, un des
concours de photographie professionnel les plus populaires du monde.
L’arrivée de l’intelligence dans le domaine de la création pose donc de nombreuses
questions éthiques, au-delà de simplement ouvrir le champ des possibles. Tous ces
éléments récents autour de l’émergence de l’intelligence artificielle dans le milieu de
la création suscitent de nombreuses questions tant chez les journalistes, que les
politiques, les professionnels de l’art ou les publics. D’autant plus que les IA
génératrices d’images continuent de faire des progrès considérables au fil des mises
23
à jour, et à créer des images de plus en plus réalistes. Le fait de pouvoir créer de
fausses photographies reste l’élément qui suscite le plus de débat au sein de la
société. Pour cause, cette démarche présente de nombreux risques éthiques,
juridiques, sociaux et politiques.
b) Un risque pour la crédibilité des photos reporters
L’émergence des IA génératrices d’images telles que Midjourney, Dall-E ou Stable
Diffusion n’est pas sans conséquences. Nous avons vu que l’utilisation de ces
nouvelles technologies pouvait poser des questions de légitimité pour le créateur, et
qu’elles pouvaient fortement perturber le milieu artistique. Mais l’utilisation de ces IA
génératrices d’images n’impacte pas uniquement le monde de l’art, mais également
le monde du journalisme, ainsi que les lecteurs.
En effet, les IA génératrices d’images ont connu leur essor entre la fin d’année 2022
et le début d’année 2023. Complètement gratuits pour la plupart d’entre eux – ou
disponibles à très faible coût –, ces logiciels ont pour point commun d’être
extrêmement faciles d’utilisation. Construits comme des boîtes de discussions, il
suffit de leur écrire une demande, également appelée “prompt”, et de détailler le
rendu attendu.
24
L’IA générera ensuite n’importe quelle image en seulement quelques secondes. À
partir de ces logiciels, il est donc désormais possible de créer des images de toutes
pièces, voire même des fausses photographies – une démarche qui pose de
nombreuses questions. En effet, plus les mises à jour de ces IA génératives
avancent, plus les photographies générées par IA sont réalistes. En seulement
quelques mois, ces logiciels ont déjà connu d’énormes progrès et ont corrigé leurs
erreurs les plus flagrantes. En janvier, il était par exemple possible de distinguer une
vraie d’une fausse photographie en se concentrant sur les mains, les dents ou les
cheveux des personnes représentées, car il s’agissait d’éléments avec lesquels les
IA génératives rencontraient énormément de difficultés. Mais très rapidement, leurs
algorithmes ont été corrigés et perfectionnés, permettant d’obtenir des photographies
encore plus réalistes et comportant nettement moins d’erreurs de ce type. Il est donc
aujourd’hui très compliqué de distinguer une vraie d’une fausse photographie12
, et au
vu de la rapidité des progrès de l’intelligence artificielle13
, cela sera bientôt
impossible.
Pourtant, l’image joue un rôle très important dans notre société, et notamment en
matière d’information. En effet, depuis son apparition au milieu du 19e siècle, la
photographie a très vite été adoptée par la presse car elle permettait une objectivité
claire sur un événement. L’image avait alors un rôle de témoignage, et permettait de
faire passer l’information en toute simplicité, à n’importe qui, et de façon la plus
neutre possible. “C’est en partant de ce postulat que le métier de photoreporter s’est
répandu, afin de transmettre la vérité et l’information issue du terrain, à travers des
images marquantes, qui pouvaient difficilement être contestées.” (Elodie Ferro, 15
astuces pour détecter une « fausse » photo générée par une IA, Phototrend). Au 20e
siècle, les photoreporters deviennent journalistes en tant que tels et détiennent eux
aussi le rôle de passeur de l’information, au même titre que les journalistes de
presse. À cette époque, les noms des grands photojournalistes se multiplient, dont
13
L’IA progresse plus vite que la loi Moore, une loi énoncée en 1965 par Gordon Moore, cofondateur
de la société Intel, et qui affirme que le nombre de transistors double tous les 18 mois, permettant des
ordinateurs plus petits, plus rapides, moins chers au fil du temps, et surtout plus performants.
12
Une étude menée par des chercheurs de l’université de Hong Kong et du Shanghai AI Laboratory a
montré que sur un groupe de 50 personnes sélectionnées pour déterminer quelles photographies
étaient réelles ou générées par IA, 38,7 % se sont trompés.
25
on retient Robert Capa, Henri Cartier-Bresson ou encore Raymond Depardon. Les
horreurs de la seconde moitié du 20e siècle telles que les guerres, les violences et
les génocides du monde entier ont ainsi pu être immortalisées à travers les clichés
des photojournalistes, et partagées au reste du monde afin d’informer, lutter et
éveiller les consciences. Véritables porteurs de la paix et de la vérité, les
photojournalistes ont joué un grand rôle dans l’histoire de la presse. Aujourd’hui, si le
métier de photojournaliste rencontre de grandes difficultés, on garde de cette
pratique un rapport à l’image particulier. En effet, nous avons tendance à croire les
images presque aveuglément, en se basant sur la doctrine du “Je ne crois que ce
que je vois”. Si nous sommes constamment éduqués à vérifier les informations lues
et entendues, les images que l’on reçoit ou que l’on trouve dans la presse n’avaient
jusqu’alors presque jamais été remises en cause – malgré une légère tendance au
doute depuis l’arrivée des logiciels de retouches.
Mais aujourd’hui, les progrès fulgurants des IA génératrices d’images viennent
perturber fortement ce rapport à l’image, notre rapport à l’information, et viennent
décrédibiliser le métier de photojournaliste. En effet, en utilisant des IA génératrices
d’images telles que les logiciels Midjourney, Dall-E ou Stable Diffusion, n’importe qui
peut très simplement générer une fausse photographie, sans aucune restriction. Si
beaucoup de personnes utilisent ces logiciels de façon inoffensive, ces IA constituent
pourtant un grand danger pour le domaine de l’information. L’Histoire a déjà prouvé à
de nombreuses reprises les risques de la désinformation, de la manipulation de
l’information, et des dérives que cela pouvait entraîner pour notre société. Imaginons
que l’IA ait existé durant la Seconde Guerre mondiale. À l’époque, la manipulation de
l’image était faite grossièrement et était donc facilement détectable. Aujourd’hui avec
des outils aussi avancés, il est beaucoup plus facile de manipuler l’information. Or,
nous vivons encore aujourd’hui dans une société où l’information est sensible et
défaillante, et où la désinformation est une menace perpétuelle. Les IA génératrices
d’images ne font donc qu’accroître ce risque de désinformation en permettant aux
personnes mal intentionnées de manipuler l’information extrêmement facilement.
26
En effet, les fausses photographies créées afin de répandre de fausses rumeurs ou
de fausses informations ont déjà commencé à circuler sur les réseaux sociaux
depuis le début d’année 2023, notamment sur Twitter. Si certains utilisateurs
indiquent avec honnêteté leur démarche en spécifiant que leur image a été générée
par IA, d’autres s’amusent du doute que peut semer leur image et n’indique pas la
véritable origine de celle-ci. “Ainsi, on a récemment pu croiser sur les réseaux
sociaux des fausses photographies montrant le pape en doudoune, Donald Trump se
faisant arrêter ou Emmanuel Macron en manifestation. De même, le visuel d’un
homme âgé au visage ensanglanté entouré de policiers a déclenché une vive
polémique… et a donné du fil à retordre à celles et ceux tentant de discerner s’il avait
été créé par une IA ou non.” (Elodie Ferro, 15 astuces pour détecter une « fausse »
photo générée par une IA, Phototrend).
Plus les mises à jour de ces logiciels s’enchaînent, plus les photographies générées
sont réalistes. Si l’on ajoute à cela le fait que ces IA sont accessibles à tous, sans
restriction ni d’âge, ni de connaissances techniques, et sans réglementation sur les
prompt autorisés ou non, alors il est aujourd’hui possible de créer des photographies
de n’importe qui, faisant n’importe quoi – un procédé qui peut être utilisé de façon
très comique et dérisoire, mais qui peut vite devenir dramatique. Deux risques
majeurs se présentent alors. Dans un premier cas, les personnes mal intentionnées
continueront de générer des fausses images, ces IA pourront potentiellement être
utilisées par des gouvernements autoritaires pour nourrir la désinformation, et nous
vivrons dans une société où démêler le vrai du faux sera extrêmement complexe
voire impossible. La population n’aura plus aucun accès à la vraie information – ce
qui constitue une porte ouverte à toutes les dérives. Dans un autre cas, les esprits
commenceront à s’éveiller comme c’est déjà le cas. Chacun prendra conscience des
risques de la désinformation causés par les IA génératrices d’images et les gens
arrêteront de croire les images. Malheureusement, puisqu’il sera impossible de
discerner les vraies des fausses images, alors il deviendra plus simple de ne plus
jamais croire les images qui se présentent à nous. Le métier de photojournaliste aura
perdu de tout son sens et l’image ne détiendra plus son rôle de témoignage. Peu à
27
peu, plus personne ne croira en les médias, ce qui mènera une fois de plus à une
société où connaître la véritable information sera extrêmement complexe.
Ainsi, l’émergence des IA génératrices d’images constitue un risque pour le métier
de photojournaliste, mais également pour tous les métiers de l’information et pour la
société en général. Face à ces progrès technologiques, il devient donc de plus en
plus essentiel d’exercer notre esprit critique et notre discernement, d’apprendre à
vérifier l’information et de se méfier des images qui se présentent à nous. L’issue
n’est pour autant pas fatale et l’interdiction des IA n’est une solution ni possible, ni
pertinente. Il est nécessaire d'apprendre à vivre avec cette technologie et de la
réguler afin d’éviter les dérives mentionnées plus tôt.
c) La nécessité de développer un nouveau rapport à l’image
L'émergence et les progrès rapides des IA génératrices d’images permettent
désormais à n’importe qui de créer des fausses photographies extrêmement
réalistes. Il est maintenant possible de rencontrer sur les réseaux sociaux des
fausses photographies d’une personne réelle faisant quelque chose qu’elle n’a
jamais fait. On a ainsi pu croiser sur les réseaux sociaux des images du Président
Emmanuel Macron en manifestation ou de Donald Trump se faisant arrêter. Ces
exemples prouvent qu’il n’y a aucune restriction lors de la création d’images sur les
logiciels générateurs d’images, et que n’importe qui peut faire faire ce qu’il veut à
quelqu’un. Une grande vague de fausses photographies générées par IA a ainsi
envahi les réseaux sociaux durant les mois de février et mars 2023. Si l’engouement
semble aujourd’hui être retombé, le risque de voir circuler de fausses images, et par
conséquent de fausses informations, est encore présent. Au-delà d’être un simple
divertissement, les IA génératrices d’images pourraient donc nous mener vers un
monde de désinformation. C’est pourquoi il est nécessaire d’apprendre à vivre avec
ces nouvelles technologies – puisque lutter contre celles-ci semble impossible – et
ainsi développer un nouveau rapport à l’image, en gardant désormais en tête que
28
chacune des images qui se présentent à nous peut être fausse et avoir été générée
par une IA.
“Alors que les formes de désinformation et de manipulation ne cessent de se
multiplier – notamment depuis l’adoption en masse des réseaux sociaux –, vérifier
l’information qui se présente à nous est essentiel. En effet, nous vivons aujourd’hui à
l’ère de la « surinformation », dans laquelle tout le monde a la possibilité de créer ou
relayer une information. Il devient également de plus en plus complexe de démêler le
vrai du faux.” (Elodie Ferro, 15 astuces pour détecter une « fausse » photo générée
par une IA, Phototrend). Les photographies extrêmement réalistes que peuvent
générer les IA telles que Dall-E, Midjourney ou Stable Diffusion renforcent ce risque
de désinformation et floutent encore plus cette frontière entre le vrai et le faux. Ainsi,
elles remettent fortement en question la fiabilité des images qui se présentent à nous
et sèment le doute. La nécessité du fact checking ne fait donc que s’accroître afin de
ne pas tomber dans le piège des fausses photographies.
Jusqu’alors, il était possible de “croire que ce que l’on voit”. Aujourd'hui, il est
essentiel de développer un nouveau rapport à l’image et d’apprendre à détecter une
vraie d’une fausse photographie. Pour cela, il faut observer les détails des images
qui se présentent à nous et y chercher des incohérences. En effet, les IA comportent
encore beaucoup de défauts et ont du mal avec la restitution de certains détails tels
que les mains, les dents, les cheveux et les groupes – dont le nombre élevé de
détails perturbe l'algorithme et provoque des aberrations. Il est donc nécessaire de
prendre pour habitude de questionner chacune des images en observant les arrière-
plans, les décors, les personnes en fond, afin de déceler des erreurs, des doigts en
trop, des incohérences et des anomalies. En prenant cette habitude, notre esprit
critique et notre discernement seront entraînés, ce qui diminuera peu à peu le risque
de croire innocemment une fausse photographie. Ainsi, il faut désormais entrer dans
un doute perpétuel, afin de ne pas tomber dans les pièges de la désinformation.
Mais ce nouveau rapport à l’image aura des conséquences directes et indirectes sur
le monde du journalisme. D’une part, les journalistes sont touchés dans leur
29
quotidien par cette émergence de l’IA puisqu’ils doivent désormais approfondir leur
travail de fact checking, qui se trouve plus complexe et donc plus long, avant de
relayer des images dans les médias, que ce soit des photographies ou des vidéos.
D’autre part, ce nouveau rapport à l’image provoqué par l'émergence de l’IA a des
conséquences indirectes sur le journalisme puisqu’il changera la façon dont les
lecteurs consommeront l’information. Les images seront constamment remises en
question, ce qui compliquera leur utilisation, alors qu’elles étaient jusqu’alors la façon
la plus objective et sincère de transmettre la vérité du monde. Ainsi, si la façon de
consommer l’information se trouve à ce point bouleversée, il deviendra par
conséquent nécessaire d’également changer la façon dont on transmet l’information.
Ainsi, comme à l’arrivée de la photographie, de la radio puis de la télévision, la
presse se trouve très probablement aujourd'hui dans une étape de transition majeure
de son histoire.
Mais toutes ces précautions face aux fausses images et à la désinformation ne
relèvent pour l’instant que de la volonté et de la négligence des journalistes et des
lecteurs – ce qui dépend pour le cas des lecteurs de leur éducation sur le sujet. Afin
d’être juste et éthique, il ne faut donc pas s’attendre à ce que chacun se méfie
simplement des informations qui se présentent à lui, mais il faudrait plutôt encadrer
les intelligences artificielles afin de protéger complètement la société des risques
causés par les IA génératrices d’images.
Ainsi, le besoin d’un encadrement juridique se fait de plus en plus ressentir. En effet,
de nombreux professionnels de tous milieux confondus s'inquiètent du vide juridique
qui entoure ces nouvelles technologies. Les débats autour de l’IA se multiplient sur
les réseaux sociaux, dans les médias, et au cœur des rédactions et des métiers de la
communication, mais également dans le milieu artistique et technologique. Pourtant,
les créateurs des logiciels ne semblent pas réagir face à ces inquiétudes
grandissantes. En effet, alors que surgit un grand mouvement de questionnement
éthique quant aux IA génératrices d’images, David Holz, CEO de Midjourney, a
annoncé au mois d’avril la fermeture provisoire de la version gratuite de son logiciel.
“Une annonce que de nombreux médias ont interprété comme un recul de la startup
30
face aux problèmes éthiques causés par la diffusion de ces « vraies-fausses
photographies”. Mais en réalité, il s’avère que cette décision intervient suite à la
multiplication des faux comptes sur la plateforme.” (Elodie Ferro, Midjourney
suspend ses essais gratuits : qu’en est-il de la question éthique des images
générées par IA ?, Phototrend) Cette annonce a donc prouvé que les directeurs qui
se cachent derrière les IA ne semblent pas se sentir concernés par les dérives des
outils qu'ils proposent. Face à ce manque de responsabilité et à cette inconscience
de la part des créateurs de ces logiciels, il devient donc de plus en plus nécessaire
d’encadrer juridiquement ces nouvelles technologies afin d'éviter le pire en matière
d’information.
Pour cela, nombreux demandent une régulation particulière en imposant d’indiquer
clairement la source exacte des images, tandis que d’autres demandent des
restrictions de prompt afin qu’il soit impossible de générer des images de personnes
publiques. “Une lettre ouverte a récemment été publiée afin d’appeler les
développeurs d’intelligence artificielle à faire une pause de 6 mois dans le
développement des algorithmes. Une pause nécessaire afin de ralentir les avancées
fulgurantes de l’intelligence artificielle afin de laisser le temps à l’humanité de
s’adapter à ces nouveaux outils, à apprendre à les appréhender et à en comprendre
les risques. Elle permettrait également aux créateurs de développer des protocoles
de sécurité afin de mieux encadrer la conception des images afin d’éviter les dérives
éthiques – et ainsi limiter la propagation des fake news accompagnées d’images plus
vraies que nature.” (Elodie Ferro, Midjourney suspend ses essais gratuits : qu’en
est-il de la question éthique des images générées par IA ?, Phototrend)
Cette demande de régulation est loin d’être irréaliste puisque, comme nous avons pu
le voir dans notre revue de littérature, les logiciels de traitement de données sont
soumis à des règles strictes. Or, les intelligences artificielles utilisant une base de
données conséquente afin de générer des images, elles devraient elles aussi être
soumises aux règles de droit en vigueur telles que les règles du RGPD. Pourtant, à
ce jour, elles ne le sont pas.
31
Au moment de la rédaction, l’AI act est discutée au Parlement Européen. Il s’agit
d’une “initiative visant à encadrer l’intelligence artificielle de façon à la rendre digne
de confiance, centrée sur l’humain, éthique, durable et inclusive.” (Réglementation
de l’Intelligence artificielle en Europe : vers un RGPD de l’IA, Devoteam)
Enfin, la CAI, la Content Authenticity Initiative, semble être la régulation la plus
réaliste et efficace. Il s’agit d’un projet mené par Adobe, le New York Times et Twitter
afin de mettre en place une régulation autour des images publiées sur les réseaux
sociaux. Actuellement, il est impossible d’accéder aux métadonnées des médias
partagés sur les réseaux sociaux car celles-ci se trouvent automatiquement
supprimées. La CAI permettrait d’accéder à ces métadonnées et de pouvoir
retrouver la source d’une image et retracer toutes les modifications que celle-ci a
connues. Avec cette régulation, chacun se verrait protégé des fausses photographies
puisqu’il sera possible de voir directement dans ses métadonnées si une image a été
générée par un appareil photo ou par une IA.
Ainsi, les débats et les inquiétudes autour de l’intelligence artificielle sont
progressivement en train d’atteindre les milieux juridique, politique et technique, ce
qui nous rapproche de plus en plus d’une éventuelle régulation. Grâce à celle-ci, l’IA
génératrice d’images pourrait devenir un véritable outil de travail et de création, sans
risques de dérives éthiques et de désinformation, et donc aux conséquences
nettement moins dramatiques pour le monde du journalisme.
32
Partie 3 : les IA génératives de textes et le métier de journaliste
a) L’utilisation de l’intelligence artificielle en journalisme
Similaires à Midjourney, Stable Diffusion ou Dall-E dans leur algorithme, leur
fonctionnement et leur principe, les IA génératrices de textes ont connu le même
essor et le même succès que les IA génératrices d’images. Ce sont d’ailleurs ces
logiciels générateurs de textes, et notamment le plus célèbre ChatGPT, qui ont été le
plus discuté et qui semblent avoir atteint la plus grande tranche de la population.
Tout comme les IA génératrices d’images abordées plus tôt, ChatGPT se présente
comme une boîte de dialogue, grâce à laquelle il est possible d’échanger et de
discuter avec l’intelligence artificielle. Au delà de pouvoir lui faire générer du texte à
des fins conversationnelles, il est possible de demander au logiciel de résumer des
textes, d’écrire un article, un essai, une histoire, un conte, ou tout genre de contenu
rédactionnel. Pour cela, il suffit de créer un prompt – une requête – détaillé afin
d’expliquer au logiciel le rendu attendu.
Source : 11+ des meilleurs prompts ChatGPT, Commentcoder.com
33
Lancé en novembre 2022 dans une version gratuite et accessible sur Internet, le
logiciel a rencontré un succès immédiat, avec près d’un million d’utilisateurs en
seulement cinq jours après son lancement. Aujourd’hui, seulement 6 mois après sa
mise en ligne, le logiciel cumule déjà 4 milliards de visites à travers le monde. Pour
cause, ChatGPT a séduit le plus grand nombre très rapidement, grâce à sa facilité
d’utilisation et son côté révolutionnaire. Très vite, les collégiens, lycéens et étudiants
ont commencé à faire générer leurs devoirs à l’intelligence artificielle – ce qui a
rapidement inquiété l’éducation nationale, désemparée face à ce progrès majeur. Le
logiciel s’est soudain retrouvé partout, sur les réseaux sociaux et dans les médias,
parfois désigné comme miraculeux et incroyable, d’autres fois suscitant des
inquiétudes.
En effet, cette émergence rapide a vite suscité un débat, dans l’éducation et ailleurs,
autour de l’intelligence artificielle. ChatGPT s’est retrouvé considéré comme une
menace par les professeurs. Mais un autre débat propre au milieu de la
communication a lui aussi émergé. D’un côté, de nombreux professionnels de la
communication ont profité de l’essor de cette nouvelle technologie pour l’intégrer à
leur travail, dans leur offre, ou pour en proposer des formations. Depuis quelques
mois, il est possible de voir des rédacteurs proposer des formations à ChatGPT sur
Linkedin, réseau social professionnel. D’un autre côté, les détracteurs de
l’intelligence artificielle s’inquiètent pour ces professionnels de la communication qui
se tirent une balle dans le pied en faisant la promotion d’un outil qui risque de les
remplacer. L’inquiétude de voir l’IA remplacer certains métiers s’est en effet accrue
depuis l’émergence des IA génératives – notamment pour ce qui concerne les
métiers de rédacteur et de journaliste. Mais est ce qu’une intelligence artificielle peut
réellement remplacer le métier de rédacteur en journalisme ? Comment s’adapter à
cette nouvelle technologique qui semble se glisser partout et dans toutes les
professions ?
34
Avant de se questionner sur l’utilisation de l’intelligence artificielle dans le
journalisme de presse, il est nécessaire de comprendre le métier de journaliste, son
rôle et ses enjeux.
Le journaliste, quelque soit sa spécialité – économie, politique, culture, faits divers ou
encore sport –, a pour mission de transmettre l’information à travers un média, que
ce soit la presse, la radio, le web ou la télévision. Pour cela, son rôle est de vérifier
l’information auprès de ses sources, puis de la partager de façon claire, accessible et
objective sous forme d’un article ou d’un reportage. Il détient ainsi un rôle de porteur
de la vérité pour la société. Dans le cas d’un journaliste de presse écrite, le
journaliste se doit d’écrire des articles neutres, dans lesquels chaque mot est pesé et
ne risque pas d’orienter l’opinion de celui qui le lit – sauf dans le cas d’un média
officiellement orienté politiquement. Le journaliste doit – en théorie – toujours
communiquer des faits, de la vérité pure et vérifié, et non des opinions, ce qui lui
permet de conserver une crédibilité à travers le temps.
De plus, le journaliste, en plus de son devoir d’objectivité et de transmission de
l’information, donne une certaine légitimité à ses propos à travers son statut.
Initialement, au 19e siècle, les journalistes étaient des hommes politiques ou
littéraires, spécialistes de leur domaine, ce qui les rendait légitime à écrire sur tel ou
tel sujet. Avec le temps, et notamment avec l’arrivée d’Internet, le métier de
journaliste s’est ouvert à toute personne présentant une certaine plume et une
qualité d’écriture, l’accès aux informations étant de plus en plus facile. Mais si
aujourd’hui les journalistes ne sont plus des spécialistes de leur domaine, ils
détiennent toujours une légitimité à communiquer une information, et ce notamment
grâce aux compétences en écriture, l’objectivité, et la vérification de l'information
dont ils doivent faire preuve.
Afin de s’assurer de cette qualité de journalisme, il existe une déontologie du
journalisme, encadré par deux textes majeurs en Europe : la Charte de Munich,
approuvé par les syndicats de journalistes de 6 pays d’Europe en 1971, ainsi que la
Charte d’éthique professionnelle des journalistes, rédigée en 1918 par le Syndicat
35
National des Journalistes. Ces textes comportent dix devoirs et cinq droits, que
chaque journaliste se doit de respecter afin de protéger sa crédibilité, sa légitimité et
son intégrité.
Les dix devoirs de la charte
1. Respecter la vérité, quelles qu’en puissent être les conséquences pour
lui-même, et ce, en raison du droit que le public a de connaître la vérité.
2. Défendre la liberté de l’information, du commentaire et de la critique.
3. Publier seulement les informations dont l’origine est connue ou les
accompagner, si c’est nécessaire, des réserves qui s’imposent ; ne pas
supprimer les informations essentielles et ne pas altérer les textes et les
documents.
4. Ne pas user de méthodes déloyales pour obtenir des informations, des
photographies et des documents.
5. S’obliger à respecter la vie privée des personnes.
6. Rectifier toute information publiée qui se révèle inexacte.
7. Garder le secret professionnel et ne pas divulguer la source des
informations obtenues confidentiellement.
8. S’interdire le plagiat, la calomnie, la diffamation, les accusations sans
fondement ainsi que de recevoir un quelconque avantage en raison de la
publication ou de la suppression d’une information.
9. Ne jamais confondre le métier de journaliste avec celui du publicitaire ou du
propagandiste ; n’accepter aucune consigne, directe ou indirecte, des
annonceurs.
10.Refuser toute pression et n’accepter de directives rédactionnelles que des
responsables de la rédaction.
Les cinq droits de la charte
1. Les journalistes revendiquent le libre accès à toutes les sources
d’information et le droit d’enquêter librement sur tous les faits qui
36
conditionnent la vie publique. Le secret des affaires publiques ou privées ne
peut en ce cas être opposé au journaliste que par exception en vertu de
motifs clairement exprimés.
2. Le journaliste a le droit de refuser toute subordination qui serait contraire à
la ligne générale de son entreprise, telle qu’elle est déterminée par écrit
dans son contrat d’engagement, de même que toute subordination qui ne
serait pas clairement impliquée par cette ligne générale.
3. Le journaliste ne peut être contraint à accomplir un acte professionnel ou à
exprimer une opinion qui serait contraire à sa conviction ou sa conscience.
4. L’équipe rédactionnelle doit être obligatoirement informée de toute décision
importante de nature à affecter la vie de l’entreprise. Elle doit être au moins
consultée, avant décision définitive, sur toute mesure intéressant la
composition de la rédaction : embauche, licenciement, mutation et
promotion de journaliste.
5. En considération de sa fonction et de ses responsabilités, le journaliste a
droit non seulement au bénéfice des conventions collectives, mais aussi à
un contrat personnel assurant sa sécurité matérielle et morale ainsi qu’une
rémunération correspondant au rôle social qui est le sien et suffisante pour
garantir son indépendance économique.
Source : Charte déontologique de Munich, Cfdt-Journalistes
Utiliser ChatGPT en tant que journaliste serait immoral car cela consisterait à faire
passer pour sien un texte généré automatiquement. De plus, cette démarche serait
fondamentalement contraire à la déontologie du journalisme, puisque cela ne
respecterait pas les devoirs de la Charte de Munich. En effet, pour générer ses
textes, ChatGPT fouille une grande quantité de données récupérées sur le web et
récupère ce qu’il trouve pour ensuite générer un texte. Mais le logiciel, contrairement
à un journaliste, n’indique pas ses sources, quand il le fait indique parfois des
fausses sources et peut récupérer des informations biaisées. Il éprouve également
certaines difficultés à lire les pages web et mélange parfois les informations
37
présentes sur une page, créant ainsi des confusions et générant de fausses
informations. Il rattache par exemple les informations présentes dans la rubrique “À
lire aussi” à un article sur un sujet bien précis.
ChatGPT produit donc des articles non neutres dont le contenu peut être faux et qui
ne possèdent donc aucune qualité journalistique. Utiliser ChatGPT pour faire générer
ses articles contribuerait ainsi à relayer de fausses informations, ce qui est contraire
au journalisme et au rôle de porteur de vérité. Même si les IA génératives deviennent
de plus en plus performantes en matière de qualité d’écriture, il sera toujours
nécessaire d’avoir une équipe de journalistes pour repasser sur les articles, vérifier
les informations et assurer la qualité journalistique de l’article.
Ainsi, en plus de ne pas pouvoir être utilisé par les journalistes pour générer des
articles plus rapidement, ChatGPT ne pourra jamais remplacer le métier de
journaliste, puisque jamais une IA ne pourra respecter la déontologie du journaliste.
En effet, l’IA aura toujours un risque de biais, qui la rend incapable de remplacer un
juge, un policier ou un journaliste par exemple.
b) Un outil qui ne remplacera pas le journalisme : étude de cas de ChatGPT
En plus de sa capacité à respecter la déontologie, le journaliste, en tant qu’humain,
aura toujours une plus-value dans son écriture par rapport à une machine. En effet,
le journalisme nécessite et exige une certaine qualité d’écriture. Il est donc
nécessaire d’avoir une orthographe irréprochable, mais également une certaine
plume, qui ne soit ni trop littéraire – car cela serait trop lourd à lire et trop embelli
pour des faits parfois dramatiques –, ni trop oral. Les phrases doivent être courtes et
simples tout en s'enchaînant correctement pour ne pas ennuyer le lecteur. Les
tournures de phrases doivent être neutres et objectives, chaque mot doit être choisi
de façon précise afin de ne pas biaiser le lecteur et ne pas risquer de déformer la
réalité. Chaque phrase se doit d’être nécessaire et d’apporter une information
nouvelle afin de ne pas perdre l’attention de son lecteur. Enfin, l’article doit s’appuyer
38
sur des sources sûres et relater uniquement des faits, et non des opinions – sauf
dans le cas d’une chronique ou d’un édito.
Face à l’émergence des IA génératives, et notamment de ChatGPT, l’inquiétude de
voir ce nouveau logiciel remplacer les rédacteurs s’est rapidement fait ressentir sur
les réseaux sociaux. Les articles “ChatGPT peut-il remplacer un rédacteur web ?” ou
“Quels métiers risquent d’être remplacés par l’IA” ont rapidement envahi le web.
Pourtant, ChatGPT le dit lui même, l’IA ne pourra jamais remplacer le journalisme :
Texte généré par ChatGPT
Nous nous sommes donc questionnés sur cet outil apparemment phénoménal, qui
risquerait de remplacer le métier de rédacteur, voire de journaliste, afin d’en juger les
compétences et prouver qu’en effet, l’IA ne remplacera pas ces métiers.
Pour cette étude de cas, nous avons donc demandé de l’aide à ChatGPT pour
rédiger des articles de presse, puis nous avons analysé les textes générés d’un point
39
de vue journalistique, afin d’en juger l’écriture. Pour cela, nous avons utilisé la
version 3 de ChatGPT, soit la version gratuite et accessible sur Internet sortie en
novembre 2022, qui a collecté en quelques mois plus de 4 milliards de visites. Il faut
cependant préciser qu’une version 4 de ChatGPT, apparemment plus performante et
ayant un accès direct à Internet, est disponible de façon payante depuis mars 2023.
Nous avons réalisé cette étude de cas sur le temps long, en changeant plusieurs fois
de méthode, afin d’essayer de tirer de ChatGPT ses meilleurs résultats.
Nous avons testé pour la première fois ChatGPT au début du mois de janvier 2023,
alors que l’IA génératrice de texte était au centre de toutes les discussions sur les
réseaux sociaux, et notamment Twitter. Confronté à un violent syndrome de la page
blanche sur un sujet d’article, nous avons demandé à ChatGPT de l’aide afin de
trouver de l’inspiration, et ainsi entamer la rédaction de l’article efficacement. Le sujet
portait sur l’hystérisation du débat. L’angle choisi était celui du rôle des réseaux
sociaux dans l’hystérisation du débat, et le cas choisi était celui des élections
présidentielles françaises de 2022. Nous avons donc proposé à ChatGPT plusieurs
prompts : “Parles de moi de l’hystérisation du débat” puis “Écris un article sur
l'hystérisation du débat”. Les réponses étaient très courtes et peu approfondies.
Nous avons donc essayé de demander une consigne précise, afin d’obtenir un
résultat plus convaincant. Afin d’obtenir une réponse plus longue et donc plus
complète, nous avons commencé par préciser le nombre de caractères souhaité, soit
3000 afin d’avoir une argumentation complète. L’IA a généré une réponse plus
longue, mais sans apporter plus d’informations. Le texte restait creux, très général, et
n’apportait pas d’informations concrètes – comme si ChatGPT avait essayé de
“broder” pour obtenir le nombre de caractères souhaité. Nous avons donc essayé
d’autres prompts en précisant l’angle, soit la responsabilité des réseaux sociaux,
mais sans succès. Nous avons ensuite demandé à ChatGPT de se concentrer sur le
cas des élections présidentielles françaises de 2022 en espérant voir sortir des
exemples concrets. À chaque tentative, le texte généré était creux, répétitif et
beaucoup trop général.
40
Texte généré par ChatGPT-3
De plus, les exemples mobilisés étaient flous. ChatGPT affirmait des faits sans
préciser de quoi il s’agissait concrètement. À la lecture de certaines phrases telles
que « les différents candidats ont été accusés de tous les maux et les débats ont
souvent dégénéré en confrontations personnelles plutôt qu’en discussions sur les
véritables enjeux de fond », on se demande de qui on parle, quand est ce que cela
s’est produit, dans quel cadre, et surtout quelle est la source. Ces exemples n’ont
41
aucune valeur journalistique et ne peuvent pas être conservés dans un article
journalistique car ils sont infondés et que le logiciel pourrait très bien les avoir
inventés. Ainsi, en supprimant de l’article de ChatGPT toutes les phrases trop
génériques et dont les faits sont infondés, non justifiés ou non sourcés, il ne resterait
presque plus rien du texte. Face à ces résultats très peu convaincants, nous avons
donc considéré cette première tentative comme un échec.
Un mois plus tard, début février 2023, nous avons effectué un deuxième essai de
ChatGPT. Pour cela, nous avons effectué des recherches sur la façon de proposer
un prompt efficace à ChatGPT. D’après le site Internet Le blog du modérateur, il y
aurait 5 conseils à suivre dans la rédaction d’un prompt ChatGPT afin d’obtenir de
meilleurs résultats :
● Contextualiser la demande
● Donner un rôle à ChatGPT qu’il devra incarner afin de générer une réponse
satisfaisante
● Définir la cible, le support ou le canal de diffusion
● Donner un exemple de réponse attendue
● Multiplier les requêtes
Nous avons donc testé à nouveau les compétences de ChatGPT, avec un tout autre
sujet : le Brexit, et en générant cette fois un prompt considéré comme efficace. Dans
la même démarche que pour le premier sujet nous avons demandé à ChatGPT de
générer un article sur le Brexit, avec pour angle l’impact de cette sortie de l’Europe
sur l’Angleterre. Nous avons précisé le rôle (un journaliste spécialisé en économie),
le format de sortie attendu (un article de 3000 caractères), et nous avons donné des
pistes de réflexion et des exemples afin d’orienter la réponse du logiciel.
Après plusieurs tentatives, voici le meilleur résultat que nous avons pu obtenir de
ChatGPT :
42
Texte généré par ChatGPT-3
Pour ce qui est du style d’écriture, nous constatons les mêmes problématiques que
lors de la première tentative : l’article est creux et les phrases génériques. Mais cette
fois, les exemples mobilisés s'appuient sur des chiffres, comme demandé dans le
prompt. Cependant, aucune source n’est indiquée, et certaines sources
43
traditionnelles semblent donner des chiffres bien différents de ceux évoqués par
ChatGPT. Il est donc impossible d’utiliser des données si peu certaines. Conserver
les chiffres partagés par ChatGPT pourrait contribuer à transmettre de fausses
informations.
De plus, les textes générés par ChatGPT manquent de travail journalistique – une
rigueur que seul un humain pourrait avoir. En tant qu’êtres sensibles, nous sommes
particulièrement attentifs aux risques de désinformation, à la nécessité de vérifier les
sources. Cette expérience sensible du monde nous permet également de
communiquer d’une certaine façon, de se sentir concerné par les sujets dont l’on
parle et ainsi transmettre une émotion dans nos phrases. En comparaison, l’IA
génère des phrases robotiques, parfois biaisées, et ne s’attache pas à la vérification
de l’information comme un journaliste pourrait le faire. Les articles générés par
ChatGPT n’ont alors aucune qualité journalistique, comportent trop de répétitions, de
phrases génériques, d’exemples non fondés, de faits non sourcés. Faire générer son
article par ChatGPT en tant que journaliste serait donc contraire à la déontologie, et
croire que le logiciel pourrait remplacer le métier serait une erreur.
Ainsi, ChatGPT ne semble pas être un risque pour les métiers de rédacteurs et de
journalistes, qui en tant que spécialistes et en tant qu’humains auront toujours une
plus value par rapport à l’IA, malgré tous les progrès que celle-ci pourrait connaître.
Cependant, il est nécessaire de rappeler que cette étude de cas a été effectuée avec
la version 3 de ChatGPT. La version 4 du logiciel étant reliée à Internet, cela pourrait
avoir un rôle sur la véracité des données et des informations transmises. Toutefois, le
risque de biais et de manque d’objectivité de l'algorithme restera toujours un
problème qui vaudra indéfiniment la supériorité du journaliste qui, lui, pourra vérifier
les informations de l’IA auprès de sources sûres.
c) Comment utiliser l’IA en tant que journaliste
Face à la puissance croissante des intelligences artificielles, et notamment des IA
génératives, il est nécessaire d’agir. Mais lutter contre l’émergence de l’IA est peine
44
perdue puisque ces progrès sont hors de notre contrôle. Les créateurs de ces
logiciels ont pour ambition d’aller toujours plus loin et de créer des outils toujours
plus performants. Face à l’enjeu économique de ces progrès technologiques, il est
donc inutile d’espérer un recul de la part des créateurs. Ainsi, plutôt que de lutter
contre l’émergence et le développement de l’IA, qui sont des éléments inévitables du
futur, il est nécessaire d’accepter ces progrès et d’apprendre à vivre avec ces
nouveaux outils. Pour cela, une régulation devra être mise en place, afin de diminuer
les possibilités de dérives éthiques et de désinformation. Mais il faudra également,
en tant que citoyen, apprendre à travailler de façon efficace avec ces outils, comme
on a pu le faire à l’arrivée d’Internet ou de Wikipédia.
En effet, nous avons déjà vu que par ses compétences et sa déontologie, le
journaliste restera essentiel à la société et ne pourra pas se voir remplacé par
l’intelligence artificielle. La crainte de voir son métier remplacé par l’IA est très
répandue, mais n’est pas toujours valide. Les métiers ont toujours évolué au fil des
innovations industrielles et technologiques. Certains métiers ont disparu, d’autres ont
évolué et certains ont même été créés depuis ces innovations. Rester fermé face à
l’intelligence artificielle ne serait donc pas le meilleur moyen de lutter contre les
dérives de cette dernière. Il serait plus utile d’apprendre à maîtriser ces logiciels pour
en faire un gain de productivité. Certains rédacteurs ont déjà compris que ChatGPT
n’était pas leur ennemi mais plutôt un outil, qui contribue à faire évoluer leur métier
plutôt que de le remplacer. Depuis quelques mois déjà, de nombreuses formations à
ChatGPT sont ainsi proposées par des rédacteurs ou experts en communication sur
Linkedin.
D’après une étude menée en avril 202314
, sur 254 rédacteurs français, près de la
moitié (53,5 %) utilise l’IA dans leur travail au quotidien. Parmi les 46,5 % restants,
48,8 % ne trouvent pas que ces outils soient utiles dans leur travail, 16,3 % ne
savent pas comment utiliser l’intelligence artificielle et 34,9 % ne souhaitent pas
l’utiliser pour des raisons éthiques et déontologiques. Les rédacteurs utilisant
l’intelligence artificielle pour le travail affirment trouver des avantages à ces outils,
14
Étude menée par Louis Darques sur Linkedin auprès de 254 rédacteurs français, en avril 2023.
45
tels que le gain de temps, une meilleure compréhension des sujets et une aide à
l’optimisation pour le référencement. Cependant, 55,9 % d’entre eux ont également
détecté des problèmes de qualité ou de cohérence de contenu et 44,9 % ont
remarqué un manque de personnalisation des contenus. Enfin, plus de la moitié des
interrogés estiment que l’IA restera un complément dans le futur et qu’elle ne
remplacera pas les rédacteurs humains.
De la même manière, les journalistes peuvent utiliser ces nouveaux outils permis par
l’intelligence artificielle dans leur quotidien. Une bonne connaissance de ces logiciels
pourrait leur permettre de renforcer leur productivité, sans compromettre leur respect
de la déontologie. Voici quelques exemples de problématiques que peuvent
rencontrer les journalistes, et des façons de les résoudre en utilisant l’intelligence
artificielle.
● Le syndrome de la page blanche
Chaque auteur, rédacteur ou journaliste a déjà été confronté au syndrome de la page
blanche, un sérieux manque d’inspiration et un sentiment de ne pas savoir par où
commencer, comment traiter un sujet, avec quel angle. Plutôt que de rester des
heures devant une page blanche sans savoir comment se lancer, ou pire de
s’inspirer d’autres médias ayant déjà traité le sujet, les rédacteurs peuvent désormais
recourir à l’intelligence artificielle pour s’inspirer. L’objectif n’est pas de demander à
ChatGPT de rédiger le rendu final – ce qui serait comme nous l’avons vu plus tôt une
atteinte à la déontologie du journalisme – mais plutôt de l’utiliser comme un outil de
recherche afin de se lancer étape par étape dans un sujet, et ainsi se libérer du
syndrome de la page blanche. Il est donc possible de demander à ChatGPT de
générer un plan autour d’un sujet, des axes de réflexion ou des exemples. Ainsi,
l’intelligence aura contribué à trouver une structure et un angle pour un article, à
trouver des pistes de recherches, et non pas à générer l'entièreté de l’article. En
effet, cette méthode implique un travail de recherche du journaliste, qui devra vérifier
et approfondir seul ses recherches.
46
● La recherche de sources sur un sujet précis
Dans cette même démarche, il est possible de demander à ChatGPT une liste de
sources autour d’un sujet précis. L’IA Perplexity, permet également de répondre à
une question et de façon sourcée. Ces mêmes sources peuvent ensuite être
consultées et analysées par le journaliste qui effectuera son travail de recherche
comme à son habitude. Il s’agit simplement d’un gain de temps dans la recherche,
comme demander de l’aide à un agent de bibliothèque pour trouver des ouvrages
autour d’un sujet de recherche.
47
● La prise de notes rapides
Suivre des conférences de presse ou des réunions peut parfois s’avérer complexe,
surtout lorsque beaucoup d’informations sont données. L’intelligence artificielle
Otter.ai propose de prendre des notes automatiquement soit depuis le micro de
l’ordinateur ou téléphone, soit en étant relié directement aux visioconférences. Les
notes apparaissent au fur et à mesure sur l’écran. Il est ensuite possible d’intervenir
dans la prise de notes pour ajouter des informations ou effectuer des corrections.
L’outil ne fonctionne pour l’instant pas pour la prise de notes de contenus en français
mais est assez efficace pour les réunions en anglais.
48
Test de l’IA Otter.ai pour prendre des notes de la conférence de presse d’Asteroid
City, disponible sur Youtube
● La retranscription des interviews
La retranscription à l’écrit des interviews enregistrées est une tâche extrêmement
chronophage qui peut parfois prendre une journée entière. L’intelligence artificielle
Aiko permet de retranscrire entièrement les interviews, et ce dans n’importe quelle
langue. L’outil éprouve quelques difficultés lorsqu’une personne parle une langue
étrangère avec un accent d’un autre pays, mais reste tout de même très efficace.
● Paraphraser pour mieux reformuler
Il est parfois complexe de se détacher du communiqué de presse sur des sujets
techniques. De même, il est possible de ne pas réussir à reformuler soi-même une
de ses phrases. Un paragraphe peut ne pas être assez clair, et pourtant, après avoir
trouvé une façon de dire quelque chose, il n’est pas toujours facile de trouver un
moyen de dire la même chose autrement. L’outil QuillBot permet de paraphraser un
texte. La nouvelle version reformulée de ce texte peut ainsi libérer les journalistes
d’un blocage, lorsqu’ils sont confrontés à une information technique qu’ils ne
parviennent pas à formuler différemment. L’outil n’est pour l’instant disponible qu’en
49
anglais. Cependant, il parvient à paraphraser des textes français, en anglais, ce qui
peut également être très utile si l’on utilise cet outil pour mieux se détacher du
communiqué de presse dans notre formulation.
Ainsi, de nombreux outils sont désormais disponibles pour automatiser les tâches les
plus complexes ou chronophages. Utiliser ces outils permettrait non pas de
remplacer les métiers du journalisme, mais de les simplifier et d’augmenter la
productivité des journalistes. Tous les outils ne sont pas encore performants mais les
progrès dans ce domaine sont très rapides. Il faut également prendre en compte que
nous avons utilisé les versions gratuites de tous ces logiciels – donc moins
performantes.
50
Conclusion
Nous pouvons donc conclure notre recherche en affirmant que les progrès de
l’intelligence artificielle, et notamment des IA génératrices de textes et d’images,
comportent des risques très élevés en matière d’information, et qu’ils modifieront –
s’ils ne le font pas déjà – les métiers du journalisme dans les années à venir.
Si le débat autour de l’intelligence artificielle a toujours été très animé et polarisé
depuis les premiers pas de cette innovations dans les années 1950, Ashta et Logha
expliquent dans leur ouvrage que ce débat a eu tendance à s’orienter vers des
questions éthiques depuis quelques années, tandis qu’il tendait vers des questions
techniques le siècle dernier. Pour cause, la question de l’intelligence artificielle est
extrêmement complexe puisqu’elle interroge de nombreux aspects de l’innovation,
les possibilités technologiques, les droits juridiques, et les devoirs éthiques – des
questions qui se retrouvent aujourd’hui une nouvelle fois au centre du débat autour
de l’intelligence artificielle, dans le cadre de l’émergence des IA génératives.
Les métiers du journalisme se trouvent profondément impactés par ces progrès
technologiques et sont ainsi au cœur du débat. En effet, tandis que les IA
génératrices de textes remettent en question la nécessité du métier de rédacteur, les
IA génératrices d’images tendent à décrédibiliser le métier de reporter.
En effet, nous avons vu que les IA génératrices d’images permettent aujourd’hui de
créer de fausses photographies extrêmement réalistes – et ce facilement et
gratuitement pour n’importe qui. Ces outils comportent un réel risque de
désinformation, en permettant à toute personne mal intentionnée de relayer des
fausses images et donc de fausses informations. Les conséquences sont donc
doubles pour le milieu de l’information. D’une part, les fausses informations se
multiplient et deviennent de plus en plus crédibles car appuyées par des images
vraisemblables. D'autre part, cette multiplication de fausses photographies tend à
développer une certaine méfiance quant aux images qui se présentent à nous et à
diminuer la confiance que l’on porte aux photographies. Le métier de photojournaliste
51
perd alors de tout son sens, puisque la photographie perd peu à peu son rôle de
témoignage du réel. Il est donc nécessaire de mettre en place une régulation
juridique afin de mieux encadrer la création d’images par intelligence artificielle. Cela
permettrait de diminuer le risque de désinformation mais également de protéger
notre rapport à l’image – et donc le métier de photojournaliste.
Cependant, si l’émergence des IA génératives compromet le monde de l’information
par ses risques de dérives, les intelligences artificielles ne risquent pas de remplacer
le métier de journaliste. En effet, nous avons vu que les journalistes étaient soumis à
une certaine déontologie, qu’ils bénéficiaient d’une certaine légitimité grâce à leurs
sources fiables et qu’ils étaient dotés de réelles qualités d’écriture objective – des
qualités que l’intelligence artificielle pourra difficilement atteindre. Même si les IA
génératrices de texte connaissent des progrès impressionnants en termes d’écriture,
le métier de journaliste restera toujours essentiel et pourra difficilement être remplacé
par une IA, notamment grâce à son rôle essentiel pour la société. Contrairement au
journaliste, qui doit – en principe – produire un contenu neutre et objectif, les IA
peuvent être biaisées et ne pourront jamais garantir une information objective.
Cependant, bien maîtrisées elles constituent un outil essentiel dans vie du journaliste
afin de gagner en productivité.
Ainsi, l’émergence de l’intelligence artificielle a des conséquences sur le métier du
journalisme, qu’elles soient éthiques ou pratiques, sans que celles-ci soient
forcément dramatiques pour le milieu de l’information. En effet, le monde de
l’information et de l’intelligence artificielle peuvent être compatibles, sous certaines
conditions :
● L’intelligence artificielle doit faire l'objet d’une régulation juridique afin de
limiter les dérives éthiques et de protéger l’information
● Notre rapport à l’image doit changer afin d’éviter la désinformation
● Nous ne devons pas considérer l’IA comme une menace mais comme un outil
● Nous devons apprendre à utiliser ces nouveaux outils afin d’en tirer des
résultats concluants
52
Références bibliographiques
ASHTA, Arvind, MOGHA Vipin. Les risques liés à l’innovation : le cas de l’intelligence
artificielle. Burgundy School of Business, Université Bourgogne Franche-Comté.
2022.
Disponible sur : https://www.openscience.fr/IMG/pdf/iste_techinn23v8n1_1.pdf
DONNAT, Francis. L’intelligence artificielle, un danger pour la vie privée ? Pouvoirs.
Mars 2019, numéro 170, p.95-103. Disponible sur :
https://www.cairn.info/revue-pouvoirs-2019-3-page-95.htm
GEFFRAY, Édouard, GUÉRIN-FRANÇOIS Alexandra. Code de la protection des
données personnelles 2023, annoté et commenté. Dalloz. 2023.
HAIECH, Jacques. Parcourir l’histoire de l’intelligence artificielle, pour mieux la définir
et la comprendre. Med Sci. Octobre 2020, volume 36, numéro 10, P.919-023.
Disponible sur :
https://www.medecinesciences.org/en/articles/medsci/full_html/2020/08/msc200112/
msc200112.html
LIEBRENZ, Michael, SCHLEIFER Roman, BUADZE Anna, BHUGRA Dinesh, SMITH
Alexander. Generating scholarly content with ChatGPT: ethical challenges for
medical publishing. The Lancet Digital Health. Mars 2023, numéro 5, p.105-106.
Disponible sur :
https://www.thelancet.com/action/showPdf?pii=S2589-7500%2823%2900019-5
ROUGIER, Nicolas P. Une brève histoire de l'intelligence artificielle. Pint of Science.
2015.
THORP, Herbert Holden. ChatGPT is fun, but not an author. Science. Janvier 2023,
numéro 379, p.313. Disponible sur :
https://www.science.org/doi/full/10.1126/science.adg7879
53
Annexes
Annexe 1 : Déclaration sur honneur
Je, soussignée Élodie Ferro, déclare avoir rédigé ce travail sans aides extérieures
non mentionnées ni sources autres que celles qui sont citées. L’utilisation de textes
préexistants, publiés ou non, y compris en version électronique, est signalée comme
telle. Ce travail n’a été soumis à aucun autre jury d’examen sous une forme identique
ou similaire, que ce soit en France ou à l’étranger, à l’université ou dans une autre
institution, par moi-même ou par autrui.
Je suis informée que mon travail est susceptible d’être contrôlé avec un logiciel
destiné à cet effet, avec les conséquences prévues par la loi en cas de plagiat avéré.
Le 8 juin, Les mureaux
Elodie Ferro (numéro étudiant : 41009241)
54

Contenu connexe

PPTX
Intelligence Artificielle - Comment change-t-elle le mode ? JBU2018
PPTX
Les dangers de l'IA, ainsi qui l'a créé.pptx
PDF
Ciné-Club Philo sur l'IA @La Reduiste 25-01-10.pdf
PDF
Digital.pdf
PDF
Euratech'trends : Intelligence Artificielle
PPTX
artificial intelligence and applications
PDF
LES AVANTAGES DE L’UTILISATION DE L’INTELLIGENCE ARTIFICIELLE.pdf
PDF
LES AVANTAGES ET LES RISQUES DE LA SINGULARITÉ TECHNOLOGIQUE BASÉE SUR LA SUP...
Intelligence Artificielle - Comment change-t-elle le mode ? JBU2018
Les dangers de l'IA, ainsi qui l'a créé.pptx
Ciné-Club Philo sur l'IA @La Reduiste 25-01-10.pdf
Digital.pdf
Euratech'trends : Intelligence Artificielle
artificial intelligence and applications
LES AVANTAGES DE L’UTILISATION DE L’INTELLIGENCE ARTIFICIELLE.pdf
LES AVANTAGES ET LES RISQUES DE LA SINGULARITÉ TECHNOLOGIQUE BASÉE SUR LA SUP...

Similaire à Mémoire M2 Elodie Ferro (20)

PDF
20190701 balladoradio sarah_achard
PDF
3 minutes pour comprendre ... l'Intelligence Artificielle
PDF
Cahier de veille intelligence artificielle
PDF
La coopération des intelligences
PDF
FR-CNTNT-eBook-MicrosoftLivreblancGuidedesurviedelIntelligenceArtificielle.pdf
PDF
L'intelligence, des origines naturelles aux frontières artificielles - Intell...
PPTX
Les slides de noël du Social Media Club France
PDF
LA SUPERINTELLIGENCE ARTIFICIELLE, SES BÉNÉFICES ET NUIRES ET QUE FAIRE POUR ...
PDF
Quel quotidien bercé d'IA créons-nous ?
PDF
Impact de l'intelligence artificielle sur le marketing
PPTX
Audition ChatGPT Mission IA Commission des Lois
PPTX
Cours d'Intelligence Artificielle et Apprentissage Automatique.pptx
PDF
Intelligence Artificielle : quelles conséquences pour l'imprimerie et le web-...
PPTX
Intelligence artificielle
PDF
La diversité et la véracité de l'IA dans la vie de tous les jours avec un ...
PDF
1340774899 cahier anr-4-intelligence-artificielle
PDF
AQCS : Révolutions, éducation et gestion
PPTX
Convergence NBIC CKTS et RH
PDF
Revue de presse 2017 2018 - Intelligence artificielle (IA) et emplois
PPTX
COURS INTELLIGENCE ARTIFICIELLE.pptx
20190701 balladoradio sarah_achard
3 minutes pour comprendre ... l'Intelligence Artificielle
Cahier de veille intelligence artificielle
La coopération des intelligences
FR-CNTNT-eBook-MicrosoftLivreblancGuidedesurviedelIntelligenceArtificielle.pdf
L'intelligence, des origines naturelles aux frontières artificielles - Intell...
Les slides de noël du Social Media Club France
LA SUPERINTELLIGENCE ARTIFICIELLE, SES BÉNÉFICES ET NUIRES ET QUE FAIRE POUR ...
Quel quotidien bercé d'IA créons-nous ?
Impact de l'intelligence artificielle sur le marketing
Audition ChatGPT Mission IA Commission des Lois
Cours d'Intelligence Artificielle et Apprentissage Automatique.pptx
Intelligence Artificielle : quelles conséquences pour l'imprimerie et le web-...
Intelligence artificielle
La diversité et la véracité de l'IA dans la vie de tous les jours avec un ...
1340774899 cahier anr-4-intelligence-artificielle
AQCS : Révolutions, éducation et gestion
Convergence NBIC CKTS et RH
Revue de presse 2017 2018 - Intelligence artificielle (IA) et emplois
COURS INTELLIGENCE ARTIFICIELLE.pptx
Publicité

Dernier (7)

PDF
Processus dans la gestion des transports, TM100 Col18
PDF
IPTV Meilleur - Le Meilleur Abonnement IPTV en France pour 2025
PPTX
Projet de Fin d’Études – Plateforme FMS pour la Gestion des FCPR
PPTX
test pour la présentation foire de Chalôns V1
PDF
Démystification des QR codes - histoire - utilisations - techniques
PPT
Pratiques des systèmes d'information ppt
PDF
1.3.4-Handling-and-Safety-Instructions-FR-2024.pdf
Processus dans la gestion des transports, TM100 Col18
IPTV Meilleur - Le Meilleur Abonnement IPTV en France pour 2025
Projet de Fin d’Études – Plateforme FMS pour la Gestion des FCPR
test pour la présentation foire de Chalôns V1
Démystification des QR codes - histoire - utilisations - techniques
Pratiques des systèmes d'information ppt
1.3.4-Handling-and-Safety-Instructions-FR-2024.pdf
Publicité

Mémoire M2 Elodie Ferro

  • 1. FERRO Elodie Master 2 CRDM UFR PHILLIA 2022-2023 L’intelligence artificielle : des progrès fulgurants, mais non sans conséquences pour le journalisme Enseignant encadrant le mémoire : Marta Severo Image générée par IA
  • 2. Résumé Dans le cadre de ce mémoire, nous nous sommes concentrés sur l’impact de l’émergence des intelligences artificielles génératives sur les métiers du journalisme. Depuis le lancement de ChatGPT, un logiciel générateur de texte, en novembre 2022, les IA génératives inquiètent le plus grand nombre. Pour cause, les logiciels générateurs d’images et de textes deviennent de plus en plus performants et ont connu des progrès fulgurants en quelques mois seulement. L’inquiétude de voir ChatGPT remplacer le métier de rédacteur a rapidement émergé, tandis que les fausses images générées par les logiciels générateurs d’images ont envahi le web. Nous nous sommes donc demandés quelles étaient les conséquences de ces nouveaux logiciels sur le monde de l’information et notamment sur les métiers de photojournalistes et journalistes de presse. L’étude de la littérature nous a permis de comprendre l’histoire et l’évolution de ces technologies, afin de mieux évaluer leur impact. Nous avons ensuite abordé les limites éthiques de ces intelligences artificielles génératives et les risques que celles-ci comportent pour l’information et le métier de photojournaliste. Nous avons également analysé les compétences de ChatGPT et des IA génératrices de textes afin d’évaluer si ces logiciels pouvaient remplacer le métier de journaliste et comment les rédacteurs pourraient utiliser ces nouveaux outils à bon escient. Mots clés: ● Intelligence artificielle ● IA ● Journalisme ● Rédacteur ● Technologie ● IA générative ● Photojournalisme ● ChatGPT ● Dall-E ● Midjourney 2
  • 3. Sommaire Introduction 4 Partie 1 : Revue de la littérature 6 I. Qu’est ce que l’intelligence artificielle ? 6 a) Naissance de l’intelligence artificielle 6 b) L’utilisation de l’intelligence artificielle aujourd’hui 9 c) La régulation actuelle 10 II. Les limites de l’intelligence artificielle 11 a) La crainte de l’Homme face à l’intelligence artificielle 11 b) Les limites juridiques 13 c) Les limites éthiques 15 III. L’émergence récente des IA génératives 17 a) Les IA génératives : qu’est ce que ChatGPT 17 b) Le risque de désinformation 18 c) S’adapter à ces nouvelles technologies 18 Partie 2 : les IA génératives d’images et le photojournalisme 20 a) L’émergence de l’IA dans les domaines de la rédaction et de la création 20 b) Un risque pour la crédibilité des photos reporters 24 c) La nécessité de développer un nouveau rapport à l’image 28 Partie 3 : les IA génératives de textes et le métier de journaliste 33 a) L’utilisation de l’intelligence artificielle en journalisme 33 b) Un outil qui ne remplacera pas le journalisme : étude de cas de ChatGPT 38 c) Comment utiliser l’IA en tant que journaliste 44 Conclusion 51 Références bibliographiques 53 3
  • 4. Introduction Pensée pour la première fois dans les années 1950, la première intelligence artificielle a vu le jour en 1955. Depuis, les technologies et les innovations autour de cette invention n’ont cessé de progresser à travers les décennies. Aujourd’hui, l’intelligence artificielle est utilisée dans de nombreux domaines tels que la banque, les impôts ou encore la sécurité, et se glisse dans notre vie sous de nombreuses formes telles que les algorithmes des réseaux sociaux ou les outils de traduction automatique. Pourtant, depuis quelques mois, les progrès de l’intelligence artificielle semblent inquiéter le plus grand nombre. Pour cause, l’IA s'immisce de plus en plus dans notre quotidien et y devient omniprésente. Ces progrès impactent désormais l’information, l’éducation, la création, ce qui n’est pas sans conséquences. En novembre 2022, ChatGPT, une intelligence artificielle génératrices de textes, était officiellement lancée, accessible gratuitement et en ligne. En parallèle, les IA génératrices d’images ont connu des progrès fulgurants. Midjourney a sorti les versions 4 puis 5 de son logiciel générateur d’images, des versions aux capacités étonnantes en matière de création d’images, puisque les images générées ressemblent désormais à de vraies photographies. Ainsi, tandis que certains craignent de voir ChatGPT remplacer des métiers et faire tous les devoirs des étudiants, d’autres s’inquiètent des progrès des IA génératrices d’images et des risques éthiques que celles-ci peuvent comporter. En effet, le risque de désinformation est un des dangers les plus présents dans l’utilisation de ces IA génératrices de textes ou d’images. Dans le cadre de ce mémoire, nous nous sommes donc concentrés sur le cas de ces IA génératrices d’images et de textes, et de la façon dont celles-ci peuvent impacter le milieu du journalisme, d’un point de vue éthique et technique. On peut en effet se questionner sur l’utilité des rédacteurs aujourd’hui face à l'émergence d’un outil comme ChatGPT. La crédibilité des photographes de presse peut également être remise en question, maintenant que n’importe quelle photographie réaliste peut être 4
  • 5. générée par une IA. Nous nous demanderons donc quelles sont les conséquences de l’arrivée fulgurante de l’IA sur les métiers du journalisme et quelles sont les limites de ce progrès technologique ? Notre hypothèse est que ces nouvelles IA génératives cachent, finalement, beaucoup de défauts et que, même si elles comportent énormément de risques éthiques quant à la désinformation, elles ne pourront pas remplacer les journalistes d’un point de vue technique. Nous tâcherons de répondre à notre problématique et de tester notre hypothèse au cours de cette réflexion. Nous analyserons les conséquences de l’utilisation des IA sur le milieu du journalisme, et en particulier sur les métiers de rédacteurs et de photoreporter. Nous aborderons également les limites de l'intelligence artificielle, qu’elles soient éthiques, déontologiques ou légales, mais également les façons d’utiliser ces progrès technologiques à bon escient. Pour cela, nous analyserons dans un premier temps ce qui a été dit théoriquement sur la création, l'évolution et les limites de l’intelligence artificielle à travers le temps. Puis, nous discuterons des conséquences de l’émergence des IA génératrices d’images sur le métier de photojournaliste et sur notre rapport à l’image. Enfin, nous étudierons les IA génératrices de textes telles que ChatGPT afin d’observer dans quel cadre les intelligences artificielles peuvent être utilisées ou non dans le journalisme de presse. 5
  • 6. Partie 1 : Revue de la littérature I. Qu’est ce que l’intelligence artificielle ? a) Naissance de l’intelligence artificielle Le débat autour de l’intelligence artificielle, qui anime de plus en plus la société depuis la fin d’année 2022, est loin d’être récent. Ce qui est nouveau, c’est la façon dont on pense l’intelligence artificielle et dont on l’appréhende. En effet, il y a soixante-dix ans, le débat sur l'intelligence artificielle était centré sur la question technique, tandis qu’aujourd’hui le débat tend vers la question éthique. (Ashta, Mogha, 2022) Ainsi, pour comprendre les débats autour de l’intelligence artificielle, il est nécessaire de connaître l’histoire et l’évolution de cette technologie. En mai 1942, Frank Fremont-Smith1 organise une réunion sur l’inhibition cérébrale2 afin de rassembler des chercheurs autour de la question du réseau neuronal, de la pensée humaine et du fonctionnement plus général du cerveau humain. Véritable réussite, cette réunion lance un certain nombre de réflexions autour de la cybernétique3 et donne lieu à 10 conférences, appelées “les conférences de Macy”, organisées de 1946 à 1953 afin de comprendre le fonctionnement général de la pensée humaine. Mais si l’objectif de départ de ces conférences n’est pas atteint – les chercheurs ne sont pas parvenus à comprendre le fonctionnement du cerveau et des processus cognitifs – celles-ci ont permis de lancer les recherches autour du système neuronal, dont les avancées joueront un rôle majeur en informatique et en technologie. (Haiech, 2020) L’officialisation de l’intelligence artificielle survient quelques années plus tard, en 1956, lors d’une conférence à Dartmouth aux 3 Cybernétique : étude des mécanismes complexes d'informations tels que les êtres vivants, les cellules ou encore la société. 2 Inhibition cérébrale : capacité à contrôler ou bloquer nos intuitions ou nos actions 1 Frank Fremont-Smith : 1895-1974, administrateur américain, président de la fédération mondiale de la santé mentale et promoteur de conférences interdisciplinaires pour faire avancer la connaissance. 6
  • 7. États-Unis. (Rougier, 2015) Cette conférence dure 8 semaines et réunit une vingtaines de chercheurs, dont quatre avaient déjà assisté aux conférences de Macy quelques années plus tôt. (Haiech, 2020). Les pionniers de l’intelligence artificielle tels que John McCarthy, Herbet Simon, Claude Shannon et Marvin Minsky assistent à cette conférence, chacun rêvant d’une machine capable de surpasser l’Homme – une idée complètement utopique puisqu’à l’époque, tout est à inventer. (Rougier, 2015) C’est alors que John Mc Carthy choisit le terme “intelligence artificielle” afin de se distinguer de la cybernétique, un domaine dont ces chercheurs se rapprochent mais dont la recherche est différente. En effet, le but des chercheurs en intelligence artificielle est de comprendre et de simuler les processus cognitifs afin de reproduire le système de pensée et de réflexion humaines sur une machine. La cybernétique, elle, se concentre sur les réponses effectuées dans un système lorsque ce même système s’éloigne de son objectif à atteindre, soit le concept de feedback. Au fil des recherches et notamment à partir de 1956, une distinction se creuse entre cybernétique et intelligence artificielle, deux domaines de recherche qui interagissent et se nourrissent entre eux, mais qui connaîtront des évolutions et des financements différents. (Haiech, 2020) En parallèle de ces évolutions théoriques, de réels progrès techniques sont développés par les chercheurs. Ainsi, la première machine capable de raisonnement voit le jour en 1955, lorsque Allen Newell et Herbert Simon conçoivent le programme "Logic theorist4 ”, permettant de démontrer automatiquement 38 des 52 théorèmes du traité Principia Mathematica d'Alfred North Whitehead et Bertrand Russell5 . Ce programme est alors considéré comme un progrès majeur et comme la première intelligence artificielle. L’invention sera rapidement suivie par le GPS ("General Problem Solver") un programme qui permet de résoudre n’importe quel type de problème mathématique. Les années 1960 amènent ensuite la traduction automatique, les avancées en robotique et de nombreux progrès dans la recherche scientifique. (Rougier, 2015) Dans les années 1970, l’intelligence artificielle fait ses 5 Principia Mathematica : œuvre qui regroupe les grands fondements des mathématiques 4 Logic Theorist : premier programme informatique capable de résoudre des problèmes mathématiques 7
  • 8. premiers pas en médecine avec MYCIN6 , un système expert d’aide au diagnostic. (Haiech, 2020) L'intelligence artificielle connaît des avancées majeures jusqu’à la fin des années 1970, avant que les chercheurs ne se rendent compte qu’ils étaient trop optimistes. En effet, Marvin Minsky déclarait en 1970 "Dans trois à huit ans nous aurons une machine avec l'intelligence générale d'un être humain ordinaire” – une déception qui marque une première pause dans les avancées technologiques autour de l’IA7 . (Rougier, 2015). Les innovations reprennent doucement au cours des années 1980. Les chercheurs souhaitent désormais aller plus loin et développer des machines apprenantes, qui seraient capables de classer les objets. Ces machines retiennent les classifications programmées puis, par déduction, apprennent à reconnaître et à classer des objets en autonomie. C’est ce qu’on appelle aujourd’hui le machine learning. Dans les années 1990, la puissance des ordinateurs s'accroît fortement, ce qui permet de traiter et d’analyser plus de données, et donc de développer des intelligences artificielles plus performantes. (Haiech, 2020) En 1997, une machine bat un humain aux échecs pour la première fois. Le super-ordinateur8 d’IBM devient ainsi champion du monde d'échecs. Malgré cette grande avancée, les objectifs de l’intelligence artificielle ne sont pas atteints. En effet, les chercheurs souhaitaient créer une machine capable de battre l’homme dans n’importe quel domaine. Ici, la machine est capable de gagner une partie d’échec grâce à des calculs de probabilité, mais elle reste inférieure à l’Homme qui, lui, est doté d’une logique et d’une raison. En effet, l’humain connaît une expérience sensible dans le monde qui lui permet de comprendre plus de choses : les émotions, les sensations, les envies, tandis que l’intelligence artificielle ne fonctionne que grâce aux algorithmes. Face au manque de résultats par rapport à ce qui était attendu par les chercheurs, l’innovation ralentit une fois de plus à la fin des années 1990. À partir de 2010, le deep learning, un algorithme d’apprentissage qui permet à la machine d’apprendre seule à partir d’exemple, est extrêmement développé. Grâce aux progrès technologiques des 8 Super-ordinateur : ordinateur conçu pour atteindre les plus hautes performances technologiques possibles au moment de sa conception 7 IA : Intelligence artificielle 6 MYCIN : système utilisant l’intelligence artificielle afin d’identifier des bactéries responsables d’infections graves et de déterminer un traitement 8
  • 9. dernières années, les ordinateurs ont une puissance de calcul leur permettant de traiter une grande quantité de données. L’intelligence artificielle se développe donc de plus en plus dans le traitement de données, dans la traduction ou dans la reconnaissance d’images. Tous ces progrès effectués sur plus d’une soixantaine d’années ont permis de développer de nombreux champs de recherches tels que la reconnaissance de la parole, la fouille de données, les réseaux de neurones artificiels ou encore le machine learning – des algorithmes qui nous entourent aujourd’hui au quotidien sans que l’on s’en rende compte, dans les banques, dans le systèmes des impôts ou encore sur les réseaux sociaux. (Rougier, 2015) b) L’utilisation de l’intelligence artificielle aujourd’hui Aujourd’hui, l’intelligence artificielle est répandue dans notre quotidien sans qu’on ne la remarque et qu’on ne la considère comme telle. On la retrouve notamment dans les algorithmes de traduction automatique, dans les voitures autonomes, ou encore dans les robots et logiciels de plus en plus performants. (Rougier, 2015) Du côté de l’industrie, l’IA est adoptée par de plus en plus d’entreprises, tant dans un objectif d’innovation, que de rentabilité, d’efficacité ou de commerce, que ce soit par de grandes entreprises comme Amazon ou par des petites entreprises. L’IA est alors utilisée dans des objectifs de surveillance ou de reporting9 , afin de mieux connaître les consommateurs, leurs besoins, leurs habitudes d’achats etc. Mais certaines industries sont plus confrontées à l’IA que d’autres car elles ont besoin d'innover plus régulièrement. C’est le cas notamment des marques d’appareils électroniques ou technologiques tels que les ordinateurs ou les téléphones, qui sont poussées à innover pour conserver leur compétitivité et leurs avantages concurrentiels. Ainsi, l’innovation pousse à l’innovation, ce qui permet des progrès conséquents rapidement. (Ashta, Mogha, 2022) L’IA est également de plus en plus utilisée dans les secteurs de l’économie, afin d’améliorer les prévisions, d’analyser une plus grande quantité de données et ainsi 9 Reporting : réalisation de rapports sur les activités et résultats d’une organisation 9
  • 10. améliorer la productivité et l’efficacité. Elle permet également de prévenir les risques et de lutter contre la fraude ou les crimes financiers en permettant de meilleures prévisions. (Ashta, Mogha, 2022) Enfin, l’intelligence artificielle est également utilisée en médecine, notamment en imagerie médicale, que ce soit avec les IRM, les scanner ou les radio. (Haiech, 2020) Jusqu’ici, les algorithmes étaient limités aux calculs et permettaient un gain de productivité, de sécurité ou de rentabilité. Les machines n’étant pas capables de comprendre le monde sensible, elles ne peuvent par exemple pas comprendre les captcha10 . Pourtant, depuis 2015, l’IA progresse sur des domaines alternatifs et divers, et s’éloigne de plus en plus du calcul pour développer de nouvelles compétences. (Rougier, 2015) On peut donc se demander si l’intelligence artificielle ne sera pas bientôt capable de résoudre les captcha, voire de pouvoir surpasser l’humain, comme le souhaitaient les chercheurs des années 1960 et 1970. c) La régulation actuelle Note : au moment de la rédaction, soit en mai 2023, il n’y a pas de régulation spécifique encadrant l’intelligence artificielle. La seule loi qui se rapproche assez de cette technologie et qui puisse l’encadrer pour l’instant est la loi qui concerne le RGPD. Il a très vite été nécessaire de réguler les traitements automatisés de données personnelles afin de respecter le droit au respect de la vie privée. L’essor du traitement massif de données a en effet débouché sur la loi du 6 janvier 1978, la loi française Informatique et Libertés. Cette loi comporte le RGPD, le Règlement Général sur la Protection des Données, un règlement qui encadre juridiquement le traitement des données personnelles sur le territoire de l’Union Européenne encore 10 Captcha : mesure de sécurité sous forme de question/réponse permettant de distinguer un humain d’un robot 10
  • 11. aujourd’hui. Cette loi implique plusieurs règles sur l’utilisation des données. Ainsi, les données collectées doivent être “adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées” (art. 5-1). Chacun a le droit de savoir si ses “données à caractère personnel font ou non l’objet d’un traitement” (art. 15-1). La personne concernée a également le droit d’avoir accès à ces données et de connaître les finalités du traitement, le type de données concernées, leur durée de conservation, ainsi que les destinataires auxquels elles ont été ou seront communiquées. Cinq règles relatives aux données ont ainsi été déterminées : le traitement de données doit être licite c’est-à-dire que la personne concernée doit avoir consenti à l’utilisation de ses données, il doit être loyal et transparent c’est-à-dire que la personne doit savoir comment sont traitées les données de façon accessible et intelligible, les données sensibles telles que l'ethnie, l’opinion politique, la religion ou l’appartenance syndicale ne doivent pas être traitées, la personne peut s’opposer à un traitement de ses données et elle a le droit de ne pas être jugée uniquement à partir d’un traitement de données mais par une décision fondée effectuée par un humain. Il faudrait donc prolonger et adapter les règles du RGPD à l’intelligence artificielle. Il serait nécessaire de mettre en place une législation propre aux données non personnelles, de demander à ce que les données utilisées dans l’apprentissage des IA soient “de qualité, pertinentes et non biaisées” et d’exiger une traçabilité des données utilisées. (Donnat, 2019) En effet, face à l’ancienneté de la loi Informatique et Libertés, on peut se demander s’il ne serait pas nécessaire de modifier et d’adapter le RGPD à notre époque contemporaine et à tous les progrès technologiques que celle-ci implique, afin de mieux encadrer l’IA – une technologie révolutionnaire mais aux nombreuses limites. II. Les limites de l’intelligence artificielle a) La crainte de l’Homme face à l’intelligence artificielle Toute innovation a toujours suscité de nombreuses craintes et inquiétudes. C’est notamment le cas pour les innovations technologiques, qui par leur grande 11
  • 12. nouveauté, confrontent régulièrement les humains à l’inconnu. C’est d’ailleurs cette crainte de l’inconnu qui provoque une peur de l’intelligence artificielle, comme d’autres ont pu avoir peur des progrès informatiques par le passé. (Ashta, Mogha, 2022) En effet, la peur des intelligences artificielles à laquelle nous sommes confrontés aujourd’hui n’a rien de nouveau. Vernor Vinge, auteur de science-fiction, écrivait dans les années 1990 “Dans 30 ans, nous disposerons de la technologie adéquate pour créer une super-intelligence. Peu de temps après, l'humanité s'éteindra”. Les sciences-fictions et les dystopies ont ainsi nourri et continuent de nourrir des inquiétudes quant aux progrès technologiques. Les gens ont peur que les chercheurs inventent un ordinateur si intelligent qu’il dépassera son programmeur et qu’il sera capable à son tour d’inventer des ordinateurs intelligents – un cercle vicieux qui mènera à la fin de l’humanité. (Rougier, 2015) Une crainte s’est ainsi installée à travers les années, celle que l’humain devienne plus faible que les robots, que ceux-ci finissent par dominer le monde, voire que l’on devienne leurs esclaves. Une autre inquiétude se répand de plus en plus au fur et à mesure des progrès technologiques, relative cette fois à l’utilisation des données. En effet, l’IA pourrait déboucher sur une surveillance accrue de la population grâce à l’utilisation de nos données personnelles, voire sur un gouvernement totalitaire. Une autre crainte majeure concerne la potentielle présence d’un biais dans les algorithmes qui pourrait provoquer des discriminations raciales ou sociales. (Ashta, Mogha, 2022) Cette peur de l’intelligence artificielle, qui paraît pourtant irrationnelle, est très répandue et évolue à travers le temps. Ainsi à chaque innovation, cette peur se concrétise un peu plus. Pourtant, pour Rougier, les chercheurs n’auraient pas pour ambition de créer des machines omnipotentes, mais plutôt des algorithmes capables de résoudre des problèmes précis (Rougier, 2015) – une affirmation que l’on peut remettre en question lorsque l’on voit les robots les plus performants du moment tels que Sophia11 , conçus pour imiter les comportements sociaux des humains. 11 Sophia : une gynoïde, conçue pour imiter l’humain, activée en 2015 à Hong-Kong. Elle a reçu la nationalité saoudienne en 2017. 12
  • 13. b) Les limites juridiques L’intelligence artificielle possède également de nombreuses limites juridiques. En effet, même si l’IA est souvent utilisée dans la prévention des risques, cette technologie génère parallèlement ses propres dangers. Eric Schmidt, l’ancien PDG de Google, affirmait d’ailleurs que les grandes limites de l’intelligence artificielle se rattachaient à des questions de partialité, de préjudices, d’abus, de conflits géopolitiques et de limites scientifiques et technologiques. (Ashta, Mogha, 2022) Mais si tous les progrès scientifiques comportent des dangers, les risques liés à l’intelligence artificielle ne sont pas forcément là où on le pense. Le danger ne réside pas dans la construction d’une super intelligence artificielle capable de battre ou de remplacer l’humain, mais plutôt dans le manque d’encadrement juridique de ces nouvelles technologies. Il faut en effet se questionner sur les risques liés à la reconnaissance faciale, que ce soit sur le web ou dans la rue, et imaginer les dérives que cela pourrait entraîner et les problèmes juridiques que cela causerait. (Rougier, 2015) Ainsi, la protection des données est l’une des problématiques juridiques majeures posées par l’avènement de l’intelligence artificielle et constitue une question centrale. En effet, l'intelligence artificielle traite une grande quantité de données qui peuvent ensuite être utilisées pour l’intérêt public, par des entreprises ou l'État. Certaines entreprises utilisent par exemple des données sur leurs clients afin d’améliorer leurs expériences d’achats. Mais face à cette multiplication du traitement des données dans tous les domaines du quotidien, les gens finissent par se préoccuper de plus en plus de la protection de leur vie privée et de leurs données personnelles. Pour l’instant, rien n’encadre réellement l’intelligence artificielle d’un point de vue juridique à part le RGPD, qui oblige à ce que les données soient “collectées à des fins déterminées, explicites et légitimes et ne soient pas traitées ultérieurement d‟une manière incompatible avec ces finalités” et qu'elles soient “traitées de manière licite, loyale et transparente au regard de la personne concernée”. (Ashta, Mogha, 2022) Mais cette réglementation n’est plus assez pertinente vis-à-vis des nouvelles intelligences artificielles. Il faudrait donc revoir cette législation en prenant en compte les nouvelles problématiques amenées par l’IA. L’article 4 du RGPD déclare 13
  • 14. d’ailleurs que “toute opération ou tout ensemble d’opérations effectuées ou non à l’aide de procédés automatisés et appliquées à des données ou des ensembles de données à caractère personnel” est concerné par les règles du RGPD. Les algorithmes devraient donc être considérés comme un traitement de données et devraient respecter les régulations du RGPD. Pourtant, les IA semblent parvenir à contourner de nombreuses règles par leur statut particulier. Les progrès du machine learning – les algorithmes apprenants – constituent alors une menace d’un point de vue de cette régulation. La question de la transparence dans le traitement des données y est fortement remise en question car il est compliqué de rendre des comptes dans le cas du machine learning. En effet, le but premier est que la machine développe ses propres moyens de fonctionnement, elle ne peut donc pas se justifier elle-même de la façon dont elle traite les données. Un vide juridique entoure ainsi l’IA. Il est donc nécessaire de réfléchir rapidement à une nouvelle réglementation afin d’encadrer au plus vite ces nouvelles technologies. (Donnat, 2019) Une autre problématique juridique majeure qui entoure l’intelligence artificielle et notamment les nouvelles IA génératrices d’images ou de textes est la question du droit d’auteur. Récemment, les discussions se multiplient autour des IA et des problématiques que celle-ci pose telles que la question du plagiat, de l’appropriation, du copyright ou encore du droit d’auteur dans le cas d’un texte généré par ChatGPT, une IA génératrice de texte. Aujourd’hui, aucune régulation n’encadre cette nouvelle innovation, il est donc impossible de déterminer qui est l’auteur légal d’un texte généré par IA ou qui en est le responsable en cas de contenu offensant par exemple. Cette faille juridique pose de nombreux problèmes puisque n’importe qui peut faire passer un contenu généré par Chat GPT pour son propre contenu. Ces problématiques sont d’autant plus inquiétantes que nos outils de détection de plagiat sont devenus obsolètes face à l’avancée fulgurante des IA. Aucun détecteur de plagiat ne peut à ce jour détecter un texte généré par IA. Il devient donc nécessaire de discuter une réglementation stricte autour du droit d’auteur et de l’intelligence artificielle. (Liebrenz, Schleifer, Buadze, Bhugra, Smith, 2023) 14
  • 15. c) Les limites éthiques L’une des limites éthiques principales de l’intelligence artificielle est la problématique de la responsabilité. Il est aujourd’hui impossible de déterminer un responsable dans le cas de l’utilisation de l’intelligence artificielle et notamment du machine learning. En effet, l'algorithme apprenant est une suite d’instructions qui permet d’obtenir un résultat plus ou moins satisfaisant, et d’ensuite déterminer de nouveaux types d’algorithmes apprenants plus performants. La machine est ainsi capable d’apprendre seule et d’atteindre un degré croissant d’autonomie, ce qui lui permet de se détacher de son programmeur. Dans le cas d’un algorithme classique, la machine reproduit les étapes que son programmeur a définies et programmées. En cas d’erreur, c’est donc le programmeur qui est responsable. Mais les algorithmes apprenants tels que les IA sont tellement autonomes qu’ils utilisent des algorithmes de plus en plus différents de ceux programmés initialement par leurs créateurs. La machine devient ainsi de plus en plus indépendante de son programmeur, ce qui renforce les problématiques juridiques mais également éthiques puisqu’il devient de plus en plus complexe de déterminer un responsable en cas d’erreur. (Donnat, 2019) Légalement, la machine ne peut pas être responsable puisqu’elle n’est pas viable. Mais si une erreur est commise, est ce que l’on porte un homme pour responsable, ou est ce que l’on considère que personne n’est responsable ? Par exemple, si un véhicule autonome provoque un accident, qui est le responsable moral : le passager ou le fabricant ? (Ashta, Mogha, 2022) Ainsi, l’émergence de l’intelligence artificielle crée de grandes difficultés à déterminer un responsable, que ce soit d’un point de vue juridique ou moral. L’intelligence artificielle comporte un autre risque éthique majeur, celui de la présence d’un biais dans son algorithme. La sélection des données transmises à l’IA lors de son apprentissage est extrêmement importante car ce sont ces données qui orienteront le raisonnement de l’IA par la suite. En effet, en sélectionnant des données non neutres, l’intelligence artificielle devient elle aussi non neutre. Microsoft avait par exemple remarqué en 2016 que son robot conversationnel Tay tenait des propos racistes et misogynes, car l’algorithme était nourri par des conversations 15
  • 16. issues des réseaux sociaux. Les biais peuvent alors être accidentels, comme dans ce cas précis, mais peuvent également être insérés volontairement et par malveillance dans l’algorithme d’une IA afin de biaiser une décision par exemple. (Donnat, 2019) Ces biais peuvent ainsi créer des préjudices moraux et des injustices discriminatoires, qui peuvent être fatidiques selon le domaine dans lequel l’IA est utilisée, notamment en droit par exemple. L’intelligence artificielle crée également de nombreuses inégalités sociales et renforce la disparité. En effet, il existe deux types d’innovations, les innovations incrémentales et les innovations disruptives. Les innovations incrémentales sont les améliorations apportées à une technologie afin de conserver un avantage concurrentiel en tant qu’entreprise. Ce sont des changements graduels qui permettent aux utilisateurs de s’adapter progressivement à ces changements. L’innovation disruptive, elle, est l’addition de plusieurs innovations incrémentales qui est tellement forte qu’elle impose à toute l’industrie d’adopter cette même innovation, au risque d’être désavantagée d’un point de vue concurrentiel. Ces innovations disruptives sont souvent considérées comme des grandes avancées majeures mais créent des disparités sociales violentes. En effet, ces deux types d’innovations nécessitent un apprentissage de la part des utilisateurs, mais dans un cas, l’apprentissage se fait en continue, au fur et à mesure du progrès, alors que dans l’autre cas, l’apprentissage doit se faire de façon brutale. Un clivage social peut ainsi s'installer entre ceux qui ont ou n’ont pas accès à ces innovations, mais également entre ceux qui ont ou n’ont pas accès à cet apprentissage. (Ashta, Mogha, 2022) De plus, pour ce qui concerne la recherche, l’utilisation de ChatGPT crée également des inégalités entre les pays. En effet, l’accès à ChatGPT permet pour l’instant d’améliorer la recherche scientifique, en permettant de produire des textes en plusieurs langues, ce qui permettrait de démocratiser la diffusion de la connaissance en annulant la problématique de la barrière de la langue. Cependant, la version gratuite de ChatGPT est temporaire, ce qui pourrait créer des inégalités entre les différents pays dans la recherche. Les pays plus pauvres ne pourront plus se payer l’accès tandis que les pays plus aisés pourraient, ce qui accentuerait une disparité 16
  • 17. déjà existante dans la recherche. (Liebrenz, Schleifer, Buadze, Bhugra et Smith, 2023) Enfin, l’intelligence artificielle pose le problème du remplacement progressif de l’humain, débouchant sur la perte de travail pour les métiers les plus facilement substituables. Le remplacement des tâches voire d’emplois par la technologie pourrait ainsi mener à une augmentation du chômage ou à une baisse des salaires car la main d’œuvre humaine serait de moins en moins essentielle dans certains domaines. Selon un rapport de McKinsey, environ la moitié des activités des travailleurs pourraient être automatisées – ce qui pourrait déboucher sur une instabilité sociale et politique. Les personnes les moins qualifiées, ayant fait peu d’études, les ouvriers ainsi que certains employés de bureaux pourront voir leur activité automatisée et perdre leur travail, ce qui une fois de plus pénaliserait le plus les classes sociales les plus précaires. (Ashta, Mogha, 2022) III. L’émergence récente des IA génératives Note : les IA génératives ont émergé à la fin d’année 2022. Il y a donc très peu de littérature sur le sujet au moment de l’écriture de ce mémoire. a) Les IA génératives : qu’est ce que ChatGPT ChatGPT est une IA chatbot, soit une intelligence artificielle qui simule une conversation humaine pour répondre à une question ou à une requête. Cette intelligence artificielle repose sur le concept de machine learning et se développe grâce au feedback humain, qui peut venir le corriger ou lui signaler une erreur ou un mécontentement. (Liebrenz, Schleifer, Buadze, Bhugra et Smith, 2023) En effet, ChatGPT, ou Generative Pretrained Transformer, a été développé à l'aide d'une technique appelée Reinforcement Learning from Human Feedback, ce qui lui permet d'être très conversationnel. (Thorp, 2023) Il suffit donc de demander quelque chose, de poser une question ou une requête, et ChatGPT génère automatiquement une réponse, basée sur des centaines de ressources Internet. Sorti en novembre 2022, ChatGPT a déjà attiré près de 200 millions d’utilisateurs au moment de l’écriture. 17
  • 18. (Liebrenz, Schleifer, Buadze, Bhugra et Smith, 2023) L’IA a en effet connu une émergence et un succès extrêmement rapide, en seulement deux mois. Accessible gratuitement sur Internet, ChatGPT connaît un tel succès que la plateforme affiche très régulièrement le message “at capacity right now”. (Thorp, 2023) b) Le risque de désinformation De nombreuses études ont déjà cité ChatGPT comme auteur, ce qui constitue un grand risque de désinformation, que ce soit pour la recherche en sciences humaines ou dans le domaine médical. Plusieurs individus ont utilisé ChatGPT pour générer des dissertations, des essais académiques, ou des articles. Le risque est d’autant plus présent que, si cela a été demandé dans la requête, les textes générés par l’IA peuvent être accompagnés de références académiques et de sources. (Liebrenz, Schleifer, Buadze, Bhugra et Smith, 2023) Mais ces textes générés par ChatGPT peuvent devenir très dangereux une fois insérés dans le monde de la recherche car ils peuvent contenir de fausses informations et ainsi contribuer à la désinformation. La plateforme de ChatGPT l’annonce elle-même "ChatGPT écrit parfois des réponses à l'apparence plausible, mais incorrectes ou absurdes". Le générateur de textes génère ainsi des erreurs et des fausses informations et fait parfois référence à des études scientifiques ou à des sources qui n'existent pas. Si ces contenus sont repris dans des articles scientifiques ou des articles de presse, cela pourrait conduire à une désinformation et à la promulgation de fausses informations (Thorp, 2023), ce qui pourrait être d’autant plus grave dans des domaines tels que la médecine ou la science. (Liebrenz, Schleifer, Buadze, Bhugra et Smith, 2023) c) S’adapter à ces nouvelles technologies Plutôt que de lutter catégoriquement contre l’émergence des IA génératives, qui est inévitable, il faut plutôt apprendre à vivre avec ces nouvelles technologies et s’adapter afin d’en éviter les risques. Pour ce qui concerne la recherche par exemple, le problème majeur se situe dans la difficulté à détecter les textes générés par IA. Une étude récente a en effet montré que sur un certain nombre de résumés 18
  • 19. créés par ChatGPT, seulement 63 % d’entre eux ont été détectés par des examinateurs universitaires. Si même les professionnels du milieu et les logiciels ne parviennent pas à détecter les textes générés par IA, cela implique que certains faux textes voire fausses informations pourraient bientôt se retrouver dans la littérature. Depuis des années, les auteurs doivent préciser qu’il s’agit d’un texte original avant de soumettre leur article scientifique. Aujourd’hui, il est même demandé de préciser qu’il s’agit d’un texte non généré par IA. Pourtant, il n’y a aucun moyen de vérifier ces déclarations sur l’honneur. (Thorp, 2023) Cela met en avant la nécessité de plus en plus importante de créer un détecteur d’IA performant pour le milieu de la recherche, afin de préserver l’authenticité et la véracité des informations partagées. (Liebrenz, Schleifer, Buadze, Bhugra et Smith, 2023) Pour ce qui concerne l’utilisation d’IA générative dans le milieu scolaire et l’éducation, il faudrait que les professeurs adaptent leurs devoirs en prenant en compte l’existence de l’intelligence artificielle. En effet, l’intelligence artificielle est extrêmement performante en ce qui concerne les informations factuelles et les calculs, mais elle rencontre beaucoup de difficultés avec le style d’écriture et la façon de formuler les réponses. Les professeurs devraient ainsi mettre l’accent sur la réflexion personnelle et l’argumentation plutôt que sur des questions factuelles afin de se garantir que les devoirs ont bien été effectués par l’élève et non par une IA. (Thorp, 2023) Enfin, afin de lutter contre la perte d’emploi, il devient nécessaire pour les secteurs de l’éducation de former différemment les jeunes en les initiant au plus tôt à l’intelligence artificielle et aux outils permettant de gagner en productivité. (Ashta, Mogha, 2022) 19
  • 20. Partie 2 : les IA génératives d’images et le photojournalisme a) L’émergence de l’IA dans les domaines de la rédaction et de la création Les progrès majeurs en informatique et en technologie de ces dernières années ont mené à un avènement de l’intelligence artificielle. Ces nouvelles technologies se développent de plus en plus, dans divers domaines, jusqu’à atteindre notre quotidien. En effet, si les intelligences artificielles étaient jusqu’alors utilisées par les domaines techniques et professionnels tels que la médecine, les banques, les impôts ou encore l’informatique, elles commencent aujourd’hui à être accessibles pour tous, et au quotidien. C’est le cas des IA génératives, qui sont pour la plupart accessibles sur Internet gratuitement ou à très faible coût, et qui sont très faciles à prendre en main – leur permettant d’être utilisées par le plus grand nombre. Les IA génératives sont des intelligences artificielles qui, à partir de contenus existants, peuvent en générer de nouveaux. Ces intelligences artificielles peuvent ainsi générer des sons, des images ou encore des textes de toutes pièces. Pour cela, les IA génératives sont rattachées à une base de données conséquente, comportant différentes images, vidéos ou textes, selon la spécificité de l’IA. Parmi ces IA génératives, ce sont les générateurs d’images tels que Midjourney, Stable Diffusion ou encore Dall-E qui ont connu l’essor le plus fulgurant, avec des progrès majeurs en seulement quelques mois. Ces IA sont capables de générer des visuels, des photographies ou des images de toutes pièces en seulement quelques secondes, et ce à partir d’un simple prompt – une requête écrite détaillant le rendu attendu. Pour créer ces images, les IA génératives se basent sur le machine learning. “En s'entraînant à partir d’une base d’images conséquente, l’IA apprend à reconnaître les liens entre un élément graphique et un texte, puis à reproduire ce lien de façon autonome. Pour chaque requête, l’IA tente de repérer des éléments dans sa base de données qui pourraient correspondre à ce qui lui est demandé puis 20
  • 21. génère un visuel en s’inspirant des images correspondantes.” (Elodie Ferro, 15 astuces pour détecter une « fausse » photo générée par une IA, Phototrend) Ces logiciels ont ainsi très vite intégré le milieu artistique, en permettant d’ouvrir le champ des possibles de façon conséquente et presque infinie. Grâce à l’intelligence artificielle, les réalisateurs de science-fiction ou de dystopie peuvent désormais concrétiser leurs idées les plus irréalistes. Les coûts et temps de production des films pourraient être considérablement réduits, ce qui freinerait nettement moins la création et l’imagination des réalisateurs. En effet, les IA génératrices d’images permettent un accès à la création que l’on n’avait jamais connu auparavant, ce qui mène progressivement à une richesse artistique. Il est désormais possible de créer tout ce que l’on souhaite, à partir d’une simple requête, de façon presque inconditionnelle et illimitée. De nombreux artistes ont ainsi commencé à centrer leur création sur l’utilisation de l’intelligence artificielle, dans une démarche honnête et sincère. C’est le cas notamment de Mathieu Stern qui pratique la photographie expérimentale. En 2021, il donnait une seconde vie à des photographies en noir et blanc datant du siècle dernier en les colorisant et en y corrigeant quelques imperfections. Pour ce faire, l’artiste avait utilisé les outils de correction de Photoshop ainsi qu’une intelligence artificielle. Mais en quelques années, les progrès technologiques fulgurants ont permis l’apparition d’IA nettement plus performantes, ce qui a multiplié les possibilités de création pour le photographe. Récemment, l’artiste a pu créer une série photographique de toutes pièces uniquement grâce à l’intelligence artificielle. Il avait alors partagé sur ses réseaux sociaux des images d’anciens appareils photo chinois. “Créés grâce à l’intelligence artificielle, ces appareils n’ont jamais existé mais semblent plus vrais que nature. [...] Pour réaliser ces faux appareils photo historiques, Mathieu Stern a utilisé l’intelligence artificielle Midjourney. Le photographe y a écrit un texte décrivant ce qu’il souhaitait obtenir comme résultat – un exercice difficile et long pour être sûr d’avoir l’effet escompté [...] Une fois les images générées, le photographe les a toutes retravaillées sur Photoshop afin de leur donner l’aspect le plus réaliste possible. En effet, avec cette série expérimentale, Mathieu Stern ne souhaitait pas obtenir des images virtuelles, mais bien des photographies convaincantes. [...] Afin 21
  • 22. d’être le plus crédible possible, le photographe a utilisé une deuxième intelligence artificielle, ChatGPT, afin de générer des origines historiques aux appareils issus de son imagination. Il a ainsi imaginé une histoire générale et assez vague et l’a soumise à l’IA qui en a fait une histoire complète, plus structurée et plus convaincante.” (Elodie Ferro, Faux appareils photo historiques : un photographe brouille les pistes grâce à l’IA Midjourney, Phototrend). Cet essor de l’intelligence artificielle est donc une avancée considérable de notre siècle en matière de création. Aujourd’hui il est désormais possible de créer tout ce que l’on souhaite, un progrès qui peut cependant avoir de sérieuses limites éthiques. En effet, dans son court métrage /Imagine, présenté au Nikon Film Festival, la réalisatrice Anna Apter, récompensée par le Prix de la Critique et le Prix de la meilleure mise en scène, utilisait avec ironie l’intelligence artificielle pour en dénoncer les limites. Une démarche qui n’a pas plu à tous les spectateurs, et qui a provoqué une mini-polémique. Dans son court-métrage, la réalisatrice lit en voix off un texte qui questionne fortement les avancées technologiques, l’intelligence artificielle et les réseaux sociaux – et qui nous interroge sur l'avenir de notre société. Les images, elles, ont été générées par une intelligence artificielle. Pour cela, Anna Apter a “imaginé des enfants et un ensemble de plans très précis, qu’elle a détaillés à Midjourney afin de générer des images. La réalisatrice a ensuite animé ces mêmes images pour en faire une vidéo.” (Elodie Ferro, /Imagine : un court-métrage réalisé par IA, primé au Nikon Film Festival, fait polémique, Phototrend). En utilisant l’arme du crime pour en dénoncer les limites, Anna Apter a donc relevé une question de plus en plus présente dans le débat autour de l’intelligence artificielle, celle de la problématique éthique d’un tel progrès technologique. Ce court-métrage est le reflet d’une réflexion générale qui prend de plus en plus de place au sein de la société. On se questionne aujourd’hui énormément sur l’éthique derrière l’utilisation de l’intelligence artificielle, sur la superficialité du monde vers lequel l’on risque d’aller, mais également sur des questions rattachées aux artistes telles que le droit d’auteur, le copyright et la légitimité à se faire appeler artiste lorsque l’on génère ses œuvres par IA. 22
  • 23. En effet, si certains artistes profitent de l’intelligence artificielle de façon honnête afin de dépasser les frontières du possible, d’autres utilisent ces nouvelles technologies comme un véritable moyen de fraude. De nombreux cas d’artistes ayant fait passer des photographies, images ou œuvres générées par IA pour leurs propres créations ont été relevés en seulement quelques mois. C’est le cas par exemple d’Emmanuele Boffa, un photographe italien dont les photographies avaient été relayées par Vogue et qui a été accusé d’avoir fait générer ses images par une IA. En mars 2023, le photographe a fini par admettre avoir généré 5 de ses images avec une intelligence artificielle – une démarche qui pose de réelles questions éthiques. “En effet, le photographe ne mentionne à aucun moment l’origine de ces photographies dans ses publications, laissant entendre que ce sont, au même titre que ses autres publications, des clichés bien réels.” (Elodie Ferro, Photo Vogue : un photographe admet avoir utilisé l’IA pour générer certaines de ses images, Phototrend) Cette démarche remet ainsi en cause sa légitimité en tant que photographe, mais également la crédibilité de tous les autres artistes. En faisant passer des fausses images pour ses propres photographies, Emmanuele Boffa – et bien d’autres – contribue à briser la confiance du public envers les photographes et artistes. En parallèle, plusieurs personnes se sont faites avoir par des fausses-photographies qui avaient été générées par IA, dont des professionnels du milieu artistique. Les fausses photographies générées par IA sont en effet parvenus à se glisser dans différents concours photo. En avril 2023, c’est d’ailleurs une photographie générée par IA qui a remporté le Grand Prix des Sony World Photography Awards, un des concours de photographie professionnel les plus populaires du monde. L’arrivée de l’intelligence dans le domaine de la création pose donc de nombreuses questions éthiques, au-delà de simplement ouvrir le champ des possibles. Tous ces éléments récents autour de l’émergence de l’intelligence artificielle dans le milieu de la création suscitent de nombreuses questions tant chez les journalistes, que les politiques, les professionnels de l’art ou les publics. D’autant plus que les IA génératrices d’images continuent de faire des progrès considérables au fil des mises 23
  • 24. à jour, et à créer des images de plus en plus réalistes. Le fait de pouvoir créer de fausses photographies reste l’élément qui suscite le plus de débat au sein de la société. Pour cause, cette démarche présente de nombreux risques éthiques, juridiques, sociaux et politiques. b) Un risque pour la crédibilité des photos reporters L’émergence des IA génératrices d’images telles que Midjourney, Dall-E ou Stable Diffusion n’est pas sans conséquences. Nous avons vu que l’utilisation de ces nouvelles technologies pouvait poser des questions de légitimité pour le créateur, et qu’elles pouvaient fortement perturber le milieu artistique. Mais l’utilisation de ces IA génératrices d’images n’impacte pas uniquement le monde de l’art, mais également le monde du journalisme, ainsi que les lecteurs. En effet, les IA génératrices d’images ont connu leur essor entre la fin d’année 2022 et le début d’année 2023. Complètement gratuits pour la plupart d’entre eux – ou disponibles à très faible coût –, ces logiciels ont pour point commun d’être extrêmement faciles d’utilisation. Construits comme des boîtes de discussions, il suffit de leur écrire une demande, également appelée “prompt”, et de détailler le rendu attendu. 24
  • 25. L’IA générera ensuite n’importe quelle image en seulement quelques secondes. À partir de ces logiciels, il est donc désormais possible de créer des images de toutes pièces, voire même des fausses photographies – une démarche qui pose de nombreuses questions. En effet, plus les mises à jour de ces IA génératives avancent, plus les photographies générées par IA sont réalistes. En seulement quelques mois, ces logiciels ont déjà connu d’énormes progrès et ont corrigé leurs erreurs les plus flagrantes. En janvier, il était par exemple possible de distinguer une vraie d’une fausse photographie en se concentrant sur les mains, les dents ou les cheveux des personnes représentées, car il s’agissait d’éléments avec lesquels les IA génératives rencontraient énormément de difficultés. Mais très rapidement, leurs algorithmes ont été corrigés et perfectionnés, permettant d’obtenir des photographies encore plus réalistes et comportant nettement moins d’erreurs de ce type. Il est donc aujourd’hui très compliqué de distinguer une vraie d’une fausse photographie12 , et au vu de la rapidité des progrès de l’intelligence artificielle13 , cela sera bientôt impossible. Pourtant, l’image joue un rôle très important dans notre société, et notamment en matière d’information. En effet, depuis son apparition au milieu du 19e siècle, la photographie a très vite été adoptée par la presse car elle permettait une objectivité claire sur un événement. L’image avait alors un rôle de témoignage, et permettait de faire passer l’information en toute simplicité, à n’importe qui, et de façon la plus neutre possible. “C’est en partant de ce postulat que le métier de photoreporter s’est répandu, afin de transmettre la vérité et l’information issue du terrain, à travers des images marquantes, qui pouvaient difficilement être contestées.” (Elodie Ferro, 15 astuces pour détecter une « fausse » photo générée par une IA, Phototrend). Au 20e siècle, les photoreporters deviennent journalistes en tant que tels et détiennent eux aussi le rôle de passeur de l’information, au même titre que les journalistes de presse. À cette époque, les noms des grands photojournalistes se multiplient, dont 13 L’IA progresse plus vite que la loi Moore, une loi énoncée en 1965 par Gordon Moore, cofondateur de la société Intel, et qui affirme que le nombre de transistors double tous les 18 mois, permettant des ordinateurs plus petits, plus rapides, moins chers au fil du temps, et surtout plus performants. 12 Une étude menée par des chercheurs de l’université de Hong Kong et du Shanghai AI Laboratory a montré que sur un groupe de 50 personnes sélectionnées pour déterminer quelles photographies étaient réelles ou générées par IA, 38,7 % se sont trompés. 25
  • 26. on retient Robert Capa, Henri Cartier-Bresson ou encore Raymond Depardon. Les horreurs de la seconde moitié du 20e siècle telles que les guerres, les violences et les génocides du monde entier ont ainsi pu être immortalisées à travers les clichés des photojournalistes, et partagées au reste du monde afin d’informer, lutter et éveiller les consciences. Véritables porteurs de la paix et de la vérité, les photojournalistes ont joué un grand rôle dans l’histoire de la presse. Aujourd’hui, si le métier de photojournaliste rencontre de grandes difficultés, on garde de cette pratique un rapport à l’image particulier. En effet, nous avons tendance à croire les images presque aveuglément, en se basant sur la doctrine du “Je ne crois que ce que je vois”. Si nous sommes constamment éduqués à vérifier les informations lues et entendues, les images que l’on reçoit ou que l’on trouve dans la presse n’avaient jusqu’alors presque jamais été remises en cause – malgré une légère tendance au doute depuis l’arrivée des logiciels de retouches. Mais aujourd’hui, les progrès fulgurants des IA génératrices d’images viennent perturber fortement ce rapport à l’image, notre rapport à l’information, et viennent décrédibiliser le métier de photojournaliste. En effet, en utilisant des IA génératrices d’images telles que les logiciels Midjourney, Dall-E ou Stable Diffusion, n’importe qui peut très simplement générer une fausse photographie, sans aucune restriction. Si beaucoup de personnes utilisent ces logiciels de façon inoffensive, ces IA constituent pourtant un grand danger pour le domaine de l’information. L’Histoire a déjà prouvé à de nombreuses reprises les risques de la désinformation, de la manipulation de l’information, et des dérives que cela pouvait entraîner pour notre société. Imaginons que l’IA ait existé durant la Seconde Guerre mondiale. À l’époque, la manipulation de l’image était faite grossièrement et était donc facilement détectable. Aujourd’hui avec des outils aussi avancés, il est beaucoup plus facile de manipuler l’information. Or, nous vivons encore aujourd’hui dans une société où l’information est sensible et défaillante, et où la désinformation est une menace perpétuelle. Les IA génératrices d’images ne font donc qu’accroître ce risque de désinformation en permettant aux personnes mal intentionnées de manipuler l’information extrêmement facilement. 26
  • 27. En effet, les fausses photographies créées afin de répandre de fausses rumeurs ou de fausses informations ont déjà commencé à circuler sur les réseaux sociaux depuis le début d’année 2023, notamment sur Twitter. Si certains utilisateurs indiquent avec honnêteté leur démarche en spécifiant que leur image a été générée par IA, d’autres s’amusent du doute que peut semer leur image et n’indique pas la véritable origine de celle-ci. “Ainsi, on a récemment pu croiser sur les réseaux sociaux des fausses photographies montrant le pape en doudoune, Donald Trump se faisant arrêter ou Emmanuel Macron en manifestation. De même, le visuel d’un homme âgé au visage ensanglanté entouré de policiers a déclenché une vive polémique… et a donné du fil à retordre à celles et ceux tentant de discerner s’il avait été créé par une IA ou non.” (Elodie Ferro, 15 astuces pour détecter une « fausse » photo générée par une IA, Phototrend). Plus les mises à jour de ces logiciels s’enchaînent, plus les photographies générées sont réalistes. Si l’on ajoute à cela le fait que ces IA sont accessibles à tous, sans restriction ni d’âge, ni de connaissances techniques, et sans réglementation sur les prompt autorisés ou non, alors il est aujourd’hui possible de créer des photographies de n’importe qui, faisant n’importe quoi – un procédé qui peut être utilisé de façon très comique et dérisoire, mais qui peut vite devenir dramatique. Deux risques majeurs se présentent alors. Dans un premier cas, les personnes mal intentionnées continueront de générer des fausses images, ces IA pourront potentiellement être utilisées par des gouvernements autoritaires pour nourrir la désinformation, et nous vivrons dans une société où démêler le vrai du faux sera extrêmement complexe voire impossible. La population n’aura plus aucun accès à la vraie information – ce qui constitue une porte ouverte à toutes les dérives. Dans un autre cas, les esprits commenceront à s’éveiller comme c’est déjà le cas. Chacun prendra conscience des risques de la désinformation causés par les IA génératrices d’images et les gens arrêteront de croire les images. Malheureusement, puisqu’il sera impossible de discerner les vraies des fausses images, alors il deviendra plus simple de ne plus jamais croire les images qui se présentent à nous. Le métier de photojournaliste aura perdu de tout son sens et l’image ne détiendra plus son rôle de témoignage. Peu à 27
  • 28. peu, plus personne ne croira en les médias, ce qui mènera une fois de plus à une société où connaître la véritable information sera extrêmement complexe. Ainsi, l’émergence des IA génératrices d’images constitue un risque pour le métier de photojournaliste, mais également pour tous les métiers de l’information et pour la société en général. Face à ces progrès technologiques, il devient donc de plus en plus essentiel d’exercer notre esprit critique et notre discernement, d’apprendre à vérifier l’information et de se méfier des images qui se présentent à nous. L’issue n’est pour autant pas fatale et l’interdiction des IA n’est une solution ni possible, ni pertinente. Il est nécessaire d'apprendre à vivre avec cette technologie et de la réguler afin d’éviter les dérives mentionnées plus tôt. c) La nécessité de développer un nouveau rapport à l’image L'émergence et les progrès rapides des IA génératrices d’images permettent désormais à n’importe qui de créer des fausses photographies extrêmement réalistes. Il est maintenant possible de rencontrer sur les réseaux sociaux des fausses photographies d’une personne réelle faisant quelque chose qu’elle n’a jamais fait. On a ainsi pu croiser sur les réseaux sociaux des images du Président Emmanuel Macron en manifestation ou de Donald Trump se faisant arrêter. Ces exemples prouvent qu’il n’y a aucune restriction lors de la création d’images sur les logiciels générateurs d’images, et que n’importe qui peut faire faire ce qu’il veut à quelqu’un. Une grande vague de fausses photographies générées par IA a ainsi envahi les réseaux sociaux durant les mois de février et mars 2023. Si l’engouement semble aujourd’hui être retombé, le risque de voir circuler de fausses images, et par conséquent de fausses informations, est encore présent. Au-delà d’être un simple divertissement, les IA génératrices d’images pourraient donc nous mener vers un monde de désinformation. C’est pourquoi il est nécessaire d’apprendre à vivre avec ces nouvelles technologies – puisque lutter contre celles-ci semble impossible – et ainsi développer un nouveau rapport à l’image, en gardant désormais en tête que 28
  • 29. chacune des images qui se présentent à nous peut être fausse et avoir été générée par une IA. “Alors que les formes de désinformation et de manipulation ne cessent de se multiplier – notamment depuis l’adoption en masse des réseaux sociaux –, vérifier l’information qui se présente à nous est essentiel. En effet, nous vivons aujourd’hui à l’ère de la « surinformation », dans laquelle tout le monde a la possibilité de créer ou relayer une information. Il devient également de plus en plus complexe de démêler le vrai du faux.” (Elodie Ferro, 15 astuces pour détecter une « fausse » photo générée par une IA, Phototrend). Les photographies extrêmement réalistes que peuvent générer les IA telles que Dall-E, Midjourney ou Stable Diffusion renforcent ce risque de désinformation et floutent encore plus cette frontière entre le vrai et le faux. Ainsi, elles remettent fortement en question la fiabilité des images qui se présentent à nous et sèment le doute. La nécessité du fact checking ne fait donc que s’accroître afin de ne pas tomber dans le piège des fausses photographies. Jusqu’alors, il était possible de “croire que ce que l’on voit”. Aujourd'hui, il est essentiel de développer un nouveau rapport à l’image et d’apprendre à détecter une vraie d’une fausse photographie. Pour cela, il faut observer les détails des images qui se présentent à nous et y chercher des incohérences. En effet, les IA comportent encore beaucoup de défauts et ont du mal avec la restitution de certains détails tels que les mains, les dents, les cheveux et les groupes – dont le nombre élevé de détails perturbe l'algorithme et provoque des aberrations. Il est donc nécessaire de prendre pour habitude de questionner chacune des images en observant les arrière- plans, les décors, les personnes en fond, afin de déceler des erreurs, des doigts en trop, des incohérences et des anomalies. En prenant cette habitude, notre esprit critique et notre discernement seront entraînés, ce qui diminuera peu à peu le risque de croire innocemment une fausse photographie. Ainsi, il faut désormais entrer dans un doute perpétuel, afin de ne pas tomber dans les pièges de la désinformation. Mais ce nouveau rapport à l’image aura des conséquences directes et indirectes sur le monde du journalisme. D’une part, les journalistes sont touchés dans leur 29
  • 30. quotidien par cette émergence de l’IA puisqu’ils doivent désormais approfondir leur travail de fact checking, qui se trouve plus complexe et donc plus long, avant de relayer des images dans les médias, que ce soit des photographies ou des vidéos. D’autre part, ce nouveau rapport à l’image provoqué par l'émergence de l’IA a des conséquences indirectes sur le journalisme puisqu’il changera la façon dont les lecteurs consommeront l’information. Les images seront constamment remises en question, ce qui compliquera leur utilisation, alors qu’elles étaient jusqu’alors la façon la plus objective et sincère de transmettre la vérité du monde. Ainsi, si la façon de consommer l’information se trouve à ce point bouleversée, il deviendra par conséquent nécessaire d’également changer la façon dont on transmet l’information. Ainsi, comme à l’arrivée de la photographie, de la radio puis de la télévision, la presse se trouve très probablement aujourd'hui dans une étape de transition majeure de son histoire. Mais toutes ces précautions face aux fausses images et à la désinformation ne relèvent pour l’instant que de la volonté et de la négligence des journalistes et des lecteurs – ce qui dépend pour le cas des lecteurs de leur éducation sur le sujet. Afin d’être juste et éthique, il ne faut donc pas s’attendre à ce que chacun se méfie simplement des informations qui se présentent à lui, mais il faudrait plutôt encadrer les intelligences artificielles afin de protéger complètement la société des risques causés par les IA génératrices d’images. Ainsi, le besoin d’un encadrement juridique se fait de plus en plus ressentir. En effet, de nombreux professionnels de tous milieux confondus s'inquiètent du vide juridique qui entoure ces nouvelles technologies. Les débats autour de l’IA se multiplient sur les réseaux sociaux, dans les médias, et au cœur des rédactions et des métiers de la communication, mais également dans le milieu artistique et technologique. Pourtant, les créateurs des logiciels ne semblent pas réagir face à ces inquiétudes grandissantes. En effet, alors que surgit un grand mouvement de questionnement éthique quant aux IA génératrices d’images, David Holz, CEO de Midjourney, a annoncé au mois d’avril la fermeture provisoire de la version gratuite de son logiciel. “Une annonce que de nombreux médias ont interprété comme un recul de la startup 30
  • 31. face aux problèmes éthiques causés par la diffusion de ces « vraies-fausses photographies”. Mais en réalité, il s’avère que cette décision intervient suite à la multiplication des faux comptes sur la plateforme.” (Elodie Ferro, Midjourney suspend ses essais gratuits : qu’en est-il de la question éthique des images générées par IA ?, Phototrend) Cette annonce a donc prouvé que les directeurs qui se cachent derrière les IA ne semblent pas se sentir concernés par les dérives des outils qu'ils proposent. Face à ce manque de responsabilité et à cette inconscience de la part des créateurs de ces logiciels, il devient donc de plus en plus nécessaire d’encadrer juridiquement ces nouvelles technologies afin d'éviter le pire en matière d’information. Pour cela, nombreux demandent une régulation particulière en imposant d’indiquer clairement la source exacte des images, tandis que d’autres demandent des restrictions de prompt afin qu’il soit impossible de générer des images de personnes publiques. “Une lettre ouverte a récemment été publiée afin d’appeler les développeurs d’intelligence artificielle à faire une pause de 6 mois dans le développement des algorithmes. Une pause nécessaire afin de ralentir les avancées fulgurantes de l’intelligence artificielle afin de laisser le temps à l’humanité de s’adapter à ces nouveaux outils, à apprendre à les appréhender et à en comprendre les risques. Elle permettrait également aux créateurs de développer des protocoles de sécurité afin de mieux encadrer la conception des images afin d’éviter les dérives éthiques – et ainsi limiter la propagation des fake news accompagnées d’images plus vraies que nature.” (Elodie Ferro, Midjourney suspend ses essais gratuits : qu’en est-il de la question éthique des images générées par IA ?, Phototrend) Cette demande de régulation est loin d’être irréaliste puisque, comme nous avons pu le voir dans notre revue de littérature, les logiciels de traitement de données sont soumis à des règles strictes. Or, les intelligences artificielles utilisant une base de données conséquente afin de générer des images, elles devraient elles aussi être soumises aux règles de droit en vigueur telles que les règles du RGPD. Pourtant, à ce jour, elles ne le sont pas. 31
  • 32. Au moment de la rédaction, l’AI act est discutée au Parlement Européen. Il s’agit d’une “initiative visant à encadrer l’intelligence artificielle de façon à la rendre digne de confiance, centrée sur l’humain, éthique, durable et inclusive.” (Réglementation de l’Intelligence artificielle en Europe : vers un RGPD de l’IA, Devoteam) Enfin, la CAI, la Content Authenticity Initiative, semble être la régulation la plus réaliste et efficace. Il s’agit d’un projet mené par Adobe, le New York Times et Twitter afin de mettre en place une régulation autour des images publiées sur les réseaux sociaux. Actuellement, il est impossible d’accéder aux métadonnées des médias partagés sur les réseaux sociaux car celles-ci se trouvent automatiquement supprimées. La CAI permettrait d’accéder à ces métadonnées et de pouvoir retrouver la source d’une image et retracer toutes les modifications que celle-ci a connues. Avec cette régulation, chacun se verrait protégé des fausses photographies puisqu’il sera possible de voir directement dans ses métadonnées si une image a été générée par un appareil photo ou par une IA. Ainsi, les débats et les inquiétudes autour de l’intelligence artificielle sont progressivement en train d’atteindre les milieux juridique, politique et technique, ce qui nous rapproche de plus en plus d’une éventuelle régulation. Grâce à celle-ci, l’IA génératrice d’images pourrait devenir un véritable outil de travail et de création, sans risques de dérives éthiques et de désinformation, et donc aux conséquences nettement moins dramatiques pour le monde du journalisme. 32
  • 33. Partie 3 : les IA génératives de textes et le métier de journaliste a) L’utilisation de l’intelligence artificielle en journalisme Similaires à Midjourney, Stable Diffusion ou Dall-E dans leur algorithme, leur fonctionnement et leur principe, les IA génératrices de textes ont connu le même essor et le même succès que les IA génératrices d’images. Ce sont d’ailleurs ces logiciels générateurs de textes, et notamment le plus célèbre ChatGPT, qui ont été le plus discuté et qui semblent avoir atteint la plus grande tranche de la population. Tout comme les IA génératrices d’images abordées plus tôt, ChatGPT se présente comme une boîte de dialogue, grâce à laquelle il est possible d’échanger et de discuter avec l’intelligence artificielle. Au delà de pouvoir lui faire générer du texte à des fins conversationnelles, il est possible de demander au logiciel de résumer des textes, d’écrire un article, un essai, une histoire, un conte, ou tout genre de contenu rédactionnel. Pour cela, il suffit de créer un prompt – une requête – détaillé afin d’expliquer au logiciel le rendu attendu. Source : 11+ des meilleurs prompts ChatGPT, Commentcoder.com 33
  • 34. Lancé en novembre 2022 dans une version gratuite et accessible sur Internet, le logiciel a rencontré un succès immédiat, avec près d’un million d’utilisateurs en seulement cinq jours après son lancement. Aujourd’hui, seulement 6 mois après sa mise en ligne, le logiciel cumule déjà 4 milliards de visites à travers le monde. Pour cause, ChatGPT a séduit le plus grand nombre très rapidement, grâce à sa facilité d’utilisation et son côté révolutionnaire. Très vite, les collégiens, lycéens et étudiants ont commencé à faire générer leurs devoirs à l’intelligence artificielle – ce qui a rapidement inquiété l’éducation nationale, désemparée face à ce progrès majeur. Le logiciel s’est soudain retrouvé partout, sur les réseaux sociaux et dans les médias, parfois désigné comme miraculeux et incroyable, d’autres fois suscitant des inquiétudes. En effet, cette émergence rapide a vite suscité un débat, dans l’éducation et ailleurs, autour de l’intelligence artificielle. ChatGPT s’est retrouvé considéré comme une menace par les professeurs. Mais un autre débat propre au milieu de la communication a lui aussi émergé. D’un côté, de nombreux professionnels de la communication ont profité de l’essor de cette nouvelle technologie pour l’intégrer à leur travail, dans leur offre, ou pour en proposer des formations. Depuis quelques mois, il est possible de voir des rédacteurs proposer des formations à ChatGPT sur Linkedin, réseau social professionnel. D’un autre côté, les détracteurs de l’intelligence artificielle s’inquiètent pour ces professionnels de la communication qui se tirent une balle dans le pied en faisant la promotion d’un outil qui risque de les remplacer. L’inquiétude de voir l’IA remplacer certains métiers s’est en effet accrue depuis l’émergence des IA génératives – notamment pour ce qui concerne les métiers de rédacteur et de journaliste. Mais est ce qu’une intelligence artificielle peut réellement remplacer le métier de rédacteur en journalisme ? Comment s’adapter à cette nouvelle technologique qui semble se glisser partout et dans toutes les professions ? 34
  • 35. Avant de se questionner sur l’utilisation de l’intelligence artificielle dans le journalisme de presse, il est nécessaire de comprendre le métier de journaliste, son rôle et ses enjeux. Le journaliste, quelque soit sa spécialité – économie, politique, culture, faits divers ou encore sport –, a pour mission de transmettre l’information à travers un média, que ce soit la presse, la radio, le web ou la télévision. Pour cela, son rôle est de vérifier l’information auprès de ses sources, puis de la partager de façon claire, accessible et objective sous forme d’un article ou d’un reportage. Il détient ainsi un rôle de porteur de la vérité pour la société. Dans le cas d’un journaliste de presse écrite, le journaliste se doit d’écrire des articles neutres, dans lesquels chaque mot est pesé et ne risque pas d’orienter l’opinion de celui qui le lit – sauf dans le cas d’un média officiellement orienté politiquement. Le journaliste doit – en théorie – toujours communiquer des faits, de la vérité pure et vérifié, et non des opinions, ce qui lui permet de conserver une crédibilité à travers le temps. De plus, le journaliste, en plus de son devoir d’objectivité et de transmission de l’information, donne une certaine légitimité à ses propos à travers son statut. Initialement, au 19e siècle, les journalistes étaient des hommes politiques ou littéraires, spécialistes de leur domaine, ce qui les rendait légitime à écrire sur tel ou tel sujet. Avec le temps, et notamment avec l’arrivée d’Internet, le métier de journaliste s’est ouvert à toute personne présentant une certaine plume et une qualité d’écriture, l’accès aux informations étant de plus en plus facile. Mais si aujourd’hui les journalistes ne sont plus des spécialistes de leur domaine, ils détiennent toujours une légitimité à communiquer une information, et ce notamment grâce aux compétences en écriture, l’objectivité, et la vérification de l'information dont ils doivent faire preuve. Afin de s’assurer de cette qualité de journalisme, il existe une déontologie du journalisme, encadré par deux textes majeurs en Europe : la Charte de Munich, approuvé par les syndicats de journalistes de 6 pays d’Europe en 1971, ainsi que la Charte d’éthique professionnelle des journalistes, rédigée en 1918 par le Syndicat 35
  • 36. National des Journalistes. Ces textes comportent dix devoirs et cinq droits, que chaque journaliste se doit de respecter afin de protéger sa crédibilité, sa légitimité et son intégrité. Les dix devoirs de la charte 1. Respecter la vérité, quelles qu’en puissent être les conséquences pour lui-même, et ce, en raison du droit que le public a de connaître la vérité. 2. Défendre la liberté de l’information, du commentaire et de la critique. 3. Publier seulement les informations dont l’origine est connue ou les accompagner, si c’est nécessaire, des réserves qui s’imposent ; ne pas supprimer les informations essentielles et ne pas altérer les textes et les documents. 4. Ne pas user de méthodes déloyales pour obtenir des informations, des photographies et des documents. 5. S’obliger à respecter la vie privée des personnes. 6. Rectifier toute information publiée qui se révèle inexacte. 7. Garder le secret professionnel et ne pas divulguer la source des informations obtenues confidentiellement. 8. S’interdire le plagiat, la calomnie, la diffamation, les accusations sans fondement ainsi que de recevoir un quelconque avantage en raison de la publication ou de la suppression d’une information. 9. Ne jamais confondre le métier de journaliste avec celui du publicitaire ou du propagandiste ; n’accepter aucune consigne, directe ou indirecte, des annonceurs. 10.Refuser toute pression et n’accepter de directives rédactionnelles que des responsables de la rédaction. Les cinq droits de la charte 1. Les journalistes revendiquent le libre accès à toutes les sources d’information et le droit d’enquêter librement sur tous les faits qui 36
  • 37. conditionnent la vie publique. Le secret des affaires publiques ou privées ne peut en ce cas être opposé au journaliste que par exception en vertu de motifs clairement exprimés. 2. Le journaliste a le droit de refuser toute subordination qui serait contraire à la ligne générale de son entreprise, telle qu’elle est déterminée par écrit dans son contrat d’engagement, de même que toute subordination qui ne serait pas clairement impliquée par cette ligne générale. 3. Le journaliste ne peut être contraint à accomplir un acte professionnel ou à exprimer une opinion qui serait contraire à sa conviction ou sa conscience. 4. L’équipe rédactionnelle doit être obligatoirement informée de toute décision importante de nature à affecter la vie de l’entreprise. Elle doit être au moins consultée, avant décision définitive, sur toute mesure intéressant la composition de la rédaction : embauche, licenciement, mutation et promotion de journaliste. 5. En considération de sa fonction et de ses responsabilités, le journaliste a droit non seulement au bénéfice des conventions collectives, mais aussi à un contrat personnel assurant sa sécurité matérielle et morale ainsi qu’une rémunération correspondant au rôle social qui est le sien et suffisante pour garantir son indépendance économique. Source : Charte déontologique de Munich, Cfdt-Journalistes Utiliser ChatGPT en tant que journaliste serait immoral car cela consisterait à faire passer pour sien un texte généré automatiquement. De plus, cette démarche serait fondamentalement contraire à la déontologie du journalisme, puisque cela ne respecterait pas les devoirs de la Charte de Munich. En effet, pour générer ses textes, ChatGPT fouille une grande quantité de données récupérées sur le web et récupère ce qu’il trouve pour ensuite générer un texte. Mais le logiciel, contrairement à un journaliste, n’indique pas ses sources, quand il le fait indique parfois des fausses sources et peut récupérer des informations biaisées. Il éprouve également certaines difficultés à lire les pages web et mélange parfois les informations 37
  • 38. présentes sur une page, créant ainsi des confusions et générant de fausses informations. Il rattache par exemple les informations présentes dans la rubrique “À lire aussi” à un article sur un sujet bien précis. ChatGPT produit donc des articles non neutres dont le contenu peut être faux et qui ne possèdent donc aucune qualité journalistique. Utiliser ChatGPT pour faire générer ses articles contribuerait ainsi à relayer de fausses informations, ce qui est contraire au journalisme et au rôle de porteur de vérité. Même si les IA génératives deviennent de plus en plus performantes en matière de qualité d’écriture, il sera toujours nécessaire d’avoir une équipe de journalistes pour repasser sur les articles, vérifier les informations et assurer la qualité journalistique de l’article. Ainsi, en plus de ne pas pouvoir être utilisé par les journalistes pour générer des articles plus rapidement, ChatGPT ne pourra jamais remplacer le métier de journaliste, puisque jamais une IA ne pourra respecter la déontologie du journaliste. En effet, l’IA aura toujours un risque de biais, qui la rend incapable de remplacer un juge, un policier ou un journaliste par exemple. b) Un outil qui ne remplacera pas le journalisme : étude de cas de ChatGPT En plus de sa capacité à respecter la déontologie, le journaliste, en tant qu’humain, aura toujours une plus-value dans son écriture par rapport à une machine. En effet, le journalisme nécessite et exige une certaine qualité d’écriture. Il est donc nécessaire d’avoir une orthographe irréprochable, mais également une certaine plume, qui ne soit ni trop littéraire – car cela serait trop lourd à lire et trop embelli pour des faits parfois dramatiques –, ni trop oral. Les phrases doivent être courtes et simples tout en s'enchaînant correctement pour ne pas ennuyer le lecteur. Les tournures de phrases doivent être neutres et objectives, chaque mot doit être choisi de façon précise afin de ne pas biaiser le lecteur et ne pas risquer de déformer la réalité. Chaque phrase se doit d’être nécessaire et d’apporter une information nouvelle afin de ne pas perdre l’attention de son lecteur. Enfin, l’article doit s’appuyer 38
  • 39. sur des sources sûres et relater uniquement des faits, et non des opinions – sauf dans le cas d’une chronique ou d’un édito. Face à l’émergence des IA génératives, et notamment de ChatGPT, l’inquiétude de voir ce nouveau logiciel remplacer les rédacteurs s’est rapidement fait ressentir sur les réseaux sociaux. Les articles “ChatGPT peut-il remplacer un rédacteur web ?” ou “Quels métiers risquent d’être remplacés par l’IA” ont rapidement envahi le web. Pourtant, ChatGPT le dit lui même, l’IA ne pourra jamais remplacer le journalisme : Texte généré par ChatGPT Nous nous sommes donc questionnés sur cet outil apparemment phénoménal, qui risquerait de remplacer le métier de rédacteur, voire de journaliste, afin d’en juger les compétences et prouver qu’en effet, l’IA ne remplacera pas ces métiers. Pour cette étude de cas, nous avons donc demandé de l’aide à ChatGPT pour rédiger des articles de presse, puis nous avons analysé les textes générés d’un point 39
  • 40. de vue journalistique, afin d’en juger l’écriture. Pour cela, nous avons utilisé la version 3 de ChatGPT, soit la version gratuite et accessible sur Internet sortie en novembre 2022, qui a collecté en quelques mois plus de 4 milliards de visites. Il faut cependant préciser qu’une version 4 de ChatGPT, apparemment plus performante et ayant un accès direct à Internet, est disponible de façon payante depuis mars 2023. Nous avons réalisé cette étude de cas sur le temps long, en changeant plusieurs fois de méthode, afin d’essayer de tirer de ChatGPT ses meilleurs résultats. Nous avons testé pour la première fois ChatGPT au début du mois de janvier 2023, alors que l’IA génératrice de texte était au centre de toutes les discussions sur les réseaux sociaux, et notamment Twitter. Confronté à un violent syndrome de la page blanche sur un sujet d’article, nous avons demandé à ChatGPT de l’aide afin de trouver de l’inspiration, et ainsi entamer la rédaction de l’article efficacement. Le sujet portait sur l’hystérisation du débat. L’angle choisi était celui du rôle des réseaux sociaux dans l’hystérisation du débat, et le cas choisi était celui des élections présidentielles françaises de 2022. Nous avons donc proposé à ChatGPT plusieurs prompts : “Parles de moi de l’hystérisation du débat” puis “Écris un article sur l'hystérisation du débat”. Les réponses étaient très courtes et peu approfondies. Nous avons donc essayé de demander une consigne précise, afin d’obtenir un résultat plus convaincant. Afin d’obtenir une réponse plus longue et donc plus complète, nous avons commencé par préciser le nombre de caractères souhaité, soit 3000 afin d’avoir une argumentation complète. L’IA a généré une réponse plus longue, mais sans apporter plus d’informations. Le texte restait creux, très général, et n’apportait pas d’informations concrètes – comme si ChatGPT avait essayé de “broder” pour obtenir le nombre de caractères souhaité. Nous avons donc essayé d’autres prompts en précisant l’angle, soit la responsabilité des réseaux sociaux, mais sans succès. Nous avons ensuite demandé à ChatGPT de se concentrer sur le cas des élections présidentielles françaises de 2022 en espérant voir sortir des exemples concrets. À chaque tentative, le texte généré était creux, répétitif et beaucoup trop général. 40
  • 41. Texte généré par ChatGPT-3 De plus, les exemples mobilisés étaient flous. ChatGPT affirmait des faits sans préciser de quoi il s’agissait concrètement. À la lecture de certaines phrases telles que « les différents candidats ont été accusés de tous les maux et les débats ont souvent dégénéré en confrontations personnelles plutôt qu’en discussions sur les véritables enjeux de fond », on se demande de qui on parle, quand est ce que cela s’est produit, dans quel cadre, et surtout quelle est la source. Ces exemples n’ont 41
  • 42. aucune valeur journalistique et ne peuvent pas être conservés dans un article journalistique car ils sont infondés et que le logiciel pourrait très bien les avoir inventés. Ainsi, en supprimant de l’article de ChatGPT toutes les phrases trop génériques et dont les faits sont infondés, non justifiés ou non sourcés, il ne resterait presque plus rien du texte. Face à ces résultats très peu convaincants, nous avons donc considéré cette première tentative comme un échec. Un mois plus tard, début février 2023, nous avons effectué un deuxième essai de ChatGPT. Pour cela, nous avons effectué des recherches sur la façon de proposer un prompt efficace à ChatGPT. D’après le site Internet Le blog du modérateur, il y aurait 5 conseils à suivre dans la rédaction d’un prompt ChatGPT afin d’obtenir de meilleurs résultats : ● Contextualiser la demande ● Donner un rôle à ChatGPT qu’il devra incarner afin de générer une réponse satisfaisante ● Définir la cible, le support ou le canal de diffusion ● Donner un exemple de réponse attendue ● Multiplier les requêtes Nous avons donc testé à nouveau les compétences de ChatGPT, avec un tout autre sujet : le Brexit, et en générant cette fois un prompt considéré comme efficace. Dans la même démarche que pour le premier sujet nous avons demandé à ChatGPT de générer un article sur le Brexit, avec pour angle l’impact de cette sortie de l’Europe sur l’Angleterre. Nous avons précisé le rôle (un journaliste spécialisé en économie), le format de sortie attendu (un article de 3000 caractères), et nous avons donné des pistes de réflexion et des exemples afin d’orienter la réponse du logiciel. Après plusieurs tentatives, voici le meilleur résultat que nous avons pu obtenir de ChatGPT : 42
  • 43. Texte généré par ChatGPT-3 Pour ce qui est du style d’écriture, nous constatons les mêmes problématiques que lors de la première tentative : l’article est creux et les phrases génériques. Mais cette fois, les exemples mobilisés s'appuient sur des chiffres, comme demandé dans le prompt. Cependant, aucune source n’est indiquée, et certaines sources 43
  • 44. traditionnelles semblent donner des chiffres bien différents de ceux évoqués par ChatGPT. Il est donc impossible d’utiliser des données si peu certaines. Conserver les chiffres partagés par ChatGPT pourrait contribuer à transmettre de fausses informations. De plus, les textes générés par ChatGPT manquent de travail journalistique – une rigueur que seul un humain pourrait avoir. En tant qu’êtres sensibles, nous sommes particulièrement attentifs aux risques de désinformation, à la nécessité de vérifier les sources. Cette expérience sensible du monde nous permet également de communiquer d’une certaine façon, de se sentir concerné par les sujets dont l’on parle et ainsi transmettre une émotion dans nos phrases. En comparaison, l’IA génère des phrases robotiques, parfois biaisées, et ne s’attache pas à la vérification de l’information comme un journaliste pourrait le faire. Les articles générés par ChatGPT n’ont alors aucune qualité journalistique, comportent trop de répétitions, de phrases génériques, d’exemples non fondés, de faits non sourcés. Faire générer son article par ChatGPT en tant que journaliste serait donc contraire à la déontologie, et croire que le logiciel pourrait remplacer le métier serait une erreur. Ainsi, ChatGPT ne semble pas être un risque pour les métiers de rédacteurs et de journalistes, qui en tant que spécialistes et en tant qu’humains auront toujours une plus value par rapport à l’IA, malgré tous les progrès que celle-ci pourrait connaître. Cependant, il est nécessaire de rappeler que cette étude de cas a été effectuée avec la version 3 de ChatGPT. La version 4 du logiciel étant reliée à Internet, cela pourrait avoir un rôle sur la véracité des données et des informations transmises. Toutefois, le risque de biais et de manque d’objectivité de l'algorithme restera toujours un problème qui vaudra indéfiniment la supériorité du journaliste qui, lui, pourra vérifier les informations de l’IA auprès de sources sûres. c) Comment utiliser l’IA en tant que journaliste Face à la puissance croissante des intelligences artificielles, et notamment des IA génératives, il est nécessaire d’agir. Mais lutter contre l’émergence de l’IA est peine 44
  • 45. perdue puisque ces progrès sont hors de notre contrôle. Les créateurs de ces logiciels ont pour ambition d’aller toujours plus loin et de créer des outils toujours plus performants. Face à l’enjeu économique de ces progrès technologiques, il est donc inutile d’espérer un recul de la part des créateurs. Ainsi, plutôt que de lutter contre l’émergence et le développement de l’IA, qui sont des éléments inévitables du futur, il est nécessaire d’accepter ces progrès et d’apprendre à vivre avec ces nouveaux outils. Pour cela, une régulation devra être mise en place, afin de diminuer les possibilités de dérives éthiques et de désinformation. Mais il faudra également, en tant que citoyen, apprendre à travailler de façon efficace avec ces outils, comme on a pu le faire à l’arrivée d’Internet ou de Wikipédia. En effet, nous avons déjà vu que par ses compétences et sa déontologie, le journaliste restera essentiel à la société et ne pourra pas se voir remplacé par l’intelligence artificielle. La crainte de voir son métier remplacé par l’IA est très répandue, mais n’est pas toujours valide. Les métiers ont toujours évolué au fil des innovations industrielles et technologiques. Certains métiers ont disparu, d’autres ont évolué et certains ont même été créés depuis ces innovations. Rester fermé face à l’intelligence artificielle ne serait donc pas le meilleur moyen de lutter contre les dérives de cette dernière. Il serait plus utile d’apprendre à maîtriser ces logiciels pour en faire un gain de productivité. Certains rédacteurs ont déjà compris que ChatGPT n’était pas leur ennemi mais plutôt un outil, qui contribue à faire évoluer leur métier plutôt que de le remplacer. Depuis quelques mois déjà, de nombreuses formations à ChatGPT sont ainsi proposées par des rédacteurs ou experts en communication sur Linkedin. D’après une étude menée en avril 202314 , sur 254 rédacteurs français, près de la moitié (53,5 %) utilise l’IA dans leur travail au quotidien. Parmi les 46,5 % restants, 48,8 % ne trouvent pas que ces outils soient utiles dans leur travail, 16,3 % ne savent pas comment utiliser l’intelligence artificielle et 34,9 % ne souhaitent pas l’utiliser pour des raisons éthiques et déontologiques. Les rédacteurs utilisant l’intelligence artificielle pour le travail affirment trouver des avantages à ces outils, 14 Étude menée par Louis Darques sur Linkedin auprès de 254 rédacteurs français, en avril 2023. 45
  • 46. tels que le gain de temps, une meilleure compréhension des sujets et une aide à l’optimisation pour le référencement. Cependant, 55,9 % d’entre eux ont également détecté des problèmes de qualité ou de cohérence de contenu et 44,9 % ont remarqué un manque de personnalisation des contenus. Enfin, plus de la moitié des interrogés estiment que l’IA restera un complément dans le futur et qu’elle ne remplacera pas les rédacteurs humains. De la même manière, les journalistes peuvent utiliser ces nouveaux outils permis par l’intelligence artificielle dans leur quotidien. Une bonne connaissance de ces logiciels pourrait leur permettre de renforcer leur productivité, sans compromettre leur respect de la déontologie. Voici quelques exemples de problématiques que peuvent rencontrer les journalistes, et des façons de les résoudre en utilisant l’intelligence artificielle. ● Le syndrome de la page blanche Chaque auteur, rédacteur ou journaliste a déjà été confronté au syndrome de la page blanche, un sérieux manque d’inspiration et un sentiment de ne pas savoir par où commencer, comment traiter un sujet, avec quel angle. Plutôt que de rester des heures devant une page blanche sans savoir comment se lancer, ou pire de s’inspirer d’autres médias ayant déjà traité le sujet, les rédacteurs peuvent désormais recourir à l’intelligence artificielle pour s’inspirer. L’objectif n’est pas de demander à ChatGPT de rédiger le rendu final – ce qui serait comme nous l’avons vu plus tôt une atteinte à la déontologie du journalisme – mais plutôt de l’utiliser comme un outil de recherche afin de se lancer étape par étape dans un sujet, et ainsi se libérer du syndrome de la page blanche. Il est donc possible de demander à ChatGPT de générer un plan autour d’un sujet, des axes de réflexion ou des exemples. Ainsi, l’intelligence aura contribué à trouver une structure et un angle pour un article, à trouver des pistes de recherches, et non pas à générer l'entièreté de l’article. En effet, cette méthode implique un travail de recherche du journaliste, qui devra vérifier et approfondir seul ses recherches. 46
  • 47. ● La recherche de sources sur un sujet précis Dans cette même démarche, il est possible de demander à ChatGPT une liste de sources autour d’un sujet précis. L’IA Perplexity, permet également de répondre à une question et de façon sourcée. Ces mêmes sources peuvent ensuite être consultées et analysées par le journaliste qui effectuera son travail de recherche comme à son habitude. Il s’agit simplement d’un gain de temps dans la recherche, comme demander de l’aide à un agent de bibliothèque pour trouver des ouvrages autour d’un sujet de recherche. 47
  • 48. ● La prise de notes rapides Suivre des conférences de presse ou des réunions peut parfois s’avérer complexe, surtout lorsque beaucoup d’informations sont données. L’intelligence artificielle Otter.ai propose de prendre des notes automatiquement soit depuis le micro de l’ordinateur ou téléphone, soit en étant relié directement aux visioconférences. Les notes apparaissent au fur et à mesure sur l’écran. Il est ensuite possible d’intervenir dans la prise de notes pour ajouter des informations ou effectuer des corrections. L’outil ne fonctionne pour l’instant pas pour la prise de notes de contenus en français mais est assez efficace pour les réunions en anglais. 48
  • 49. Test de l’IA Otter.ai pour prendre des notes de la conférence de presse d’Asteroid City, disponible sur Youtube ● La retranscription des interviews La retranscription à l’écrit des interviews enregistrées est une tâche extrêmement chronophage qui peut parfois prendre une journée entière. L’intelligence artificielle Aiko permet de retranscrire entièrement les interviews, et ce dans n’importe quelle langue. L’outil éprouve quelques difficultés lorsqu’une personne parle une langue étrangère avec un accent d’un autre pays, mais reste tout de même très efficace. ● Paraphraser pour mieux reformuler Il est parfois complexe de se détacher du communiqué de presse sur des sujets techniques. De même, il est possible de ne pas réussir à reformuler soi-même une de ses phrases. Un paragraphe peut ne pas être assez clair, et pourtant, après avoir trouvé une façon de dire quelque chose, il n’est pas toujours facile de trouver un moyen de dire la même chose autrement. L’outil QuillBot permet de paraphraser un texte. La nouvelle version reformulée de ce texte peut ainsi libérer les journalistes d’un blocage, lorsqu’ils sont confrontés à une information technique qu’ils ne parviennent pas à formuler différemment. L’outil n’est pour l’instant disponible qu’en 49
  • 50. anglais. Cependant, il parvient à paraphraser des textes français, en anglais, ce qui peut également être très utile si l’on utilise cet outil pour mieux se détacher du communiqué de presse dans notre formulation. Ainsi, de nombreux outils sont désormais disponibles pour automatiser les tâches les plus complexes ou chronophages. Utiliser ces outils permettrait non pas de remplacer les métiers du journalisme, mais de les simplifier et d’augmenter la productivité des journalistes. Tous les outils ne sont pas encore performants mais les progrès dans ce domaine sont très rapides. Il faut également prendre en compte que nous avons utilisé les versions gratuites de tous ces logiciels – donc moins performantes. 50
  • 51. Conclusion Nous pouvons donc conclure notre recherche en affirmant que les progrès de l’intelligence artificielle, et notamment des IA génératrices de textes et d’images, comportent des risques très élevés en matière d’information, et qu’ils modifieront – s’ils ne le font pas déjà – les métiers du journalisme dans les années à venir. Si le débat autour de l’intelligence artificielle a toujours été très animé et polarisé depuis les premiers pas de cette innovations dans les années 1950, Ashta et Logha expliquent dans leur ouvrage que ce débat a eu tendance à s’orienter vers des questions éthiques depuis quelques années, tandis qu’il tendait vers des questions techniques le siècle dernier. Pour cause, la question de l’intelligence artificielle est extrêmement complexe puisqu’elle interroge de nombreux aspects de l’innovation, les possibilités technologiques, les droits juridiques, et les devoirs éthiques – des questions qui se retrouvent aujourd’hui une nouvelle fois au centre du débat autour de l’intelligence artificielle, dans le cadre de l’émergence des IA génératives. Les métiers du journalisme se trouvent profondément impactés par ces progrès technologiques et sont ainsi au cœur du débat. En effet, tandis que les IA génératrices de textes remettent en question la nécessité du métier de rédacteur, les IA génératrices d’images tendent à décrédibiliser le métier de reporter. En effet, nous avons vu que les IA génératrices d’images permettent aujourd’hui de créer de fausses photographies extrêmement réalistes – et ce facilement et gratuitement pour n’importe qui. Ces outils comportent un réel risque de désinformation, en permettant à toute personne mal intentionnée de relayer des fausses images et donc de fausses informations. Les conséquences sont donc doubles pour le milieu de l’information. D’une part, les fausses informations se multiplient et deviennent de plus en plus crédibles car appuyées par des images vraisemblables. D'autre part, cette multiplication de fausses photographies tend à développer une certaine méfiance quant aux images qui se présentent à nous et à diminuer la confiance que l’on porte aux photographies. Le métier de photojournaliste 51
  • 52. perd alors de tout son sens, puisque la photographie perd peu à peu son rôle de témoignage du réel. Il est donc nécessaire de mettre en place une régulation juridique afin de mieux encadrer la création d’images par intelligence artificielle. Cela permettrait de diminuer le risque de désinformation mais également de protéger notre rapport à l’image – et donc le métier de photojournaliste. Cependant, si l’émergence des IA génératives compromet le monde de l’information par ses risques de dérives, les intelligences artificielles ne risquent pas de remplacer le métier de journaliste. En effet, nous avons vu que les journalistes étaient soumis à une certaine déontologie, qu’ils bénéficiaient d’une certaine légitimité grâce à leurs sources fiables et qu’ils étaient dotés de réelles qualités d’écriture objective – des qualités que l’intelligence artificielle pourra difficilement atteindre. Même si les IA génératrices de texte connaissent des progrès impressionnants en termes d’écriture, le métier de journaliste restera toujours essentiel et pourra difficilement être remplacé par une IA, notamment grâce à son rôle essentiel pour la société. Contrairement au journaliste, qui doit – en principe – produire un contenu neutre et objectif, les IA peuvent être biaisées et ne pourront jamais garantir une information objective. Cependant, bien maîtrisées elles constituent un outil essentiel dans vie du journaliste afin de gagner en productivité. Ainsi, l’émergence de l’intelligence artificielle a des conséquences sur le métier du journalisme, qu’elles soient éthiques ou pratiques, sans que celles-ci soient forcément dramatiques pour le milieu de l’information. En effet, le monde de l’information et de l’intelligence artificielle peuvent être compatibles, sous certaines conditions : ● L’intelligence artificielle doit faire l'objet d’une régulation juridique afin de limiter les dérives éthiques et de protéger l’information ● Notre rapport à l’image doit changer afin d’éviter la désinformation ● Nous ne devons pas considérer l’IA comme une menace mais comme un outil ● Nous devons apprendre à utiliser ces nouveaux outils afin d’en tirer des résultats concluants 52
  • 53. Références bibliographiques ASHTA, Arvind, MOGHA Vipin. Les risques liés à l’innovation : le cas de l’intelligence artificielle. Burgundy School of Business, Université Bourgogne Franche-Comté. 2022. Disponible sur : https://www.openscience.fr/IMG/pdf/iste_techinn23v8n1_1.pdf DONNAT, Francis. L’intelligence artificielle, un danger pour la vie privée ? Pouvoirs. Mars 2019, numéro 170, p.95-103. Disponible sur : https://www.cairn.info/revue-pouvoirs-2019-3-page-95.htm GEFFRAY, Édouard, GUÉRIN-FRANÇOIS Alexandra. Code de la protection des données personnelles 2023, annoté et commenté. Dalloz. 2023. HAIECH, Jacques. Parcourir l’histoire de l’intelligence artificielle, pour mieux la définir et la comprendre. Med Sci. Octobre 2020, volume 36, numéro 10, P.919-023. Disponible sur : https://www.medecinesciences.org/en/articles/medsci/full_html/2020/08/msc200112/ msc200112.html LIEBRENZ, Michael, SCHLEIFER Roman, BUADZE Anna, BHUGRA Dinesh, SMITH Alexander. Generating scholarly content with ChatGPT: ethical challenges for medical publishing. The Lancet Digital Health. Mars 2023, numéro 5, p.105-106. Disponible sur : https://www.thelancet.com/action/showPdf?pii=S2589-7500%2823%2900019-5 ROUGIER, Nicolas P. Une brève histoire de l'intelligence artificielle. Pint of Science. 2015. THORP, Herbert Holden. ChatGPT is fun, but not an author. Science. Janvier 2023, numéro 379, p.313. Disponible sur : https://www.science.org/doi/full/10.1126/science.adg7879 53
  • 54. Annexes Annexe 1 : Déclaration sur honneur Je, soussignée Élodie Ferro, déclare avoir rédigé ce travail sans aides extérieures non mentionnées ni sources autres que celles qui sont citées. L’utilisation de textes préexistants, publiés ou non, y compris en version électronique, est signalée comme telle. Ce travail n’a été soumis à aucun autre jury d’examen sous une forme identique ou similaire, que ce soit en France ou à l’étranger, à l’université ou dans une autre institution, par moi-même ou par autrui. Je suis informée que mon travail est susceptible d’être contrôlé avec un logiciel destiné à cet effet, avec les conséquences prévues par la loi en cas de plagiat avéré. Le 8 juin, Les mureaux Elodie Ferro (numéro étudiant : 41009241) 54