Master Classe sur l'IA publié le 20/12/2023

Le 14 novembre dernier, les élèves de terminales CAV ont assisté à une master classe sur l’IA. Ils ont ensuite réalisé un compte rendu de cette conférence.

Conférence sur la "génération IA" par Manon Marteau, élève de TG2

Le mardi 14 novembre 2023 nous avons assisté à une master classe en ligne sur le thème de l’intelligence artificielle, et plus spécifiquement sur l’IA Générative. Celle-ci fut organisée par France.tv (France Télévision) et Lumni, en collaboration avec CLEMI (le Centre pour l’Éducation aux Médias et à l’Information).
Lors de cette visio-conférence nous avons pu écouter les intervenants Kati Bremme (Directrice de l’innovation et Rédactrice en chef de Méta-Média, France Télévision), Raphaël Enthoven (Philosophe et Écrivain), Pauline Maury (Directrice Data & IA, France Télévision), et de Christophe de Vallambras (Responsable du MédiaLab de l’information, France Télévision).

Durant la conférence, les intervenants ont abordé les opportunités et les risques de l’IA, ainsi que ses limites.
Nous avons pu voir que les logiciels d’Intelligences Artificielles tels que ChatGPT (agent conversationnel), DALL.E ou Midjourney (générateurs d’image) connaissent de nos jours un succès considérable. Ces logiciels reproduisent le fonctionnement du cerveau humain avec des algorithmes, performants ils peuvent créer des contenus originaux comme des images ou du texte à la demande.
Toutefois, ces outils de création de contenu présentent plusieurs risques. Il y a tout d’abord la désinformation. Celle-ci peut s’observer avec des images, par exemple en 2023 une image du pape en doudoune devient virale, cependant, malgré son aspect hyper réaliste elle a été créée par une IA, Midjourney, on peut en effet le remarquer grâce à la présence d’incohérence sur l’image. ChatGPT peut aussi créer des contenus ou des sources erronées, comme des références d’articles dont l’URL n’existe pas. Cette même IA contribue aussi à la création et la diffusion des théories et thèses complotistes.
Ensuite, la question de la propriété intellectuelle se pose. En France, le statut d’auteur est réservé aux personnes physiques, les contenus créés par les IA échappent donc au droit d’auteur. Mais en utilisant toutes les ressources disponibles sur internet, l’IA peut facilement reproduire des œuvres protégées par le droit d’auteur, ces logiciels peuvent alors favoriser le plagiat. De plus, les IA ne citent pas leurs sources, les contenues proposés sont donc difficiles à identifier. Il est ainsi important de contrôler l’authenticité des documents en vérifiant leur contenu et leurs sources.
Puis, les IA ont besoin d’être encadrées juridiquement. En effet, elles ont tout d’abord un impact fort sur la société en mettant des emplois en danger, elles remplacent peu à peu des travailleurs comme les journalistes ou les graphistes pour qui elles représentent une concurrence, voire une menace. Face à la vitesse du développement des IA, le besoin de légiférer est urgent, l’Union Européenne va notamment mettre en place un nouveau règlement sur l’utilisation des IA en 2024. Mais pour le moment, afin de faire face aux dangers de l’IA, "l’AI Act” permet de révéler lorsqu’un contenu a été généré par une IA, les contenus illégaux, et ainsi se diriger vers une transparence du produit.

Nous avons ensuite pu voir qu’une Intelligence Artificielle représente l’ensemble des méthodes mathématiques, informatiques et, ou algorithmiques qui permettent de reproduire un comportement humain ou une forme d’intelligence. L’IA se divise en plusieurs catégories et sous-catégories. Tout d’abord il y a les Systèmes Experts de l’Intelligence Artificielle, où des règles et procédures sont programmées manuellement par un humain. Il y a ensuite le Machine Learning, qui est une sous catégorie de l’IA, avec une méthode mathématique, où cette fois il y a un apprentissage automatique par des algorithmes des règles à partir d’observations. Puis, on retrouve le Deep Learning, une sous catégorie du Machine Learning, qui est un algorithme permettant l’apprentissage profond, comme un réseau de neurones, d’énormes quantités d’observations. Et enfin, on retrouve les IA Génératives.
Nous avons pu observer que les IA Génératives comme ChatGPT ont un QI verbal supérieur au nôtre, le sien est de 155, tandis que le nôtre est d’environ 90 à 110, il a donc un niveau plus élevé dans la compréhension du langage que la moyenne des humains. Aujourd’hui, l’IA Générative peut aussi cloner des voix, comme celles des personnalités publiques, ou créer des deep fakes hyper réalistes. Néanmoins, l’IA Générative n’est pas non plus totalement autonome car elle a tout de même besoin de l’aide et du savoir de l’Homme, on peut notamment l’observer avec une vidéo publicitaire de la marque coca-cola où l’IA qui génère la vidéo bénéficie de l’aide humaine pour la rendre plus cohérente.
L’IA Générative est cependant destructrice pour notre monde. ChatGPT utilise par exemple beaucoup plus d’énergie qu’une simple recherche, ces outils de création de contenu mènent donc vers un désastre écologique et économique. L’IA est un outil très puissant, il appartient alors à nous, en tant qu’Homme, de se responsabiliser en ne se réduisant pas et en ne s’enfermant pas dans cet outil. L’un des dangers de l’IA c’est de croire, on sait que c’est faux, mais on le perçoit comme vrai, on y croit, on y adhère car l’information qui nous est donnée nous est plaisante, satisfaisante. Maintenant accessible à tous, l’Intelligence Artificielle Générative est d’autant plus dangereuse. Elle peut tout imiter à merveille, mais un créateur ne ferais jamais ce que l’IA aurait imité, tout simplement car l’IA ne saisit pas ce qui fait la singularité de quelqu’un.

L’IA Générative n’est donc pas encore égale au savoir humain, ni aux capacités humaines, et ne le sera sans doute jamais. Mais n’oublions pas que nous ne connaissons pas l’avenir et que tout peut arriver.
La compréhension, la transparence et la régulation sont finalement nécessaires pour une utilisation raisonnable et sans danger de l’Intelligence Artificielle.
Enfin, le dangers de l’IA ne dépend pas de l’outil mais de l’utilisateur.

Manon Marteau TG2

capture_d_e_cran_2023-12-20_a_14