ChatGPT, le perroquet de l’intelligence artificielle
Il y a ceux qui s’inquiètent déjà de la fin de l’humanité. Et les autres qui voient l’IA comme un salut face aux faiblesses de notre société. Comment trouver le bon équilibre ?

Depuis novembre 2022, difficile de passer à côté de l’intelligence artificielle (IA). ChatGPT a largement dépassé le carcan des experts pour s’imposer auprès du grand public, faisant par la même occasion les gros titres de l’actualité. Le prototype d’agent conversationnel, mais aussi de génération d’images, a été proposé aux internautes, provoquant bon nombre d’expériences. Des étudiants s’en sont même emparés pour produire leurs devoirs ! Le logiciel – qui a sur le marché quelques concurrents comme Stable Diffusion, Dall-E ou encore Midjourney – est ainsi devenu le paradis des « fake news » et des images parodiques, à l’instar du pape François habillé d’une doudoune de rappeur. Ces illusions, rendues possibles par l’IA, ont mis à contribution des « fact-checkers » déjà surbookés. Alors, comment ne pas prendre peur face à cet outil qui semble mettre en péril nos informations, nos démocraties et nos nuances ?
Aujourd’hui, l’intelligence artificielle est « un terme parapluie qui couvre des domaines divers et qui évolue avec le temps », nous explique Yves Deville, professeur à l’école polytechnique de l’UCLouvain sur les questions du numérique. Il clarifie son propos : « L’expression “intelligence artificielle est en réalité très mal choisie, car elle ne fait pas référence à l’intelligence humaine, mais plutôt aux renseignements, aux données. » En somme, l’autre traduction du terme anglais « intelligence ». L’IA représente donc « la collecte de données et la capacité de les traiter ».
Une brève histoire de l’IA
Le 10 février 1996 marque l’avènement symbolique de l’intelligence artificielle. L’ordinateur d’IBM, Deep Blue, bat alors Garry Kasparov, illustre champion russe, au jeu qu’il maîtrisait quasiment à la perfection, les échecs. Le monde est alors en émoi : un ordinateur vient de surpasser l’Homme. Les machines vont-elles nous remplacer ? Les films de science-fiction de l’époque explorent fatalement la question. « Aujourd’hui, les humains jouent toujours aux échecs ensemble », relativise Yves Deville.
Dès les années 1950, les chercheurs tentent de mettre en place des méthodes d’optimisation des calculs. Des méthodologies se développent véritablement dans les années 1980. Vingt ans plus tard, c’est le « Big data » : « Nous avons désormais des milliards de données dont nous ne disposions pas avant, pour apprendre à reconnaître des visages, traduire, écrire ou diagnostiquer. » Dans le domaine, Google fait des merveilles. Puis vient le « Deep Learning » à partir des années 2010. Apple, Amazon ou Google font la course pour produire des programmes de reconnaissance vocale qui pénètrent nos foyers, répondent à nos questions ou font nos listes de courses. Ils comprennent ce que nous disons et regardons. Exemple : Google traduit les menus et les panneaux, pendant nos vacances à l’étranger, à l’aide d’une simple photo. Et dix ans plus tard, quelles sont les avancées de l’IA ? « Désormais, nous avons des puissances de calcul qui se font en temps réel et à portée de doigt », explique Yves Deville. « Les résultats deviennent spectaculaires et touchent à la capacité d’écrire. » Mais font-ils sens ?

ChatGPT, le baratineur
L’arrivée de ChatGPT sur le marché a sonné comme une petite révolution. Le programme, accessible à tous, comptabilise plus de 100 millions d’utilisateurs en deux mois. « C’est plus que Facebook », glisse Alain Strowel, avocat et professeur à l’UCLouvain, spécialisé dans la propriété intellectuelle et les questions autour de l’IA. Le professeur belge est curieux : il souhaite savoir si l’IA a fait son entrée dans les rédactions des journaux. Au « Soir mag », cela n’est pas le cas. Même s’il nous faut être honnêtes et avouer que notre curiosité a été piquée. Si aucune ligne de cet article ne provient d’une IA, nous avons tout de même posé quelques questions à ChatGPT. Les résultats étaient parfois pertinents, souvent optimistes, régulièrement truffés d’erreurs. Alain Strowel réagit : « ChatGPT est un baratineur assez positif, qui se veut très prudent. Et pourtant, il n’hésite pas à inventer des choses pour avoir toujours quelque chose à répondre. C’est un perroquet stochastique. » C’est-à-dire qu’il répond par probabilité plus que par connaissance véritable.
L’IA, pour quoi faire ?
L’intelligence artificielle est décrite comme une « technologie révolutionnaire » avec des applications utiles dans de nombreux domaines, autant financier que médical, avec de l’analyse d’imageries qui donne d’ailleurs énormément d’espoir pour la détection des cancers. La technologie permet aussi de réaliser certaines tâches rébarbatives, d’optimiser et automatiser des processus de fabrication ou de sélection. « Certaines entreprises utilisent l’IA pour scanner les CV des candidats et trouver les profils vraiment intéressants. De l’autre côté, l’IA permet aussi aux chercheurs d’emploi d’améliorer leur offre », glisse l’avocat Alain Strowel.
Les propos d’Yves Deville lui font écho : « Internet c’est la démocratisation du savoir. Les calculatrices ont rendu accessible le calcul élémentaire. L’IA aujourd’hui, c’est aussi une forme de démocratisation de l’écriture. Ça permet de réduire la fracture sociale. » Réduire, oui, mais pas supprimer. Le 19 juin dernier, la Frankfurter Allgemeine Zeitung annonçait que « Bild », le journal le plus lu d’Allemagne, allait mettre en place un large plan de restructuration. « Parmi les mesures envisagées : le remplacement de postes éditoriaux par des logiciels d’intelligence artificielle », rapporte le « Courrier International ». Frisson dans les rédactions.
La course à la régulation
« L’art est alors d’encadrer correctement la technologie avec certaines réglementations », explique Alain Strowel. L’Union européenne pourrait être pionnière en la matière avec un texte attendu pour la fin de l’année. Dans le cadre de l’automatisation d’une tâche par l’IA, il peut être demandé que chaque décision rendue soit vérifiée et validée par une personne. Une sécurité essentielle quand le programme entre dans le processus d’une décision médicale ou administrative. Alain Strowel rappelle d’ailleurs que l’IA a des biais auxquels il faut prêter attention pour éviter les discriminations ou décisions injustes. Pour construire le texte, l’UE doit évaluer les différents niveaux de risques que représentent certains programmes pour les droits fondamentaux des citoyens. Ce cadre réglementaire s’appliquerait aux créateurs des logiciels mais aussi aux entreprises et aux institutions qui y font appel.
Aussi, l’intelligence artificielle se nourrit des milliards de données qui existent déjà sur internet. Les régulateurs questionnent le manque de transparence sur l’origine et la nature de ces données utilisées. D’ailleurs, ChatGPT ne cite pas ses sources. Les artistes voient leurs œuvres compilées dans les programmes de génération d’images ou de musiques. L’UE pourrait alors mettre en place des obligations de label sur les origines des données.








