L’intelligence artificielle, définition et analyse
Fin 2022, OpenAI change la donne de l’intelligence artificielle avec ChatGPT. Une Intelligence Artificielle générative, librement accessible pour le grand public.
Le succès est immédiat. En quelques semaines, ce LLM (Large Language Model) devient un véritable phénomène. Tout le monde en parle et tout le monde a un avis.
Les uns y voient le futur d’Internet, d’autres, la mort de leur métier. D’autres encore sont persuadés que l’IA ne pourra pas les remplacer.
De nombreuses personnes ont développé une pensée magique par rapport à l’IA. Et celle-ci fait l’objet de très, très nombreuses idées reçues.
Alors non, Terminator, ce n’est pas pour demain, les robots d’Asimov non plus.
Mais ça ne veut pas dire qu’il faille sous-estimer l’impact des IA. Il y aura de vraies conséquences dans nos vies, des conséquences lourdes.
Ce type de technologie soulève de vrais espoirs mais aussi de vraies questions éthiques. Elle va se retrouver au cœur de luttes de pouvoir de premier plan. Et surtout, elle va se heurter à des contraintes techniques, matérielles.
Contrairement à ce qu’affirment ses promoteurs, l’avenir de l’IA n’est pas écrit à l’avance, et le nôtre non plus.
Au fait, une intelligence artificielle, qu’est-ce que c’est ?

« L’intelligence artificielle n’existe pas. C’est dommage, moi j’en fais depuis 30 ans, c’est embêtant ! »
Cette phrase est de Luc Julia (ci-dessus), expert en intelligence artificielle et cofondateur de Siri, l’IA d’Apple.
Luc Julia ne manque pas d’humour, et je vous invite à écouter sa conférence. En plus d’être drôle, elle est passionnante et très instructive.
Cette petite blague a permis à Julia nous rappelle une chose : le terme « intelligence » est erroné pour qualifier ce type de programme.
L’IA, ce n’est pas de l’intelligence, c’est de la puissance de calcul.
Il y a donc un malentendu sur la notion même d’intelligence. Dans la même conférence, Luc Julia évoque encore la Pascaline.
Inventée par Blaise Pascal, cette machine à calculer était totalement mécanique. Mais elle permettait de faire des calculs d’une grande complexité, de manière quasiment instantanée et sans faire d’erreurs.
On ne pouvait pas en conclure qu’elle était intelligente. C’était de la mécanique, et rien d’autre.
La machine n’était pas intelligente, même si Pascal, lui, était un des esprits les plus brillants de son époque.
Les IA actuelles, c’est le même principe. Une seule chose change : le niveau de complexité.
Une intelligence artificielle est une machine à apprendre

Pour le grand public, une IA est capable d’agir de manière autonome, de répondre à un ordre qui n’a pas été défini à l’avance.
Mais la vraie question, c’est surtout comment ça marche.
Qu’est-ce qui permet cette prise de décision autonome ?
C’est le point commun avec un être humain. L’autonomie implique d’abord un travail d’apprentissage.
Et c’est ce qui fait toute la différence dans le fonctionnement des Intelligences Artificielles.
Elles génèrent un programme sur la base de ce qu’elles ont appris. Et elles le font pour répondre à une situation spécifique, souvent inédit, suivant des critères de choix définis au préalable.
C’est pour cela que les LLM commencent toujours par générer des textes sans queue ni tête. Lucie, l’IA de l’Éducation Nationale, en est un exemple récent.
On pourrait se moquer, mais il faut garder une chose à l’esprit : cette étape fait partie du processus d’apprentissage.
Un LLM commence avec des textes absurdes, ou sans intérêt, et aboutit à des textes de plus en plus cohérents et structurés.
Dans cette évolution, il y a un processus qui fait toute la différence : le fameux « machine learning ».
Des données, beaucoup de données !
Pour son apprentissage, la machine assimile une immense quantité de données.
Un ordinateur surpasse l’homme sur deux choses : la puissance de calcul, et la capacité à mémoriser.
Mais n’en déduisez pas qu’il est plus intelligent que nous. Cette puissance de calcul est contrebalancée par une grande inefficience.
Quelques exemples : il a fallu des centaines de milliers d’images de chats pour qu’une IA soit capable de se conceptualiser le chat, et en reconnaître un sur une nouvelle photo.
Pour un jeune enfant, deux à trois images suffisent.
Autre exemple : le programme AlphaGo était, comme son nom l’indique, un programme de jeu de go. Il est parvenu à battre Fan Hui, un joueur professionnel, de classe internationale.
Le Go suit une logique plus complexe que les échecs, avec une part d’irrationalité. La performance est donc spectaculaire.
Mais ce qui est spectaculaire, c’est aussi la ressource nécessaire pour la réaliser ! AlphaGo avait besoin d’un data-center entier, juste pour jouer au go.
Fan Hui, lui, a un cerveau, avec une puissance électrique de 20 W. Ce cerveau lui permet de jouer au go, mais aussi de cuisiner, conduire une voiture, tenir une conversation (en français et en chinois)…
Nous n’avons pas la puissance de calcul d’un data center, mais nous n’en avons pas besoin.
Il y a plusieurs types d’IA
Une IA exécute un programme. Mais toutes les IA n’exécutent pas le même genre de programme.
D’après FramamIA, le portail de Framasoft dédié à l’IA, on recense généralement six types d’IA. Elles peuvent être :
- symboliques : exécutent des tâches suivant des symboles et des règles de traitement de l’information ;
- descriptives : conçues pour collecter et analyser des données ;
- prédictives : identifie la continuité logique des événements passés et en déduit les événements à venir ;
- prescriptives : formule des recommandations pour optimiser des actions ou des descriptions ;
- génératives : génèrent du nouveau contenu imitant les données d’entraînement ;
- générales ultimes : réunissent l’ensemble des fonctions de toutes ces IA.
Vous vous en doutez, suivant le type de tâche, ce ne sont donc pas les mêmes questions qui vont se poser.
Ce ne sont pas les mêmes problèmes éthiques non plus.
Les questions éthiques de l’intelligence artificielle
Il est rare qu’une technologie soit foncièrement mauvaise. Mais elle a toujours son lot de problèmes.
L’IA ne déroge pas à la règle.
Entre sa consommation énergétique et les risques qu’elle représente pour le savoir-faire humain, il y a beaucoup de critiques à faire.
Il y a de vraies questions éthiques à poser, mais il y en a une, qui les englobe toutes :
Que faut-il déléguer (ou non) à la machine ?
Les savoir-faire auxquels vous renoncez
Confier une tâche à une machine veut dire, implicitement, renoncer à la faire soi-même. Et souvent, c’est une faculté qu’on perd.
Par exemple, comme l’évoquait Michel Serre, notre faculté à mémoriser était beaucoup plus forte à l’époque où l’accès à l’écrit était plus limité.
C’est vrai parce que moins de gens savaient lire, mais aussi parce que les livres étaient plus rares et plus chers.
Plus récemment, on a observé la même perte de mémoire dans notre rapport au téléphone.
Connaissez-vous par cœur le numéro de vos parents, de votre conjoint ou conjointe, ou celui de vos frères et sœurs ?
Il y a vingt ans, vous auriez sans doute répondu oui. Aujourd’hui, je n’en serais pas aussi sûr.
Personnellement, je connaissais par cœur le numéro de téléphone de mes parents, celui de mes amis proches, celui de mes grands-parents. Aujourd’hui, je ne me rappelle même plus celui de ma compagne, ou même mon numéro professionnel.
Je les ai écrits dans mon téléphone, donc tout va bien.
Sauf si :
- la batterie me lâche ;
- je me fais voler mon téléphone ;
- mon téléphone est cassé;
- …
Voilà ce qui se passe quand on s’en remet à la machine : on perd une partie de ses facultés, physiques et mentales.
C’est pour ça qu’il faut continuer de compter avec ses propres ressources. Trop dépendre de la technologie, c’est dangereux.
Les pouvoirs excessifs qu’offrent les IA
Il ne faut pas accuser les IA de tous les maux. Bon nombre de dérives qu’on leur reproche existaient déjà avant.
Les fake news, le cyber-harcèlement, les propos haineux, les arnaques en ligne… on en trouvait déjà il y a 20 ans.
Mais l’explosion de l’IA a amplifié le phénomène.
Une IA génère du contenu plus vite que n’importe quel être humain. Du pain béni pour les trolls qui veulent inonder le web.
Le cas Tay est un cas d’école. En 2016, ce chatbot développé par Microsoft avait été lâché sur Twitter (aujourd’hui X). En seulement 8 heures sur le réseau, Tay a publié 96000 Tweets et récolté pas moins de 23000 abonnés.
Mais les choses se sont vite gâtées.
Entre les insultes, les menaces de mort et les propos racistes ou sexistes, Twitter n’était pas réputé pour son ambiance bienveillante. Et ce qui devait arriver arriva.
En moins de 8 heures, Tay état devenue raciste et conspirationniste. Finalement, les développeurs de Microsoft l’ont mise hors-ligne.
Mais il y a pire qu’une IA entraînée par des trolls : une IA développée par des trolls.
Grok est l’IA générative de X. Et elle est à l’image de son patron, Elon Musk. Elle n’a aucun filtre et diffuse des fake news à la chaîne, à grands renforts d’images générées.
Pour l’instant, c’est assez grossier. Ça ne trompe que ceux qui veulent y croire. Mais vu les progrès de ces technologies, il pourrait devenir assez facile de se faire avoir.
Avec toutes les conséquences que ça implique pour l’accès à l’information, et même, pour la démocratie.
Il y a donc urgence à encadrer ce genre de pratique, à ne pas laisser faire n’importe quoi avec une IA.
L’importance d’un contrôle citoyen sur l’IA
Qui contrôle l’IA ? Cette question est d’une importance critique.
Actuellement, une intelligence artificielle comme ChatGPT a déjà des filtres. Elle ne permet pas de générer du contenu susceptible de lancer des campagnes de désinformation.
Mais il ne faut pas oublier que dans certains pays, la désinformation vient du pouvoir en place.
Récemment, DeepSeek, l’IA chinoise, a beaucoup fait parler d’elle. Très performante, avec une technologie open source, elle accuse quand même un gros point noir : son allégeance au régime communiste chinois.
DeepSeek ne permet pas la génération de contenu critiquant le pouvoir en place en Chine. Pire encore, ce LLM se réserve le droit de vous dénoncer en cas de tentatives répétées.
Le paysage actuel des LLM n’est donc pas très joyeux. On est partagés entre les IA américaines, mises au service de Trump et les IA chinoises, soumises à une dictature.
Et l’Europe dans tout ça ? Des projets prometteurs, comme Mistral ; d’autres, beaucoup moins prometteurs, comme Lucie. Mais disons-le clairement : tout est encore à faire sur le Vieux Continent.
Pourquoi faut-il continuer de travailler sur l’IA ?
Après avoir beaucoup critiqué l’intelligence artificielle, je suis arrivé à une conclusion paradoxale.
Il faut que l’Europe s’engage sérieusement dans la course, elle aussi.
Travailler avec les outils des autres, c’est leur laisser un contrôle sur nous.
On commence à entrevoir les conséquences, quand cet outil sert les intérêts d’un autre pays. Surtout si vous n’êtes pas en très bons termes avec ce pays.
Sur le plan stratégique et éthique, il faut que l’Europe se dote de ses propres outils. Cela vaut pour tout ce qui touche à l’informatique, au web. Et naturellement, cela vaut aussi pour l’Intelligence Artificielle.
Il nous faut outils open source, libres si possible, et surtout conformes au RGPD (Règlement Général sur la Protection des Données).
Actuellement, ce sont les géants de la tech américains qui tiennent le haut du pavé. Et c’est un problème.
Le problème ? Nous sommes toujours dépendants de technologies étrangères.
Nous avons des standards élevés sur la protection de la vie privée, des standards que les firmes américaines sont peu enclines à respecter. Meta (Facebook), par exemple, a multiplié les amendes de la part de l’Europe, notamment pour violation du RGPD.
Et pourtant, ça n’a pas été médiatisé plus que cela, et surtout, on n’a pas vu de départs en masse de Facebook ou Instagram en Europe.
Il y a urgence à apprendre à travailler sans ces firmes. C’est encore plus vrai, maintenant que Donald Trump multiplie les coups de semonce contre le Vieux Continent.
Cela vaut pour l’Intelligence Artificielle, et pour l’informatique en général.
Un domaine porteur pour l’IA : la santé
L’Intelligence Artificielle pose de nombreux problèmes, mais aussi de vraies opportunités et de vrais espoirs.
C’est vrai dans le milieu médical. À ce jour, il est tout à fait possible d’entraîner une intelligence artificielle à détecter des maladies. Cela peut passer par l’analyse de prélèvements sanguins ou la lecture d’imagerie médicale.
Elle offre notamment un réel potentiel pour détecter les cas précoces de cancer.
De là à conclure que le métier de médecin est voué à disparaître, il y a un pas que je ne franchirai pas.
Un médecin a une mission : soigner les gens. Cela implique d’observer des symptômes, d’en déduire un diagnostic, et en fonction du diagnostic, de décider du traitement le plus adapté.
Mais il y a tout un volet de la médecine qui va au-delà de cette analyse clinique. C’est la capacité à connaître un patient, avoir sa confiance, le rassurer.
C’est tout un volet de la médecine que l’IA ne peut pas remplacer.
Qui est responsable, l’IA ou l’humain ?
Il y a une autre chose à laquelle l’IA ne doit pas se substituer : la responsabilité et la prise de décision.
Dans la santé, établir un diagnostic, c’est le travail d’un médecin. Même s’il se base sur ce que lui dit l’IA, c’est lui le responsable !
Or dans un monde qui part à vau-l’eau, c’est tentant de fuir ses responsabilités.
C’est ce qu’a montré l’expérience de Milgram, une expérience consistant à mesurer le niveau d’obéissance à des ordres immoraux.
Le résultat est glaçant : plus de la moitié des personnes ayant participé à l’expérience ont obéi aveuglément, malgré les protestations de leurs « victimes ».
Depuis les années 60, l’expérience de Milgram a été renouvelée un grand nombre de fois, dans différents pays. Les conclusions sont toujours les mêmes : une majorité de gens obéit aux ordres, mêmes immoraux, pour peu que quelqu’un d’autre en prenne la responsabilité.
Aujourd’hui, l’informatique est présente dans toutes nos administrations. Et souvent, la décision est déléguée à une machine.
En France, la CAF et sa politique de surveillance des potentiels « fraudeurs » en est un bon exemple.
Les algorithmes peuvent traquer en priorité les personnes les plus en difficultés, ou au contraire, les plus promptes à faire valoir leurs droits.
L’association La Quadrature du Net mène d’ailleurs une campagne contre cette surveillance généralisée qu’impose la CAF.
L’automatisation de ce type de décision pose question. Elle pose d’autant plus question que les critères retenus n’ont rien de neutre, et les conséquences non plus.
Le simple agent de la CAF va se décharger de sa responsabilité derrière la machine.
Mais la machine a été programmée par un être humain.
Autrement dit, le responsable est un être humain, quoi qu’il arrive.
Il peut avoir conçu le programme, ou simplement y obéir. Mais c’est toujours un être humain.
Le plus gros problème : l’impact écologique
On peut donc envisager un usage vertueux de l’IA, à condition qu’elle ne dépossède pas (trop) l’humain de son savoir-faire.
Reste un gros problème : les ressources nécessaires !
Une Intelligence Artificielle a besoin de beaucoup, vraiment beaucoup, de ressource pour fonctionner.
Il faut des machines avec une puissance de calcul colossale.
D’ailleurs, il commence y avoir des inquiétudes sur une possible bulle de l’IA. Des firmes comme OpenAI (ChatGPT) ou Anthropic (Claude) dépensent deux à trois fois plus d’argent qu’elles n’en gagnent.
Le coupable ? La note d’électricité.
Au-delà de la viabilité économique, il y a aussi des questions écologiques qui entrent en jeu.
Google, qui disait viser la neutralité carbone, a augmenté ses émissions de gaz à effet de serre de 48 % entre 2019 et 2023. Microsoft, quant à elle, a augmenté ses émissions de 30% entre 2020 et 2023.
La facture s’annonce salée, pour les géants de la tech, mais aussi pour l’environnement.
Mais on nuancera avec une chose : le développement de ce type d’IA en est à ses débuts. On peut donc espérer des programmes plus sobres à terme.
C’est du moins que laissent entrevoir les technologies développées pour DeepSeek. Contrainte à développer sans les composants de dernier cri, la firme chinoise a dû se rabattre sur du matériel moins puissant, le tout avec un budget dérisoire.
Mais le résultat est là. Est-ce la voie vers des IA moins énergivores ? L’avenir nous le dira.
Ce que l’intelligence artificielle ne remplacera pas
Depuis les débuts de l’ère industrielle, on est toujours allés vers plus d’efficacité, plus de productivité.
La clé de tout ça : l’automatisation.
C’est exactement pour ces raisons qu’un certain nombre de métiers disparaissent, et que le travail humain disparaît dans de nombreux secteurs.
Parfois, c’est porteur de progrès. Je ne connais aucune femme pour se plaindre de l’invention du lave-linge (ni aucun homme, d’ailleurs).
Mais d’autres fois, cela signifie une perte.
Le travail relationnel, purement humain
Il y a 15 ans, quand je remplissais une déclaration d’impôts ou une demande d’Aide au Logement, il n’était pas rare que je me déplace à l’administration compétente. Sur place, je trouvais un interlocuteur pour me guider, me conseiller, m’aider à remplir les papiers…
Aujourd’hui, tout se fait en ligne ou presque. Sous couvert de rationaliser les tâches administratives, on les déshumanise.
Dans de nombreux secteurs d’activité, l’humain disparaît. Mais n’allez pas croire que l’IA le remplace.
Il est juste remplacé par… Rien.
Il est primordial que l’être humain subsiste, qu’il soit toujours là. L’IA peut aussi permettre de le revaloriser dans tout ce pour quoi elle n’arrive pas à le remplacer.
L’art est-il soluble dans l’IA ?
Il y a un secteur où l’IA inquiète particulièrement : l’art.
Elle augure un scénario très inquiétant. Celui d’un art sans artistes.
Ce scénario ne profite à personne, à part aux spéculateurs et aux escrocs.
Témoin de ce phénomène, Amazon KDP a tenté mollement d’endiguer la surabondance de « romans » générés par IA sur sa plateforme. Désormais, aucun « auteur » ne pourra publier plus de… 3 livres par jour.
Aujourd’hui, aucune forme d’art n’échappe à l’IA. Elle peut générer de la musique, des romans, du dessin, etc.
Mais le problème c’est que l’art implique une intervention humaine, à un moment ou un autre.
D’où la question : est-ce encore de l’art ?
Certains « artistes IA » vont défendre leur démarche artistique à travers la qualité de leurs prompts. Mais ils n’auraient jamais produit ce résultat sans avoir, au préalable, pillé des œuvres d’art existantes.
Cela pose un problème évident de propriété intellectuelle.
Mais en tant que public, ça m’interroge aussi. J’attends d’une œuvre d’art qu’elle m’émeuve, me touche. Je ne vois pas comment une IA pourrait m’émouvoir avec des sentiments humains qui lui sont complètement étrangers. Et même si elle le pouvait, j’y verrais une escroquerie, parce qu’il n’y a pas d’humain derrière les sentiments exprimés.
Enfin, le plus préoccupant, à long terme, c’est la possibilité qu’il n’y ait plus de véritables artistes. Que tout ne soit que de l’IA. Les conséquences sur l’art lui-même seraient très lourdes, puisqu’il n’y aurait aucune création nouvelle, inédite.
L’art serait condamné à la stagnation.
Conclusion : le contenu généré par IA est-il éthique ?
Malgré ce que j’ai écrit auparavant, le contenu généré par IA peut tout à fait être éthique.
À titre personnel, je ne génère pas de contenu par IA pour mon travail. J’aime trop écrire pour déléguer ça à une machine.
Mais si vous vous demandez s’il est possible d’avoir une utilisation éthique de l’IA, la réponse est oui.
Oui… À condition de respecter quatre principes.
Respectez la propriété intellectuelle
Si vous vous présentez comme auteur ou artiste, vous le savez : le plagiat est un délit.
La propriété intellectuelle, c’est sans doute le plus difficile à respecter avec une IA générative.
Parce que vous-même, vous ne savez pas toujours sur quelles données cette IA se base pour générer le contenu que vous lui avez demandé.
Si vous tentez de générer des images par IA, il y a de fortes chances qu’un artiste reconnaisse son travail. Et vous aurez du mal à le contredire. Ne faites pas ça. Vraiment.
Pour le contenu écrit, c’est un peu plus simple. Tout ce que vous trouvez sur le web n’a pas une vocation artistique.
Le contenu peut aussi être informatif, commercial, etc.
De plus, il n’y a pas forcément la même manière d’utiliser un LLM d’une personne à une autre.
Si vous demandez à l’IA de produire un texte « à la manière de », vous ne pourrez pas dire que vous ne saviez pas ce que vous faisiez. Mais il y a aussi des chances que les gens reconnaissent ce qui vous a servi de modèle.
Dans ce cas, vous pourrez toujours vous retrancher derrière le droit de citation.
Soyez honnête avec le lecteur
Si vous utilisez l’IA pour écrire vos travaux, soyez honnête avec vos lecteurs, et dites-le. C’est le minimum.
J’ai plusieurs collègues, qui ont un haut niveau d’exigence et d’éthique dans leur travail, qui se servent de l’IA, à différentes étapes de leur travail. Ils le disent. Et ça ne les empêchent pas de passer du temps, beaucoup de temps sur leurs textes.
Ils n’utilisent pas l’IA pour produire du contenu au kilomètre. Ils s’en servent comme levier pour améliorer les textes qu’ils écrivent.
Ne comptez pas sur la machine pour produire de la pensée ; c’est votre travail à vous
L’IA peut vous donner des idées de texte. Mais ce sont vos idées. Et c’est à votre propre bon sens qu’il faut vous fier.
Si vous abdiquez devant l’IA, vous deviendrez progressivement incapable de développer une pensée digne de ce nom. Je ne vous le souhaite pas.
Soyez impitoyable sur la qualité du contenu que vous proposez
L’IA peut s’exprimer dans un français parfait, la question n’est pas là.
La vraie question, c’est ce que vous avez à dire. Si vous avez du respect pour le lecteur (et il faut en avoir), il faut être exigeant. Le contenu foisonne sur le web.
Il faut donc partir d’un principe : le pire qui puisse arriver, c’est que l’internaute reparte de votre site en ayant l’impression d’avoir perdu son temps.
Ne lui faites pas perdre son temps, il faut qu’il reparte heureux de vous l’avoir consacré.
Mon conseil : un usage parcimonieux limité à certains stades précis du processus d’écriture
Les LLM peuvent être de véritables aides, à différents moments de la création d’un article, ou de tout autre texte.
Mais le but n’est pas de produire du texte au kilomètre. C’est vous qui écrivez, les LLM ne doivent rien faire de plus que vous assister.
Rappelez-vous : dans un usage bien compris d’une IA générative, c’est vous qui travaillez, pas elle.
Voici donc quelques étapes où une IA générative peut vous aider :
- Au stade de la réflexion (trouver des thèmes à aborder)
- À la construction d’un plan d’article (découpage en plusieurs parties)
- À la correction (pour chercher des fautes d’orthographe ou de syntaxe).
Enfin, j’insiste sur un dernier point : l’IA consomme beaucoup d’énergie, même si OpenAI et consorts évitent de vous en parler. Si vous souhaitez avoir une attitude responsable, réservez l’usage de l’IA aux tâches les plus fastidieuses ou aux moments où vous ne pouvez vraiment pas faire autrement.