Les nouvelles « IA » : Normalisation de la médiocrité ?
Les nouvelles « IA » : Normalisation de la médiocrité ou nouveaux compagnons virtuels ?
I - La nouvelle vague des « IA » et autres abus de langage
Cela n’a échappé à personne, le tsunami des nouvelles « intelligences artificielles » a submergé nos vies numériques. Un phénomène qui explosa en fin d’année 2022, lors du lancement public d’un certain ChatGPT.
Il s’est ensuivi un assortiment d’autres intelligences artificielles dans divers domaines, comme Midjourney pour la génération d’images. Chaque domaine numérique se fait rapidement infiltrer par cette révolution : photo, vidéo, audio, rédaction, quand ce n’est pas un mélange de chaque.
On parle souvent d’« IA », ou pour être plus précis : de modèles d’apprentissage, d’IA prédictive ou générative. La différence est à peu près semblable à celle qui sépare le concept de « véhicule » de celui de « vélo ». IA est un terme qui regroupe différentes méthodes pour amener une machine à singer une partie, même infime, d’un comportement anthropomorphe. Ceci peut être le langage, mais aussi le mouvement d’une articulation et dans une certaine mesure, la prise de décision. Nous sommes donc face à des outils spécifiques à l’accomplissement de tâches précises.
Il n’existe pas d’IAG (Intelligence artificielle générale), capable de prendre en charge l’ensemble de ces tâches et de nous asservir à la façon du scénario de Terminator. Ce n’est pas pour autant sans risque.
Dans le cas qui nous intéresse aujourd’hui, il est question des IA génératives que sont les modèles d’apprentissage. La simplicité du concept est inversement proportionnelle à la complexité technique de la chose :
Prédire, avec le moins d’erreur statistique possible, le mot suivant dans une phrase.
C’est tout !
La technique derrière cette simple tâche est loin d’être évidente et se veut évolutive, de telle sorte que des couches successives de conditions (ou perceptrons) se génèrent et s’interconnectent en fonction des besoins de l’apprentissage. On parle alors de réseau de neurones artificiels.
Ces modèles fonctionnent donc sur 3 axes :
- un algorithme de base (la logique dont les programmeurs l’ont doté) qui va décrire le comportement qu’il va adopter,
- l’évolutivité d’un réseau de neurones artificiels généré automatiquement,
- une masse importante de données servant à constituer des modèles.
On arrive très rapidement à des quantités pharamineuses de facteurs qui dépassent très largement la compréhension humaine.
Pas de panique, on parle ici uniquement de la compréhension en termes de nombre de nœuds logiques, rien de plus : si une démarche administrative vous demande cinq conditions pour être réalisée et que vous trouvez ceci déjà trop compliqué, imaginez alors une démarche administrative à plusieurs millions de conditions. Humainement, c’est irréalisable, même si chaque condition est simple à satisfaire. La métaphore, bien que grossière, devrait vous permettre de mieux visualiser la « perte de contrôle » dont certains médias ont avidement parlé ; ce qui en plus d’être anxiogène est faux.
II - Utilisation intelligente pour humains bien réels
Avant de parler de ce qui peut poser un problème avec ce type d’IA, revenons sur l’utilité de tels outils. Il serait présomptueux de dresser une liste exhaustive de tous les domaines d’application des modèles d’apprentissage ; cette technologie étant très récente, elle n’a de cesse d’évoluer et de trouver des utilités.
Les meilleurs exemples sont ceux que l’on pratique, en voici donc deux :
- Le domaine du développement informatique aime ces agents. De nombreux environnements dédiés à la programmation en intègrent à présent, permettant, par exemple, de générer un commentaire décrivant le fonctionnement d’un code, ou encore, d’aider le développeur à la résolution d’un bug, de cibler avec plus de précision la recherche de documentation et d’application sur une fonction donnée... Un gain de temps non négligeable.
Au début de ChatGPT, les agents conversationnels ont effrayé le milieu du développement en étant capables de générer eux-mêmes du code informatique, souvent viable. Avec le recul, on se rend compte que la compréhension du besoin d’un utilisateur et l’optimisation d’un code en fonction d’un contexte réel sera très difficilement remplaçable par une IA.
- La photographie, qu’elle soit issue d’un cliché récent ou des années 30, profite grandement de cette technologie. Il est possible, par prédiction des pixels manquants, de restaurer une photo abîmée par le temps, de retirer un objet disgracieux sur un cliché artistique, de détecter les contours d’un animal ou d’un objet afin de traiter avec efficacité la colorimétrie de ce dernier. Comme pour le développement informatique, toutes ces choses sont réalisables humainement mais prennent énormément de temps et d’énergie. C’est donc un confort supplémentaire et bienvenu dans ce domaine.
Il est tout à fait envisageable d’imaginer autant d’applications qu’il existe de domaines le nécessitant, du spatial au médical en passant par l’architecture et la prévention.
III - Limitation du concept
Si vous avez suivi le cheminement de cet article, il y a un point d’ombre qui doit commencer à vous titiller.
Nous avons vu que le développement de ces outils suivait trois axes. Le code de base est ce qu’il est et est adapté à l’utilité que l’on souhaite donner à cette IA. Le réseau de neurones est une méthode pour parvenir à un résultat.
Il reste cependant un troisième axe : les données.
Autant un carburant qu’un poison, rien n’est possible sans elles et pourtant elles représentent la limite de cohérence et de crédibilité des IA prédictives.
Comme dit plus haut dans l’article : Prédire, avec le moins d’erreur statistique possible, le mot suivant dans une phrase.
Comment demander à un programme informatique de prédire un mot dans une phrase, un pixel dans une image, une image dans une vidéo ou encore une intonation dans une voix ?
En utilisant simplement les statistiques ! Il faut donc superposer une quantité importante de données pour parvenir à dégager une tendance et en déduire une suite logique.
On peut alors aisément deviner en quoi cette méthode est aussi géniale que dangereuse.
Déjà, la nuance est gommée derrière une moyenne de ce que l’on donne « à manger » au modèle. Si cela fonctionne bien pour restaurer une vieille photographie, c’est une autre histoire concernant le langage. Afin d’alimenter un modèle de ce type, il est nécessaire de le nourrir avec un maximum de conversations sur un maximum de sujets provenant d’un maximum de sources différentes.
C’est ainsi qu’un prototype de modèle conversationnel lancé par Microsoft en 2016 sur Twitter s’est retrouvé à débiter des propos déplacés voire complotistes.
Aurélien Barrau, astrophysicien et philosophe, lors d’une intervention à l’université de Liège parle des IA génératives comme d’une ode à la médiocrité. Bien que provocateur et au regard des explications précédentes, peut-on vraiment affirmer que ce titre est exagéré ?
IV – Dérives
Nourrir un modèle d’apprentissage avec le contenu provenant d’internet, c’est mélanger dans son apprentissage : faits réels et affabulations, idées politiques extrêmes comme mesurées, athéisme et fanatisme, le tout sans pouvoir contrôler les proportions de chaque sujet. La proportion de ceux qui publient le plus n’est pas forcément représentative de la répartition de ces mêmes sujets dans le monde réel.
En fonction de la porosité voulue de l’agent conversationnel, ce dernier pourra affirmer avec l’aplomb imité de l’expert humain quelque chose sans véritable fondement scientifique.
Nous sommes également confrontés à une autre dérive concernant le contenu visuel, que ce soit photo ou vidéo.
On a vu que ces IA se nourrissaient d’un contenu existant. La question se pose alors du respect des droits d’auteur lorsqu’un modèle comme Midjourney génère une image de A à Z depuis la description (ou « prompt ») d’un utilisateur. Si l’IA ne fait qu’imiter la tendance que lui ont apportée les contenus absorbés, l’image en résultant peut-elle être considérée comme une création originale ? Peut-on appliquer à un algorithme, une loi qui concerne l’esprit humain ?
Le consensus actuel semble dire qu’une création humaine utilisant l’IA générative comme une assistance à la création rentre parfaitement dans la protection des droits d’auteur. Pour les autres cas, chacun semble prêcher sa paroisse.
Plus les IA génératives progressent, moins il est facile de distinguer un contenu généré automatiquement d’une création humaine, voire de la réalité. Aussi les fakes utilisant ces procédés ne sont pas rares et vont se multiplier dans le futur. Photos truquées générées en deux phrases, vidéos sensationnelles donnant corps à des complots considérés comme aberrants jusque-là, manipulation des spectateurs…
Il est, là aussi, compliqué d’être exhaustif concernant les dérives possibles. La vitesse de diffusion de l’information n’a jamais été aussi absurdement rapide. Avec des outils comme les IA génératives, on a là le cocktail parfait pour se laisser dépasser. Quand bien même l’incendie premier sera éteint que le public aura déjà réagi, partagé et se sera forgé une opinion collective basée sur le mensonge d’un programme dont la simple fonction de base était :
Prédire, avec le moins d’erreur statistique possible, le mot suivant dans une phrase.
V – Conclusion
Lors du phénomène incroyable des aurores boréales du 10 mai 2024, il était très rare de lire une publication sans qu’au moins un commentaire (quand ce n’était pas la publication elle-même) soit basé sur une image générée automatiquement. Cet évènement est loin d’être un cas isolé et ces faux sont de plus en plus fréquents, voire systématiques dès que l’occasion se présente.
Comme vu précédemment, il est de plus en plus difficile de démêler le vrai du faux. À ce titre, certains vulgarisateurs tentent d’initier leur public aux méthodes sceptiques afin d’être moins facilement victime de ces tromperies.
On peut citer, parmi tant d’autres, la chaîne Youtube de Defakator qui y consacre toute une série de vidéos autant comiques qu’instructives.
Alors quoi ? Les modèles d’apprentissage automatique tendent-ils à normaliser une forme de médiocrité créative ? Représentent-ils un énième moyen de tromper l’audience ? Sont-ils de vrais outils développés par et pour l’humain à des fins de réduire la pénibilité de certaines tâches ?
Il n’y a, bien évidemment, pas de réponse absolue. Le couteau peut servir d’ustensile de cuisine comme d’arme, tout dépend de qui le manie et dans quel contexte. Les IA génératives ne dérogent pas à la règle, l’outil étant ce que l’on décide d’en faire. Il est cependant important que cette technologie puisse être rapidement et globalement régulée en termes d’usage. Que des moyens soient mis en place pour identifier et scinder le fruit d’un esprit humain de celui d’une intelligence artificielle. Il est nécessaire que le public soit instruit des possibilités et des dérives possibles au plus vite. En effet, la vitesse d’évolution de cette technologie et sa facilité à se propager dans tous les domaines en font une arme supplémentaire de la désinformation. Il est nécessaire, pour chacune et chacun d’entre nous, de réagir vite et fort en se renseignant et en partageant, avec nos proches, les avantages mais surtout et avant tout, les dangers que représentent les IA génératives.
Sources :
Chaine Youtube de Defakator
https://www.youtube.com/@DefakatorOfficiel
Conférence de Aurélien Barrau, université de Liège
https://youtu.be/P_KG2kztBOI?si=VtJ18F9jUwncTI4z
Tay, prototype conversationnel de Microsoft
https://www.lemonde.fr/pixels/article/2016/03/24/a-peine-lancee-une-intelligence-artificielle-de-microsoft-derape-sur-twitter_4889661_4408996.html
Les réseaux de neurones artificiels
https://fr.wikipedia.org/wiki/R%C3%A9seau_de_neurones_artificiels
Apprentissage automatique
https://fr.wikipedia.org/wiki/Apprentissage_automatique
IA et droits d’auteurs
https://prologue-alca.fr/fr/actualites/l-ia-une-menace-pour-le-droit-d-auteur
Relecture et remerciements : Kapinou