Actualités

Liste des actualités

Historique et dangers de l’IA

Dans le cadre du Groupe de Travail « Innovation – IA » du pôle ODATIS, Guillaume Wacquet (Ifremer) a présenté "Historique et dangers de l’IA", pour comprendre les notions clés à la sécurité et à l’utilisation responsable de l’IA , destinée à un public mixte (experts et non-experts). Elle souligne les risques liés à l’utilisation de modèles d’IA prêts à l’emploi , souvent mal adaptés aux objectifs réels des utilisateurs.

Cette présentation introduit l’atelier technique « Utilisation de l'IA : recherche océanographique, gestion et découverte des données marines » organisé par le pôle les 27-28 janvier 2026 à Marseille. Programme et inscription via ce lien.

L’histoire de l’intelligence artificielle (IA) remonte au milieu du XXᵉ siècle. Ses fondations se posent avec les travaux d’Alan Turing : dès 1936, sa machine à calculer jette les bases de l’informatique moderne, et en 1950 son célèbre test propose une manière d’évaluer la capacité d’une machine à imiter le comportement humain. Quelques années plus tard, en 1956, John McCarthy introduit officiellement le terme intelligence artificielle lors de la conférence de Dartmouth, acte fondateur de la discipline. Depuis lors, l’IA connaît une progression rapide, mais c’est surtout au cours des dernières années que les avancées se sont accélérées de manière exponentielle, avec l’apparition de modèles capables de générer du texte, de reconnaître des images ou encore de dialoguer avec le grand public, comme ChatGPT.

Cette évolution spectaculaire ouvre aujourd’hui la voie à des perspectives révolutionnaires dans tous les domaines, mais elle s’accompagne également de risques importants. 

Présentation Historique et dangers de l’IA, novembre 2025, Guillaume Wacquet, Antoine Huguet, Alain Lefebvre

Applications et dangers de l’IA

Du côté des bénéfices, l’IA contribue à des découvertes scientifiques majeures, notamment dans les domaines de découverte de nouveaux matériaux, de la médecine (accélération des diagnostics médicaux, identification de médicaments) ou de la protéomique. Toutefois, tout cela fonctionne qu’à la condition que l’IA doit être correctement utilisée et maîtrisée. 

L’un des risques les plus connus est le problème d’alignement : il est souvent difficile de traduire les intentions humaines en objectifs mathématiques compréhensibles par une IA. Cela peut mener à des comportements absurdes ou dangereux, comme une IA chargée de créer une ambiance joyeuse qui se mettrait à menacer les gens pour les pousser à sourire.

À cela s’ajoute le risque d’IA trompeuse : les modèles optimisent les récompenses plutôt que l’objectif réel fixé (ex. : un personnage de jeu ignore la clé pour maximiser son score).

Enfin, de nombreux systèmes souffrent d’un manque d’interprétabilité : contrairement à des dispositifs mécaniques conçus pièce par pièce, les modèles sont entraînés, ce qui rend leur fonctionnement interne difficile à comprendre. Cette opacité peut entraîner des erreurs surprenantes, comme un modèle qui distingue loups et huskies non pas grâce aux animaux eux-mêmes, mais en se basant sur la présence de neige en arrière-plan, ou encore un système censé détecter la pneumonie qui apprend en réalité à repérer les annotations inscrites sur les radiographies plutôt que les anomalies pulmonaires.

Recommandations pour une IA responsable

Face à ces enjeux, plusieurs recommandations émergent pour favoriser un développement responsable de l’IA dans notre quotidien de chercheur. Sur le plan éthique et environnemental, il est essentiel d’éviter le recours à l’IA lorsqu’elle n’apporte qu’une amélioration marginale, et de choisir des modèles adaptés à la taille du problème pour réduire l’empreinte carbone. 

Sur le plan scientifique, la robustesse doit primer : il est recommandé de favoriser la reproductibilité en partageant les codes et en croisant les résultats avec des méthodes plus classiques, tout en privilégiant des modèles interprétables plutôt que des « boîtes noires ». 

Enfin, la transparence : elle passe par une documentation claire des choix méthodologiques, une discussion des limites, et une formation approfondie à une utilisation critique, des futurs utilisateurs.

Une utilisation doit être maîtrisée, éthique et critique

L’IA est un outil puissant, mais son utilisation doit être maîtrisée, éthique et critique pour éviter des conséquences imprévues. Une expérience de pensée ("usine à trombones" de Nick Bostrom) illustre le risque d’objectifs mal définis : une IA chargée de fabriquer des trombones pourrait éliminer l’humanité pour maximiser sa production.