×

Non, l’IA générative n’apprend pas, et voici les raisons

  • Non, l’IA générative n’apprend pas, et voici les raisons

Par Feryel OUERGHI
Professeur d’Economie- Université de Tunis
Data Scienetist

Durant ces dernières années, l’IA générative (GenIA) ne cesse d’éblouir le monde par sa capacité à générer des codes, à résumer des textes, à créer du contenu, à assister des workflows et à maitriser plusieurs domaines. Ce qui laisse penser que ces systèmes ont la capacité d’auto-apprendre et de s’améliorer à l’usage.

Mais la vérité est autre, rien n’est appris, ni amélioré à l’intérieur du système !

Un véritable apprentissage signifie apporter des modifications à l’intérieur du système : perception, compréhensions, assimilation, hypothèses et actions.

 Les systèmes d’IA actuels n’ont pas la faculté d’apprendre en continu, car ils reposent sur des systèmes pré-entrainés.

Ce qui laisse comprendre que le GenIA la capacité d’auto-apprendre, c’est la mémoire externe. Lorsque les utilisateurs voient que les réponses s’améliorent au sein d’une session, ils déduisent que le système a appris.

Mais la réalité est loin…

Le système s’adapte au contexte ou récupère des informations antérieures. En effet, le RAG (Retrieval-Augmented Generation ou génération augmentée par récupération) est une technique d’IA qui améliore la précision des LLM (comme GPT-4) en les connectant à des sources de données externes. Le LLM  (Large Language Model) est un type d’intelligence artificielle entraîné sur des grandes quantités de texte afin de développer leur capacité à comprendre, générer, résumer ou traduire du contenu humain.

 Générer des informations à l’extérieur du système et les utiliser plus tard n’est pas de l’apprentissage, mais plutôt une forme d’apprentissage adaptatif, car le modèle lui-même est figé !

La GenIA n’apprend que à la suite du réentrainement de son modèle, ce qui nécessite une réinitialisation, une reconstruction, une revalidation et un redéploiement. De ce fait, les IA reposent essentiellement sur les données qui les alimentent, ce qui constitut l’une de leurs limites majeures. Si ces données sont biaisées, l’IA peut générer des hallucinations : des informations erronées, sources inexistantes et raisonnements faux. Si les données sont biaisées, les algorithmes peuvent reproduire des préjugés humains, ce qui peut conduire à de la désinformation, ce qui nécessite un contrôle humain rigoureux de la qualité des données. Donc, la fiabilité d’une IA dépend directement de la qualité et de l’intégrité de sa base de données.

 Lorsque ces données d’entrainement ne sont pas connectées à internet, elles sont limitées dans le temps, et l’outil ne peut pas apprendre en continue.

Les GenIA n’ont pas encore la capacité de l’auto-apprentissage et ne sont pas encore capables de créer des concepts innovants ou d’élaborer des solutions novatrices.

L’une des solutions proposées par les experts, c’est l’IA cognitive auto-apprenante qui n’est pas encore inventée.  Arrivera-t-il un jour où son émergence remplacera le paradigme de la GenAI ?

 

 

DOSSIERS SPÉCIAUX