Une nouvelle expression est apparue dans le langage courant des informaticiens : celle des « hallucinations »[1]. En langage clair, une hallucination fait référence aux erreurs factuelles effectuées par les robots d’intelligence artificielle, en particulier les chatbots. Il y en a beaucoup ! Qui n’a pas fait l’expérience ? Vous n’avez qu’à leur demander quelque chose que vous savez déjà.Deux fois plutôt qu’une, il y aura des erreurs, parfois même des absurdités, des contradictions, des incongruités.
Comment les chatbots fonctionnent ?
Pour comprendre pourquoi ils font des erreurs, il faut savoir comment fonctionnent les chatbots et les explications ne sont pas si faciles à saisir : « les fautes dites occasionnelles selon ChatGPT découlent des complexités des architectures de réseaux de neurones, des biais inhérents aux données d’entraînement et des défis liés au traitement d’un vaste ensemble d’informations parfois contradictoires ».
En langage humain, disons que ce sont des algorithmes qui s’abreuvent d’informations existantes sur la vaste toile du web ou ailleurs. Les chatbots se fient à la notoriété des sources d’information : ils n’inventent rien, ils copient, interprètent et modélisent. Leur véritable valeur ajoutée tient à leur extraordinaire capacité de générer des rendus, comme des synthèses, des textes, des images dans des temps record. Ceci est trompeur, parce que la qualité du contenant ne peut être garante de la qualité du contenu.
Les chatbots ne peuvent pas réellement juger de l’objectivité de l’information. La diversité des sources consultées est limitée pour des raisons de coûts et celle qui est proposée et privilégiée peut être commanditée pour des raisons commerciales. Les rendus sont déterminés à partir de systèmes neuroniques (qui imitent le cerveau humain) qui assignent une probabilité d’association (poids) entre les liens neuronaux. Par essence même, une probabilité n’indique jamais avec certitude qu’une information est vraie.
Pourquoi les chatbots sont influençables
Si, à partir de l’expérience que vous ferez (leur demander quelque chose que vous savez déjà), vous pourrez leur signifier votre désaccord, ils s’excuseront souvent et adopteront votre vision. Les chatbots ne vous diront jamais qu’ils ne sont pas d’accord avec vous, même si vous savez que vous avez tort, à moins de s’opposer par évidence. (cf, aussi l’article Quelles sont les répercussions sociales de ChatGPT ?)
Les développeurs réentraînent périodiquement les modèles en tenant compte notamment des objections que vous aurez soumises. C’est la partie d’apprentissage de leurs algorithmes. En langage IA, on parlera alors de ‘rétropropagation’ en modifiant les probabilités assignées aux liens neuronaux. Ce mode d’apprentissage est basé sur la prémisse selon laquelle, avec le temps, l’information devient perfectible.
Mais, ceci n’est pas toujours le cas. Il existe des risques de manipulation et de désinformation par des groupes qui peuvent influencer les robots en injectant massivement des informations erronées sur le web. En cette ère de désinformation sur le web, les chabots n’ont aucun moyen de savoir si l’information est erronée ou non. Cette situation est devenue l’objet de préoccupations importantes lors des campagnes électorales.
Les chatbots n’ont pas d’intuition
Les chatbots n’ont pas de conscience ou de compréhension réelle. Ils traitent l’information comme de la statistique. En fait, ils n’ont pas l’intuition nécessaire à la découverte, à la pensée unique ‘en dehors de la boîte’, laquelle est nécessaire à l’avancement de la science.
L’IA demeure effectivement un outil extraordinaire pour comparer, catégoriser, et peut-être évaluer des hypothèses, mais elle ne peut pas les soumettre. Ne cherchez pas une idée originale avec les chatbots. Dites-vous qu’elle ne peut pas être originale si elle est trouvée sur le web.
Conclusion
Les chatbots sont un excellent moyen de trouver de l’information rapidement dans un format abrégé. Mais, ils ont des limites en raison de leur mode de fonctionnement. Il faut savoir les utiliser pour ce qu’ils sont.
Parle-t-on d’intelligence par usurpation ? Le terme ‘intelligence’ ne serait-il qu’un abus de langage pour des fins marketing, un terme qui est en fait plus sexy qu’un dénominatif comme ‘Agents d’aide à la recherche’ et qui pourrait laisser entendre que l’IA pourrait remplacer l’intelligence humaine ? Gardons à l’esprit que les bonnes vieilles méthodes de recherche ne peuvent vous rendre responsables que de vos propres hallucinations.
Note : l’information de ce texte a été validée à l’aide de l’Intelligence artificielle.
Louis Bellemare


Soyez le premier à commenter