Le chatbot ChatGPT connait un immense succès médiatique… mais les marques doivent connaître les limites de ces outils et leurs implications éthiques, comme l’explique Laurence Devillers*, chercheuse en IA.
Comment fonctionnent les bots intelligents ?
Pour prendre l’exemple de ChatGPT, il repose sur ce qu’on appelle un grand modèle de langage (LLM), ce qui signifie qu’il a ingurgité des milliards de textes. Sur cette base, l’outil a appris à relier chaque mot de vocabulaire aux contextes dans lesquels il les a rencontrés avec des mécanismes d’attention. Ensuite, quand on lui pose une question ou que l’on propose un début de texte (prompt), le système cherche à prédire la séquence de mots la plus probable comme suite du texte, par exemple : « Il est docteur, elle est »… ChatGPT peut répondre « infirmière ». Le modèle utilise les régularités du langage et peut ainsi amplifier les biais, stéréotypes et infox.
Attention, il faut également savoir que :
- ce n’est pas forcément le mot le plus probable qui est proposé mais l’un des mots parmi les X% les plus probables. Cette variable s’appelle la température. Ce qui explique qu’en posant la même question on puisse avoir des réponses différentes,
- le système prend en compte également les tours d’interaction précédents, ce qui peut aussi modifier la réponse,
- en agrégeant des milliards de mots, on agrège des connaissances, des opinions et des infox, et on perd au passage leurs références exactes. Donc on ne peut absolument plus savoir d’où vient une connaissance, ce qui est un gros désavantage par rapport à un moteur de recherche classique. Pour limiter cet inconvénient, un moteur comme Bing de Microsoft, qui repose sur GPT4, tente de réintroduire des références mais certaines sont fausses et d’autres peuvent également être inventées !
En quoi ces bots intelligents posent-ils problème ?
Les textes produits par des bots comme ChatGPT sont très séduisants : ils sont correctement rédigés et orthographiés, ce qui nous pousse à leur faire confiance, comme face à un humain qui « s’exprime bien ». Mais de façon globale ou dans les détails, les informations peuvent être totalement fausses. On est devant le résultat brut d’une machine qui a fait des calculs statistiques, sans aucune compréhension de fond et sans garder la trace de ses sources. De plus, il n’est techniquement pas possible de coupler cette machine à une autre qui irait chercher des références, par exemple. Il faudra donc considérer que le résultat est un brouillon et prendre le temps de vérifier et probablement d’étayer le discours avec des sources. Donc disons-le : dans le cadre d’une utilisation grand public, telle qu’actuellement proposée en libre accès et sans contrôle, nous ne sommes pas capables aujourd’hui
de gérer ces niveaux d’incertitude, ni même d’en imaginer les multiples impacts. D’où un gros problème de responsabilité pour les entreprises et les administrations qui proposeraient de tels systèmes au public.
Comment les entreprises peuvent-elles faire face aux risques éthiques liés aux bots intelligents ?
Pour une entreprise, il est envisageable de réduire les risques évoqués en travaillant sur ses propres données ou sur des données fiables. Cependant, l’utilisation de chatbots génériques pose effectivement des risques éthiques multiples, sans même évoquer le problème des travailleurs exploités ou de la propriété intellectuelle. Ce qui explique la demande internationale d’un moratoire. Les entreprises auraient donc tout intérêt à éviter la précipitation et à adopter une démarche éthique concertée, au plus haut niveau. De plus, en interne, la responsabilité éthique devrait être portée par une personne ou une équipe compétente.
Bientôt une réglementation de l’IA en Europe.
Quels enjeux pour les entreprises ?
« Les modèles de langage larges (LLM), tel que celui de ChatGPT, permettent de vraies conversations en langage naturel. Le challenge est la maîtrise des réponses fournies. Deux pistes sont prometteuses pour les entreprises : l’utilisation de sources et de data validées, sécurisées et de volume réduit**; et la capacité de citer ces sources. À terme, ces possibilités de cadrage vont apporter aux entreprises des capacités inédites d’amélioration de l’expérience client. »
Vincent Tachet, Chief Information Officer, Webhelp Group
*Laurence Devillers, Professeure en informatique appliquée aux sciences sociales à Sorbonne Université et chercheuse au LISN (CNRS), membre du CCNE numérique et en charge d’un avis sur les enjeux éthiques des IA génératives comme ChatGPT et auteure de « Les robots émotionnels : et l’éthique dans tout cela ? » (Ed Observatoire).