ChatGPT dans la science: cinq points importants

Un agent conversationnel («chatbot») capable de répondre à toutes les questions possibles: depuis son lancement en novembre dernier, ChatGPT remporte un vif succès. Selon la déclaration de chercheurs dans Nature, ce type d’intelligence artificielle comporte d’importantes implications pour la science.

Les implications de ChatGPT et d’autres grands modèles de langage (Large Language Models, LLM) qui sont des  algorithmes d'apprentissage pouvant reconnaître, résumer, traduire, prédire et générer du texte et d'autres contenus basés sur les connaissances acquises à partir d'ensembles de données, sont pour la recherche scientifique importantes.

ChatGPT peut être utilisé non seulement pour rédiger des articles, mais aussi, par exemple, pour détecter des lacunes dans les études, écrire des programmes, réviser des textes existants et mener à bien des missions de recherche. Quelle attitude les scientifiques doivent-ils adopter face à cette nouvelle technologie qui bouscule l’ordre établi ? Claudi Bockting, professeur de psychologie clinique en psychiatrie et codirecteur du Centre for Urban Mental Health de l’UvA, tente de répondre à cette question, en collaboration avec une équipe de recherche interdisciplinaire, dans une publication parue dans Nature.

Le Pr Bockting a rédigé cet article avec Evi-Anne van Dis, post-doctorante au service de psychiatrie de l’Amsterdam UMC, Jelle Zuidema et Robert van Rooij de l’Institute for Logic, Language and Computation (ILLC) de l’UvA, ainsi que Johan Bollen de l’Indiana University. «Ensemble, nous sommes rapidement parvenus à la conclusion qu’essayer d’interdire la technologie n’est pas une option. À court terme, Chat[Admin1] GPT sera utilisé partout et peut-être même intégré dans les programmes de traitement de texte», estime le Pr Bockting.

Résultats trompeurs
Selon les chercheurs, l’utilisation de ChatGPT peut constituer une menace pour la pratique scientifique, et ce, de différentes façons. La précision du chatbot, entre autres, ou plus exactement son absence de précision, est un sujet de préoccupation. Les chercheurs ont posé des questions à ChatGPT et lui ont demandé d’exécuter des tâches, mais le résultat n’était pas toujours celui souhaité. «ChatGPT a parfois répondu de manière incorrecte ou trompeuse, par exemple lorsque nous lui avons demandé combien de patients souffrant d’une dépression rechutaient après le traitement. ChatGPT a répondu que le traitement était généralement long, ce qui signifie plus ou moins que la rechute est rare. Or, des études scientifiques nous ont appris que le taux de rechute peut atteindre 51% au cours de la première année suivant le traitement», souligne Evi-Anne van Dis.

Dans leur contribution, les chercheurs formulent cinq points importants pour la science lors de l’utilisation de ChatGPT ou d’autres LLM:

  1. Maintenez les contrôles par l’homme des résultats des LLM ;
  2. Définissez des règles de responsabilité au sein de la communauté scientifique, axées sur la transparence, l’intégrité et la franchise ;
  3. Investissez dans des LLM détenus par des organisations à but non lucratif indépendantes ;
  4. Soyez ouvert aux avantages de l’intelligence artificielle. Si les LLM deviennent plus fiables et plus transparents, ils peuvent offrir de nombreuses possibilités pour la science, par exemple afin de réduire la charge de travail sans cesse plus grande. À cet égard, il convient toutefois de mettre en balance les avantages de l’intelligence artificielle et la perte d’autonomie ;
  5. Élargissez le débat. Les auteurs recommandent aux groupes de recherche de discuter de ChatGPT en interne. La communauté scientifique doit en outre aborder le sujet de ChatGPT avec les parties pertinentes, des éditeurs aux éthiciens, de préférence sous forme d’un sommet international.

«Nous appelons à un débat mondial (permanent) sur la manière dont la technologie de l’intelligence artificielle peut changer la donne de manière positive pour la science. Ce processus doit finalement déboucher sur l’élaboration de directives concrètes et pratiques pour les chercheurs», conclut le Pr Bockting.

  • Eva van Dis, Johan Bollen, Willem Zuidema, Robert van Rooij & Claudi Bockting: ‘ChatGPT: five priorities for research. Conversational AI is a game-changer for science. Here’s how to respond’, in: Nature (9 februari 2023). https://doi.org/10.1038/d41586-023-00288-7

Vous souhaitez commenter cet article ?

L'accès à la totalité des fonctionnalités est réservé aux professionnels de la santé.

Si vous êtes un professionnel de la santé vous devez vous connecter ou vous inscrire gratuitement sur notre site pour accéder à la totalité de notre contenu.
Si vous êtes journaliste ou si vous souhaitez nous informer écrivez-nous à redaction@rmnet.be.

Derniers commentaires

  • André marie Louon

    08 mars 2023

    Remarquable résumé de l'article original. Les vieux médecins, comme moi, ont tendance à mettre en doute, voire rejeter les nouvelles technologies, souvent par méconnaissance ou peur de "changer". Dans ma spécialité, l'anesthésie, des techniques de monitoring ou de localisation, nouvelles il y a 20 ou 30 ans sont vite devenues la "norme". Rester ouvert, critique, honnête, mais méfiant vis-à-vis des pressions commerciales devrait nous aider.
    Dr Louon, MD, Dip Pain Mgt, Dip Pall Med, MBA.