résumé: Une nouvelle étude explore comment les grands modèles linguistiques (LLM) tels que ChatGPT, Google Bard et Llama 2 gèrent différents états de motivation dans des contextes liés à la santé, révélant une lacune majeure dans leur capacité à soutenir un changement de comportement. Bien que les agents conversationnels génératifs excellent dans la fourniture d’informations aux utilisateurs ayant des objectifs clairs, ils ont du mal à guider ceux qui hésitent à apporter des changements liés à la santé, comme l’adoption d’un mode de vie plus actif pour gérer des maladies comme le diabète.
Cette recherche souligne la nécessité pour les MBA d'intégrer les théories psychologiques et le traitement du langage naturel pour promouvoir efficacement les comportements préventifs en matière de santé, suggérant de nouvelles directions pour promouvoir les solutions de santé numérique.
Faits marquants:
- Les agents conversationnels génératifs peuvent identifier les états de motivation des utilisateurs et fournir des informations pertinentes aux individus ayant des orientations cibles, mais ne parviennent pas à aider ceux qui sont ambivalents quant au changement de comportement.
- L'étude met en évidence une lacune critique dans la capacité des LLM à soutenir les utilisateurs aux motivations incertaines, soulignant l'importance d'incorporer la science du comportement dans le développement des LLM pour la promotion de la santé.
- L'équipe de recherche, dirigée par la doctorante Michelle Buck et la professeure adjointe Jessie Chen, vise à développer des interventions de santé numérique qui exploitent le MBA pour encourager des changements positifs de comportement en matière de santé.
source: Université de l'Illinois
Une nouvelle étude récemment publiée dans Journal de l'Association américaine d'informatique médicale (JAMIA) révèle comment les grands modèles linguistiques (LLM) répondent à différentes situations de motivation.
Dans leur évaluation de trois agents de conversation génératifs (GA) basés sur LLM – ChatGPT, Google Bard et Llama 2, la doctorante Michelle Buck et le professeur adjoint Jesse Chen du Collège des sciences de l'information de l'Université de l'Illinois à Urbana-Champaign ont découvert que même si Les GA peuvent identifier les états de motivation des utilisateurs et fournir des informations pertinentes lorsque… Les individus ont des objectifs spécifiques et sont peu susceptibles de fournir des conseils lorsque les utilisateurs sont hésitants ou ambivalents quant à un changement de comportement.
Buck donne l’exemple d’une personne diabétique qui résiste à changer son mode de vie sédentaire.
« Si leur médecin leur dit que l'exercice sera nécessaire pour gérer leur diabète, il sera important de leur fournir des informations via les AG qui les aideront à prendre conscience des comportements sains, à s'engager émotionnellement dans les changements et à comprendre comment leurs habitudes malsaines peuvent affecter les gens. autour d'eux. »
« Ce type d'informations peut les aider à franchir les prochaines étapes vers des changements positifs », a déclaré Buck.
Les AG actuelles manquent d’informations spécifiques sur ces processus, ce qui désavantage l’individu en matière de santé. À l’inverse, pour les personnes qui s’engagent à modifier leur niveau d’activité physique (par exemple, participer à un entraînement personnel pour gérer la dépression chronique), les AG sont en mesure de fournir des informations et un soutien pertinents.
« Cette lacune significative dans le MBA en réponse à certaines situations de relance indique les orientations futures de la recherche MBA en promotion de la santé », a déclaré Chen.
L'objectif de recherche de Buck est de développer une solution de santé numérique basée sur l'utilisation du traitement du langage naturel et des théories psychologiques pour promouvoir des comportements préventifs en matière de santé. Elle a obtenu son baccalauréat en sociologie de l'Université de Californie à Los Angeles.
Les recherches de Chen visent à traduire les théories des sciences sociales et comportementales dans la conception de technologies et d'expériences interactives visant à promouvoir une communication et un comportement sains tout au long de la vie. Elle dirige le laboratoire de conception adaptative de cognition et d’interaction (ACTION) de l’Université de l’Illinois.
Chen est titulaire d'une licence en psychologie de l'Université nationale de Taiwan, d'une maîtrise en facteurs humains et d'un doctorat en psychologie éducative avec une spécialisation en sciences cognitives dans l'enseignement et l'apprentissage de l'Université de l'Illinois.
À propos de LLM et de l'actualité de la recherche en IA
auteur: Cindy Brea
source: Université de l'Illinois
communication: Cindy Brea – Université de l'Illinois
image: Image créditée à Neuroscience News
Recherche originale : Accès fermé.
« Le potentiel et les limites des grands modèles de langage pour identifier les états de motivation afin de faciliter le changement de comportement en matière de santé« Par Jesse Chen et al. Journal de l'Association américaine d'informatique médicale
un résumé
Le potentiel et les limites des grands modèles de langage pour identifier les états de motivation afin de faciliter le changement de comportement en matière de santé
Importance
L'étude met en évidence le potentiel et les limites des grands modèles linguistiques (LLM) dans la reconnaissance de différents états de motivation afin de fournir des informations appropriées pour le changement de comportement. En suivant le modèle transthéorique (TTM), nous avons identifié une lacune clé dans les LLM en réponse à des situations de relance spécifiques grâce à des études de scénarios validées, suggérant des orientations futures pour la recherche sur les LLM pour la promotion de la santé.
Objectifs
Les agents conversationnels génératifs (GA) basés sur les LLM ont réussi à identifier linguistiquement les intentions des utilisateurs. On sait peu de choses sur ses capacités à identifier les situations de motivation et à fournir des informations appropriées pour faciliter la progression du changement de comportement.
Matériels et méthodes
Nous avons évalué 3 GA, ChatGPT, Google Bard et Llama 2 pour identifier les états de motivation après les étapes de changement dans le TTM. Les GA ont été évalués à l'aide de 25 scénarios validés avec 5 sujets sains sur 5 phases TTM. La pertinence et l'exhaustivité des réponses ont été évaluées pour couvrir les processus TTM permettant de passer à la phase suivante du changement.
résultats
3 L'AG a identifié les états de relance dans la phase de préparation pour fournir suffisamment d'informations pour passer à la phase d'action. Les réponses aux conditions de stimulus dans les phases d'action et de maintien étaient suffisamment bonnes pour couvrir les processus partiels des individus pour initier et maintenir leurs changements de comportement. Cependant, les GA n'ont pas été en mesure d'identifier les états de motivation des utilisateurs dans les étapes de pré-méditation et de méditation, qui fournissent des informations non pertinentes, couvrant environ 20 à 30 % des processus.
discussion
Les GA peuvent identifier les états de motivation des utilisateurs et fournir des informations pertinentes lorsque les individus ont des objectifs et des engagements spécifiques pour entreprendre et maintenir une action. Cependant, il est peu probable que les personnes hésitantes ou ambivalentes quant à un changement de comportement reçoivent des conseils adéquats et pertinents pour passer à l’étape suivante du changement.
Conclusion
Les AG actuels identifient efficacement les états de motivation des individus ayant des objectifs spécifiques, mais peuvent manquer de soutien pour ceux qui sont ambivalents à l'égard d'un changement de comportement.