L’IA comme conseiller médical. Nouveaux risques pour public non averti ?

publié le 28 février 2025

Une étude menée au premier semestre 2024 par l’université de Sydney auprès de quelque 2.000 Australiens a révélé que 9,9% d’entre eux s’étaient tournés vers ChatGPT pour des questions liées à leur santé. Que ce soit sur leur état de santé proprement dit où pour se voir proposer une explication à leurs symptômes voir pour demander un avis “médical” sur les actions à entreprendre.

En soi, rien d’étonnant. Ou d’inquiétant? Une analyse plus poussée des chiffres a mis le doigt sur un fait en effet inquiétant. En effet, il s’agit essentiellement “de personnes ayant de faibles connaissances en matière de santé et des immigrants, nés dans des pays non anglophones ou qui parlent d’autres langues à la maison”.

Interrogés sur leur degré de confiance dans la pertinence des sentences émises par ChatGPT, ils se disent majoritairement “plutôt confiants” ou “quelque peu confiants”. Ce qui revient à dire qu’ils ne font donc pas preuve d’un minimum de “sain scepticisme par rapport à un interlocuteur qui n’a ni diplôme de médecine ni expérience clinique”.

9,9% demeure malgré tout un pourcentage limité. Mais l’avenir pourrait voir un nombre nettement plus considérable de personnes se tourner vers ce type d’outil d’IA générative. Lors de l’étude australienne, pas moins de 39% des personnes interrogées “qui n’avaient pas encore utilisé ChatGPT pour leur santé ont déclaré qu’elles envisageraient de le faire dans les six prochains mois”.

Source : FuturoProssimi.it