¿Qué tan confiable es ChatGPT a la hora de abordar temáticas de orden médico? Un estudio presentado esta semana por la Sociedad Estadounidense de Farmacéuticos alerta los riesgos que implica usar al chatbot de OpenAI como fuente en consultas sobre medicamentos. “Hay que tener cuidado al usarlo”, dicen.
“ChatGPT no es una fuente confiable”, advierten los farmacéuticos
El informe de la mencionada organización fue prestado en el marco de una reunión del sector, que se celebra hasta el viernes en California. La conclusión principal es que ChatGPT es una herramienta poco confiable en temáticas médicas, ya que proporciona información falsa o incompleta.
Realizado entre 2022 y el año en curso, para el estudio se plantearon preguntas sobre drogas al chatbot de OpenAI que anteriormente habían recibido en el servicio de la Faculta de Farmacia de la Universidad de Long Island, de Nueva York. Los farmacéuticos involucrados en el estudio respondieron decenas de preguntas, que luego fueron examinadas por otros especialistas. Esos datos sirvieron como criterio para finalmente evaluar las respuestas de ChatGPT.
Leé también: Científicos hicieron un test de IQ a la inteligencia artificial y descubrieron que es bastante estúpida
Los investigadores descubrieron que la IA generativa solamente brindó respuestas satisfactorias a 10 de las 39 preguntas. Para las otras 29 preguntas, no abordó directamente la consulta, proporcionó una respuesta incorrecta o incompleta.
“Los profesionales de la salud y los pacientes deben tener cuidado al utilizar ChatGPT como fuente de información relacionada con los medicamentos”, comentó Sara Grossman, profesora de farmacéutica en la mencionada universidad, que además dirigió el estudio. “Cualquiera que utilice el chatbot debería verificar la información utilizando fuentes confiables”, agregó.
OpenAI aclara que ChatGPT no fue desarrollado para brindar información médica
Tal como nota la publicación Bussines Insider, la política de uso de OpenAI describe que sus herramientas de IA “no están ajustadas para proporcionar información médica”, y que “nunca hay que utilizar estos modelos para proporcionar servicios de diagnóstico o tratamiento para afecciones médicas graves”.
Amén de tales aclaraciones, los investigadores del estudio recientemente divulgado pidieron a los desarrolladores de ChatGPT que las respuestas incluyan referencias completas, de modo que los usuarios puedan tener un contexto de la información que se muestra en pantalla.
Las conclusiones del estudio rebaten, al menos en parte, experimentos previos en los que ChatGPT demostró ser más empático que los doctores al brindar respuestas a los pacientes.