El chatbot médico basado en inteligencia artificial (IA) de Google, conocido como ‘Med-PaLM 2’, comenzó a ser sometido a pruebas en la Clínica Mayo y en otras prestigiosas instituciones médicas estadounidenses el pasado mes de abril, informó este sábado The Wall Street Journal, que cita a fuentes familiarizadas con el asunto.
De acuerdo con los creadores del Med-PaLM 2, se trata de un proyecto diseñado para responder a preguntas médicas, así como para sintetizar una variedad de complejos textos especializados. Por otro lado, un investigador aseguró a WSJ que Google externalizó a trabajadores (o prescindió de sus servicios) cuando su asistente médico inteligente opinó que podrían ser de mayor valor “en países que tienen accesos limitados a los médicos”.
Un estudio, que publicó Google el pasado mayo, reveló que los médicos prefirieron las respuestas proporcionadas por el Med-PaLM 2, las cuales fueron generadas a partir de 1.000 preguntas médicas por parte de los consumidores, que aquellas que fueron dadas por otros médicos en ocho de nueve categorías de evaluación.
No obstante, los especialistas encontraron que había más inexactitudes en las respuestas de la herramienta médica de Google que en la suministradas por sus competidores, por lo que se sugirió que el Med-PaLM 2 presenta problemas similares a los de otros ‘chatbots’ que tienden a generar información falsa o irrelevante.
A su vez, los investigadores de la compañía tecnológica estadounidense subrayaron que, desde la primera versión que se anunció en diciembre, no hubo mejoras substanciales con respecto a la capacidad del sistema para reducir los datos inexactos.
El director sénior de Google, Greg Corrado, comentó que el Med-PaLM 2 se encontraba en las primeras etapas de desarrollo. “No creo que este tipo de tecnología encuentre todavía en un lugar en el que la quisiera en el proceso de atención médica para mi familia”, indicó Corrado, aunque reiteró que su ‘chatbot’ está tomando “los lugares en el cuidado de la salud donde la IA puede ser beneficiosa”.
Por otro lado, tanto médicos como ejecutivos relacionados con la atención médica advirtieron que herramientas como el Med-PaLM 2 necesitan ser mejoradas y probadas antes de que sean utilizadas en el diagnóstico y tratamiento de enfermedades de los pacientes.
La Organización Mundial de la Salud (OMS) instó a la población a tomar precauciones con los ‘chatbots’, puesto que los datos utilizados para entrenar a la IA en la toma de decisiones podrían estar sesgados y generar información inexacta, lo que representaría un riesgo para la salud.