Inteligencia artificial: ¿Pueden las máquinas diagnosticar a los pacientes?

6 abril, 2023

El campo de la salud se encuentra convulsionado, porque de modo inesperado diagnosticar enfermedades con inteligencia artificial (IA) se encuentra a la vuelta de la esquina. Las alarmas se han encendido en todo el planeta y no tanto por lo que la IA ya ha logrado hasta ahora en la vida cotidiana, sino porque parece asombrosamente humana.

Una conversación tan sencilla e informada como la que ya puede mantenerse con el software de inteligencia artificial GPT 4 no parece de este mundo o, tal vez, se asemeja demasiado al parloteo humano. Al menos, el programa maneja saberes tan elevados como los que le permiten a los estudiantes de Medicina ingresar a las Residencias de Especialidades. Y miente con la suficiente naturalidad como para hacernos creer que sabe tanto como el historiador más culto. ¿La inteligencia artificial podría borrarnos del mapa de la civilización?

Una moratoria para la inteligencia artificial

Cuando se cumplen 24 años de su estreno, la película Matrix parece materializarse: las máquinas diseñan imágenes, palabras y textos, y los humanos no logran distinguir si son reales.

La imagen del Papa con un camperón blanco hasta los tobillos invitó a creer que iba a un recital de trap, en lugar de permanecer con bronquitis internado en un hospital. Ya no se sabe si Donald Trump ha sido verdaderamente acusado por la justicia norteamericana o si está buscando seguidores en las redes sociales. Entre las fake news y los videos inventados, cada vez es más difícil reconocer la información confiable.

Hasta los más audaces gurúes tecnológicos están asustados por la posibilidad de que sus creaciones se salgan de control, como el antiguo Golem de Praga. El ingeniero Elon Musk, inventor de cohetes espaciales, autos eléctricos y que se manejan solos, llamó la semana pasada a poner un freno durante 6 meses a los desarrollos de inteligencia artificial.

Como ocurrió décadas atrás con la manipulación genética, muchos expertos reclaman ahora una moratoria para detener la carrera desenfrenada por entrenar “mentes digitales” cada vez más avanzadas. “Los laboratorios de IA y los expertos independientes deberían usar esta pausa para desarrollar e implementar protocolos de seguridad rigurosamente auditados por expertos de afuera”, señalaron Musk y otro centenar de millonarios tecnológicos en una carta abierta. Aunque no sólo Elon Musk y otras celebridades están preocupadas. Ante el temor a perder sus trabajos, personas comunes empiezan a desconfiar de los bots o inteligencias artificiales.

Otras cultivan la esperanza de poder dedicarse a lo que les gusta sin tener que estar atadas a informes burocráticos, ni a exámenes que sólo chequean la capacidad de memorizar. ¿Cuánto mejor es pedirle a un programa que redacte un formulario, pida un turno médico o busque una información precisa, que perder horas haciendo lo mismo en oficinas o, incluso, en Google?

Avances frenéticos

Sin duda, los sistemas informáticos han avanzado enormemente desde que IBM creó el primer disco rígido en 1956. El actual sistema Watson entiende el lenguaje humano natural en áreas tan diversas como las finanzas, los viajes, el comercio minorista y la salud. Se desarrolló teniendo en cuenta parámetros éticos y se propone como un conjunto de soluciones transparentes (no como una “caja negra”) que busca potenciar la inteligencia humana. Pero no todo el mundo es capaz de entender de qué se trata la conversación con un programa.

A diferencia del cerebro humano, la capacidad de aprendizaje profundo de las máquinas parece no encontrar límites en velocidad y almacenamiento de datos. Las computadoras que antes ocupaban una habitación hoy caben en un teléfono móvil y las bibliotecas, que antes llenaban edificios enteros, se guardan en un chip microscópico. ¿Por qué no aprovechar semejante avance?

Muchos médicos y pacientes estarán felices de liberarse del papeleo. Agradecerán la asistencia de máquinas capaces de redactar rápidamente y con precisión informes de radiografías o recetas de medicamentos. Después de todo, miles de cardiólogos utilizan ya relojes inteligentes para recibir los datos de los corazones de sus pacientes en tiempo real.

Hospitales enteros tienen digitalizadas las historias clínicas de los pacientes y pueden usar los datos para hacer investigaciones que jamás hubieran soñado. Por ejemplo, combinar información genética precisa con parámetros simples, como presión arterial o cantidad de horas de sueño nocturno.

Chatbots en salud

La lectura de tests y los rápidos diagnósticos por imágenes (tomografías y resonancias magnéticas) son útiles. Ir más lejos es otra historia. Algunos especialistas advierten sobre la enorme diferencia entre el llamado “acto médico” -pleno de responsabilidades y empatía- y una respuesta generada mediante IA. La labor de algoritmos que parecen humanos perfectamente lógicos, pero completamente insensibles al devenir de un enfermo, genera dudas.

¿Puede una app o un chatbot diagnosticar enfermedades con la misma confiabilidad de un médico especialista? ¿Quién va a establecer los estándares a cumplir para calificar sus respuestas como información verdadera y útil? Los investigadores médicos están empezando a evaluar estas cuestiones.

Por ejemplo, la prestigiosa revista New England Journal of Medicine (NEJM) anunció que destinará numerosos artículos a reflexionar sobre los distintos ángulos de la inteligencia artificial en Medicina. Para empezar, Peter Lee y sus colegas de Microsoft analizaron el programa de chat GPT-4 para evaluar su impacto en la salud.

Si bien el chatbot -que no fue entrenado en Medicina- ofreció respuestas correctas y relevantes a cada una de las preguntas médicas que se le hicieron (prompts), todavía no resulta claro si sus respuestas estaban basadas en hechos apropiados y en documentos confiables.

Un usuario sin suficiente experiencia –un médico no especializado en una enfermedad rara, por ejemplo- podría no distinguir si la respuesta que ofrece el chat GPT-4 a una consulta médica es verdadera o pura ficción, advirtieron los investigadores. Si la respuesta no es supervisada por alguien con experiencia, un paciente podría entonces recibir un diagnóstico o un tratamiento erróneo.

¿Qué es lo que un GPT-4 puede hacer bien frente a un médico y un paciente?

El chatbot GPT-4, desarrollado por la compañía Open AI (fuertemente asociada a Microsoft hoy, antes ligada a Elon Musk), puede redactar correctamente una nota o síntesis a partir de la interacción entre un médico y un paciente, incorporarla a la historia clínica o enviar la transcripción al paciente después de la consulta. También puede redactar órdenes de laboratorio y recetas que cumplan con todas las normas, registrar códigos para obras sociales y hacer resúmenes de historias clínicas.

Además, el programa de IA puede sugerir tests diagnósticos, detectar errores de los médicos y ofrecer bibliografía para resolver diagnósticos diferenciales o discusiones entre colegas. Como si fuera poco, el GPT-4 (y otros chatbots, como LaMDA, de Google) también pueden hacer resúmenes de trabajos científicos, traducir informes a distintos idiomas y escribirle notas reconfortantes a los pacientes.

Si la pregunta o la tarea que se le pide al chatbot es algo que tiene una respuesta firme –que puede obtenerse de una fuente documentada en internet o a través de un cálculo matemático-, las respuestas producidas por GPT-4 son casi siempre correctas, explican Lee y sus colegas.

Sin embargo, algunas de las conversaciones más interesantes ocurren cuando el usuario introduce una pregunta que no tiene una sola respuesta correcta. Las respuestas inventadas –sin respaldo en documentos- que puede ofrecer el GPT-4 en esos casos se clasifican como “alucinaciones” del programa. Aunque el usuario no siempre se encuentra en condiciones de reconocerlas, algo que puede resultar francamente peligroso en Medicina.

Otras experiencias que combinan IA con salud

Por su parte, el programa MedPalm, de Google, que ya pasó el examen de certificación médica en Estados Unidos con 85% de éxito, sigue aprendiendo de las preguntas y respuestas que los usuarios escriben en internet para refinar sus capacidades diagnósticas.

Algunos creen que muy pronto los pacientes podrán chequear sus síntomas y autodiagnosticarse con ayuda de los chatbots. Cuánto de su privacidad quedará comprometida en las conversaciones entre la máquina y el humano, es un asunto más que espinoso y todavía no resuelto.

Empty doctor office with computer having anatomical body skeleton radiography

Por lo pronto, las personas que interactuaron con un chatbot de salud en un experimento aún no publicado en una revista científica no pudieron distinguir si las respuestas que obtenían a consultas médicas provenían de un médico o un robot en 3 de cada 10 casos.

En otro experimento, realizado por Andrew Beam, de la Universidad de Harvard, los chatbots acertaron con el diagnóstico en el 88% de las consultas. Por su parte, los médicos, acertaron 96% de las veces. ¿Les creerán los pacientes a las máquinas si les dicen que tienen cáncer? ¿Los ayudará la inteligencia artificial a tomar decisiones sobre su salud en el futuro?

Diagnosticar enfermedades con inteligencia artificial: regulación

Los médicos temen por la incertidumbre de los diagnósticos. Aunque también por la dificultad para comprender los algoritmos y las redes neuronales que están detrás de la inteligencia artificial. Pero los profesionales de la salud aprenderán más temprano que tarde a manejar esta tecnología, señalan Charlotte Haug y Jeffrey Drazen en el NEJM. “La inteligencia artificial y el machine learning no sacarán a los médicos del negocio; en cambio, les permitirá hacer mejor su trabajo y les ofrecerá tiempo para las interacciones humanas que hacen de la Medicina una profesión gratificante”, alientan.

Por su parte, Lee y sus colegas de Microsoft pronostican que vendrán pronto nuevos programas de inteligencia artificial. Serán cada vez más evolucionados y capaces de aprender, incluso de sus errores, en un pestañeo de tiempo. ¿Hay que detenerlos antes de que sea demasiado tarde? “Estas máquinas son herramientas y, como todas ellas, pueden ser usadas para el bien, aunque tienen potencial para causar daños. Si se las usa cuidadosamente, estas herramientas que evolucionan pueden ayudar al personal de salud a ofrecer el mejor cuidado posible”, aseguran Lee y los suyos.

La regulación de la IA bajo normas legales y éticas es un clamor de todos los expertos. Cuando se trata de la salud, la vigilancia y los estándares de calidad deberían ser aún superiores, coinciden los especialistas. Si serán los organismos sanitarios de cada país –como la FDA o la ANMAT– los que regulen los programas, o si se generarán instituciones globales para vigilar a las futuras máquinas inteligentes, es algo que habrá que decidir antes de lo que muchos imaginan.

Por Alejandra Folgarait @alefolgarait
REDACCIÓN PENSAR SALUD
redaccion@pensarsalud.com.ar ¡Escribínos!
Download Nulled WordPress Themes
Download Nulled WordPress Themes
Download Nulled WordPress Themes
Download Premium WordPress Themes Free
online free course

Tags: chatbot | ciencia y ética | confidencialidad médico paciente | derechos salud | diagnosis | GPT-4 | gpt4 | Innovación | inteligencia artificial y salud | LaMDA | MATRIX | MedPalm | relacion medico paciente | sistema Watson

Notas relacionadas