Modelo

Enero 2024


 

ChatGPT y educación médica: una nueva frontera para los médicos emergentes
 

Ethan Waisberg            Canadian Medical Education Journal 2023, 14(6)

 

Introduction


Desde su lanzamiento a finales de noviembre de 2022, ChatGPT (Open AI, EE. UU.) ha ganado rápidamente atención por sus respuestas detalladas y su capacidad de escritura similar a la humana (Figura 1).1 GPT se refiere a una arquitectura de transformador generativo previamente entrenado, en la que una red neural transformadora genera texto. ChatGPT es un modelo de lenguaje grande (LLM) que genera texto similar al humano a partir de técnicas de aprendizaje profundo, en el que se analiza un gran conjunto de datos para inferir la relación de las palabras.
ChatGPT ya ha sido capaz de realizar tareas tales como generar inteligencia artificial (algoritmos de IA) o generar imágenes basadas en descripciones de pacientes
de fenómenos visuales neurooftámicos complejos.2
 

Figura 1. Búsquedas mundiales de ChatGPT en Google. Desde su lanzamiento en noviembre de 2022, las búsquedas de ChatGPT y sus usos han crecido exponencialmente.


La IA es cualquier técnica que aprovecha las máquinas para imitar la inteligencia humana.3 Las tecnologías de IA están evolucionando rápidamente y se espera que revolucionen el campo de la medicina. La IA puede hacer que la medicina sea más eficiente y segura cuando se aplica correctamente: por ejemplo, con medicina de precisión, mejoras en el diagnóstico por imágenes o prevención de errores de medicación. A medida que estas tecnologías alcancen el uso clínico, las habilidades para interpretar y utilizar la IA en un entorno médico serán esenciales para los médicos. La Asociación Médica Mundial ahora aboga por que el plan de estudios médico fomente una mejor comprensión de la IA en atención médica entre los estudiantes de medicina.4 Este conocimiento permitirá una implementación más rápida e informada de las tecnologías de IA en el futuro. Además, los médicos deben estar informados sobre los posibles sesgos y errores que pueden producir los algoritmos de IA y cómo mitigar estos efectos.
 

Le pedimos a ChatGPT que nos asesorara sobre cómo construir una IA para clasificar imágenes de tomografía de coherencia óptica (OCT) (Figura 2). Como equipo combinado de salud e informática que lleva a cabo investigaciones de aprendizaje automático financiadas por la NASA, examinamos esta recomendación.5–7 Los pasos generales recomendados para diseñar una IA para clasificar las imágenes OCT son correctas, lo que incluye: recopilar imágenes OCT, preprocesar datos, etiquetar, dividir, entrenar, probar, refinar e implementar la IA.

 

Figura 2. Generado por ChatGPT a partir del mensaje de texto "¿Cómo puedo crear una IA para clasificar las OCT?".

 


Luego le pedimos a ChatGPT que codificara una IA para clasificar las mamografías (
Figura 3).


Figura 3. Generado por ChatGPT a partir del mensaje de texto "escriba código para que una IA analice exploraciones de mamografía".

 

ChatGPT codificó una red neuronal convolucional con 2 capas completamente conectadas y 4 capas convolucionales para analizar imágenes de mamografía y predecir si hay cáncer de mama en una exploración. Si bien este es un código de muestra y necesitaría más adaptaciones antes de implementarlo clínicamente, representa un comienzo sorprendente para el viaje de un estudiante de medicina en IA.

 

ChatGPT tiene ciertas restricciones e inconvenientes como modelo de lenguaje de IA. Dado que se utilizó una gran cantidad de material, incluyendo páginas web, libros y otras fuentes, para entrenar ChatGPT, puede proporcionar respuestas que sean total o parcialmente idénticas a los escritos ya publicados. Además, es posible que ChatGPT no haya sido capacitado con los datos más recientes y puede proporcionar respuestas inexactas o desactualizadas. También es posible que el modelo no pueda comprender el contexto de una consulta o discusión, lo que podría dar lugar a malentendidos y errores.
 

En un estudio anterior también se describieron otros inconvenientes de ChatGPT; entre ellos se incluyen el autoplagio cuando se hace una pregunta muchas veces y un alto grado de plagio directo o “palabra por palabra” de fuentes de Internet tales como Wikipedia y LinkedIn.1 Una serie de acciones se pueden tomar para prevenir o disminuir estos trampas. Esto incluye validar los resultados obtenidos de ChatGPT comparándolo con las guías/recursos clínicos más actualizados, brindando más contexto al plantear preguntas o conversar con ChatGPT para que el modelo pueda comprender mejor el contexto de la consulta.

 

Finalmente, a pesar de los esfuerzos por aumentar la enseñanza de la IA en todo el mundo, la inteligencia artificial aún no se ha incorporado al proceso de educación médica. En un estudio que examina la exposición a la inteligencia artificial en la educación médica canadiense, el 85% de los encuestados indicaron que no había oportunidades educativas formales con respecto a la IA.8 Considerando todo esto, ChatGPT puede ser potencialmente una herramienta útil en la educación médica para mejorar la comprensión de los estudiantes sobre la IA, pero al emplearla todo aquello que vaya más allá de los fines educativos debe abordarse con cautela.

 

Referencias


1. Alser M, Waisberg E. Concerns with the usage of ChatGPT in academia and medicine: a viewpoint. Am J Med Open. Feb 2023:100036. https://doi.org/10.1016/j.ajmo.2023.100036
2. Waisberg E, Ong J, Masalkhi M, et al. Text-to-image artificial intelligence to aid clinicians in perceiving unique neuroophthalmic visual phenomena. Ir J Med Sci. Feb 14, 2023. https://doi.org/10.1007/s11845-023-03315-8
3. Waisberg E, Ong J, Paladugu P, et al. Challenges of artificial intelligence in space medicine. Space Sci Technol. 2022;2022:1- 7. https://doi.org/10.34133/2022/9852872
4. World Medical Association. WMA statement on augmented intelligence in medical care. Oct 2019. Available from
https://www.wma.net/policies-post/wma-statement-onaugmented- intelligence-in-medical-care/ [Accessed Feb 28,2023].
5. Waisberg E, Ong J, Kamran SA, et al. Transfer learning as an AIbased solution to address limited datasets in space medicine. Life Sci Space Res. 2023;36:36-38.
https://doi.org/10.1016/j.lssr.2022.12.002
6. Waisberg E, Ong J, Zaman N, Kamran SA, Lee AG, Tavakkoli A. A non-invasive approach to monitor anemia during long-duration spaceflight with retinal fundus images and deep learning. Life Sci Space Res. 2022;33:69-71. https://doi.org/10.1016/j.lssr.2022.04.004
7. Waisberg E, Ong J, Paladugu P, et al. Advances in machine learning to detect preventable causes of blindness. Eye. Dec 10, 2022.
https://doi.org/10.1038/s41433-022-02354-2
8. Pucchio A, Rathagirishnan R, Caton N, et al. Exploration of exposure to artificial intelligence in undergraduate medical education: a Canadian cross-sectional mixed-methods study. BMC Med Educ. 2022;22(1):815. https://doi.org/10.1186/s12909-022-03896-5