Noticias

La revolución de la inteligencia artificial en medicina: Impacto y proyecciones futuras

Published

on

La revolución de la inteligencia artificial en medicina: impacto y proyecciones futuras

A medida que las computadoras y el concepto de inteligencia artificial (IA) se desarrollaron casi simultáneamente en las décadas de 1940 y 1950, el campo de la medicina se apresuró a ver su potencial relevancia y beneficio. En 1959, Keeve Brodman y colegas afirmaron que “la realización de interpretaciones diagnósticas correctas de los síntomas puede ser un proceso en todos los aspectos lógico y tan completamente definido que puede ser llevado a cabo por una máquina”. Once años después, William B. Schwartz escribió en el Journal: “La ciencia de la computación probablemente ejercerá sus principales efectos al aumentar y, en algunos casos, reemplazar en gran medida las funciones intelectuales del médico”. Predijo que para el año 2000, las computadoras tendrían un papel completamente nuevo en la medicina, actuando como una poderosa extensión del intelecto del médico.

Progreso en la ciencia de datos

En la década de 1950, los ordenadores eran grandes y lentos. El primer disco duro fue el IBM Model 350 Disk File, presentado en 1956. Tenía una capacidad total de almacenamiento de 5 millones de caracteres (poco menos de 5 MB). El primer disco duro con más de 1 GB de capacidad fue el IBM 3380, presentado en 1980. Tenía el tamaño de un frigorífico y pesaba 250 kg (550 lb); el precio era de 100.000 dólares. Pero la tecnología de circuitos integrados estaba mejorando. En 1965, Gordon Moore, cofundador de Fairchild Semiconductor e Intel, predijo que la cantidad de transistores en un circuito integrado y, por tanto, su potencial de potencia de cálculo, se duplicaría cada dos años. Su predicción fue correcta; este cambio en la densidad de semiconductores se conoce como la ley de Moore. Sin embargo, la ley de Moore nos dice más que el número de transistores por centímetro cuadrado, ya que otros aspectos del progreso tecnológico, como la velocidad de procesamiento y el precio de los productos electrónicos, están fuertemente vinculados a ella. Con circuitos más densos, la memoria de las computadoras y las velocidades de procesamiento aumentaron, y hoy en día, dispositivos de bolsillo que son más potentes que las supercomputadoras de los años 1980, que ocupaban habitaciones enteras, son comunes y están disponibles a una fracción del precio.

El progreso en la ciencia de datos no es simplemente una cuestión de mayor rendimiento, velocidad y almacenamiento. Además del tipo de información que se encuentra en las bibliotecas, los datos generados en las organizaciones y los sistemas establecidos diseñados para recopilar y codificar datos, las nuevas formas de tecnología pueden utilizar datos generados tanto por personas como por máquinas. Estos datos suelen ser caóticos y no estructurados. Los datos ahora provienen de muchas otras fuentes, incluidas las redes sociales, los blogs, las salas de chat, los sitios de revisión de productos, las comunidades, las páginas web, el correo electrónico, los documentos, las imágenes, los videos y la música, junto con los sensores ambientales y portátiles. Muchas personas abren aspectos de sus registros médicos y datos genéticos personales para que cualquier persona pueda acceder a ellos en línea. La capacidad de almacenamiento es tan grande que se pueden almacenar y acceder fácilmente a grandes porciones del corpus de conocimiento y actividad humana registrados. Una vez que tuvimos los datos, necesitábamos algo más que datos; necesitábamos formas de identificarlos y procesarlos. Google se convirtió en el líder de las búsquedas en línea al aprovechar las búsquedas realizadas por otros para identificar lo que la gente quería saber. Esto requirió una segunda revolución: algoritmos matemáticos que pudieran rastrear rápidamente y con una fiabilidad razonable este comportamiento y ayudar al usuario final a encontrar información específica. Un almacenamiento de información más denso y una computación más rápida permitieron soluciones prácticas y en tiempo real de expresiones matemáticas que podían usarse para encontrar relaciones en los datos que antes eran incognoscibles. Como resultado, la ciencia de datos pudo florecer y ejercitar su poder de una manera que antes era imposible.

Inteligencia artificial y aprendizaje automático en medicina

En los años 1990 y principios de los años 2000, incluso con ordenadores lentos y memoria limitada, se estaba resolviendo el problema de que las máquinas pudieran realizar con éxito ciertas tareas médicas que eran repetitivas y, por lo tanto, propensas a errores humanos. Mediante una inversión sustancial de dinero y esfuerzo intelectual, la lectura por ordenador de electrocardiogramas (ECG) y recuentos diferenciales de glóbulos blancos, el análisis de fotografías de retina y lesiones cutáneas y otras tareas de procesamiento de imágenes se han convertido en una realidad. Muchas de estas tareas asistidas por aprendizaje automático han sido ampliamente aceptadas e incorporadas a la práctica diaria de la medicina.

Cuestiones pendientes de la IA y el aprendizaje automático en medicina

Establecimiento de normas

Como se señaló anteriormente, el uso de la IA y el aprendizaje automático ya se ha convertido en una práctica médica aceptada en la interpretación de algunos tipos de imágenes médicas, como electrocardiogramas, radiografías simples, tomografías computarizadas (TC) y resonancias magnéticas (RM), imágenes de la piel y fotografías de retina. Para estas aplicaciones, se ha demostrado que la IA y el aprendizaje automático ayudan al proveedor de atención médica al señalar aspectos de las imágenes que se desvían de la norma. Esto nos lleva a una pregunta clave: ¿cuál es la norma? Esta simple pregunta muestra una de las debilidades del uso de la IA y el aprendizaje automático en la medicina tal como se aplica en gran medida hoy en día. ¿Cómo influye el sesgo en la forma en que se “enseñaron” los algoritmos de IA y aprendizaje automático en su funcionamiento cuando se aplican en el mundo real? ¿Cómo podemos incorporar valores humanos a los algoritmos de IA y aprendizaje automático para que los resultados obtenidos reflejen los problemas reales a los que se enfrentan los profesionales de la salud? ¿Qué cuestiones deben abordar los reguladores para garantizar que las aplicaciones de IA y aprendizaje automático funcionen como se anuncia en entornos de uso múltiple? ¿Cómo se deben modificar los enfoques clásicos de inferencia estadística, si es que se deben modificar, para las intervenciones que dependen de la IA y el aprendizaje automático? Estos son solo algunos de los problemas que enfrentamos; la serie “IA en medicina” abordará algunos de estos asuntos.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tendencias

Exit mobile version