El pasado mes de febrero, la revista Nature publicaba un artículo académico sobre una investigación que había logrado predecir factores de riesgo cardiovascular sometiendo imágenes del fondo del ojo a un algoritmo de deep learning.
Pero lo más sorprendente de dicha investigación fue que entre dichos factores se encontraban algunos como la edad, el género o la condición de fumador que los propios médicos no creían que fueran detectables a través de esa clase de imágenes.
Eric Topol, un famoso investigador médico estadounidense (que además ha escrito varios libros sobre la influencia de la revolución tecnológica en la atención sanitaria) llamaba hace unos días la atención en Twitter sobre el detalle más sorprendente de esta investigación:
"Si un oculista echara un vistazo a la foto de una retina, la probabilidad de que vaticinara correctamente el género sería del 50%, pero el uso del 'deep learning' tuvo un éxito del 97%. Y no tenemos ni idea de qué características están 'viendo' las máquinas para que esto sea posible".
Esta chocante afirmación generó un interesantísimo debate en Twitter acerca de las posibilidades, límites y misterios de la Inteligencia artificial.
Algunos, escépticos, negaban las conclusiones del estudio o ponían en duda su metodología, pero Topol recordaba que el experimento había sido replicado, y que el algoritmo había sido puesto a prueba con otro conjunto de datos durante el proceso de revisión, con idéntica proporción de éxito.

Corremos el riesgo de convertir la IA en una 'caja negra'
"Una vez que una red neuronal ha aprendido una habilidad de este tipo, ¿es posible para un humano resolver exactamente cómo lo hizo? ¿o es demasiado complejo [para nosotros]?", pregunta un usuario. Otro se plantea si no sería "importante que enseñemos a los sistemas de deep learning a 'mostrar su funcionamiento' para que la metodología pueda entenderse mejor".
Topol responde a eso que "deconstruir las 'cajas negras' de los algoritmos" es una tarea pendiente en la que se han cosechado algunos éxitos, pero que éste no es uno de ellos ("todavía").
La teoría de la caja negra se resume en la sospecha de que, a medida que los algoritmos de machine learning se hacen más y más sofisticados, las probabilidades de que un humano (incluso aquellos que los han programado) pueda llegar a entender sus decisiones se hace más y más remota.
Así, se plantea que llegaríamos a un punto en que sólo podemos valorar los resultados por su calidad, sin saber cómo se ha llegado a ellos.
Ciertamente, el aprendizaje profundo recibe a menudo críticas por ser poco transparente, una cualidad que ha obstaculizado la adopción de esta tecnología en ámbitos como el legal y el médico, pues nos enfrentaríamos a una preocupante dilución de la responsabilidad en campos que son, literalmente, "de vida o muerte".
Recordemos que, recientemente, O'Reilly propuso un conjunto de cuatro reglas para lograr saber si podíamos o no fiarnos de un algoritmo.
La IA no sabía que era imposible, ¡así que lo hizo!
Pero no todo el debate se limitó a intentar comprender cómo la IA había llegado a esa conclusión, sino que suscitó también especulaciones sobre por qué los seres humanos no habían llegado a plantearse que la retina pudiera estar "sexualizada".
"Esto es bastante sorprendente: ¡existe una estructura subyacente que los humanos no ven". "Quizá nos ciegan tanto los sesgos derivados de nuestra evolución que sencillamente somos incapaces de escudriñar la verdad tan eficientemente como estos sistemas [de IA]. "Para ser justos, nunca hemos pensado en buscar diferencias de género en las retinas [...] pero de todos modos me fascina que esto sea posible".
Atul Butte, emprendedor y director del Instituto de Ciencias Computacionales de la Salud de la Universidad de California resume así la cuestión: "Probablemente, varios errores humanos se basan en nuestra errónea creencia de que 'no deberían existir diferencias en eso', pero la inteligencia artificial no parte de una idea preconcebida que le impida intentarlo".
Imágenes | U.S. Army & Nature
Ver 34 comentarios
34 comentarios
kinico
Y yo pregunto ¿ A alguien se Le ocurrió hacer algo tan simple como preguntarle a la IA como lo hizo?
Oye IA ¿ Como eres tan buen@ para identificar el sexo de una persona solo con ver su retina?
La verdad es más simple de lo que imaginas, lo hago observando el "quemado de retina"
¿Quemado de retina, y como es eso posible?
Cuándo una persona observa el mismo objeto muchas veces o durante mucho tiempo se produce una leve y casi imperceptible marca en la retina, algo similar a lo que ocurría con los monitores TRC o las primeras pantallas Amoled y como mi visión es mucho más potente que la visión humana puedo ver esas marcas.
¿Y qué es lo que ves?
Simple, tetas culo es hombre, objetos varios mujer.
¿Y el 3% de margen de error?
Gays o lesbianas
Wow la ciencia no deja de sorprenderme
damianromero
A la moda progre, lobby lgbt, feminazis y demás zurdos no les va a gustar esto.
royendershade
Y los oftalmologos como miraban, a simple vista? Porque a lo mejor mediante microscopio o un analisis de imagenes de muy alta resolucion nos permite identificar esos patrones, que como bien dicen tal vez ni se hayan tratado de investigar anteriormente por considerarse algo inutil, o asumir que la diferencia no existe.
Habria que valorar eso.
Me pregunto si tendra alguna relacion con eso que dicen de que las mujeres identifican mejor las variaciones de color y los hombres el movimiento. Tambien seria interesante saber el rango de edades de las retinas dadas.
Luis
Si la red neuronal la pudieramos traducir a un algoritmo ya no sería una red neuronal. Está claro que las máquinas van a poder reconocer cosas (lenguaje, gestos, fotos etc..) sin que sepamos como lo ha hecho.
kpitos
Esa tasa de error del 3% es debido a que los pacientes eran genderfluid
Usuario desactivado
La IA es el patriarcado. Todo el mundo sabe que hombres y mujeres son iguales. Pero las mujeres son mas mejores.. a pesar de ser iguales. Ademas, hay que tener en cuenta que los géneros son construcciones sociales.. pero respetame a los transexuales porque los generos existen.. a pesar de que es mentira que existan.
Conclusión: Esa IA debe ser destruida. Por el bien de la sociedad.
Usuario desactivado
Es curioso. Hace tiempo leí que los niños pequeños tienen capacidad para distinguir caras de mapaches, algo que con el tipo perdemos.
También es conocido que un pastor conoce a las ovejas en rebaños enormes, yo lo he visto. Y al común de los mortales nos parecen casi todas iguales.
u2718
O sea que la IA es muy A pero poco I, no es capaz de explicarse...
whateverx
El todo esta expresado en la parte, y la parte en el todo.
La gente se burla de los que "leen" el rostro y los iridiologos y lo llaman pesudociencia.
Pero lo que esta haciendo la IA es probar que hay patrones en todo. Y que si se saben leer esos patrones se puede entender como un todo. Pero los ridiculos se vuelcan contra estas disciplinas en lugar de estudiarlas y acercar loa avancze de tecnología a ellos para asi ayudar a la humanidad. Aclaro: quitando a los charlatanes
WhiteLion
A los progres no les gusta esto