Todo el que haya hecho una entrevista de trabajo sabe que hay un factor que es inevitable que influya en mayor o menor medida: los prejuicios de quien hace esa entrevista pueden acabar con las aspiraciones de cualquier candidato.
Así pues, ¿se pueden hacer entrevistas de trabajo totalmente objetivas? Es lo que están intentando empresas como Mya Systems, que usando sistemas de inteligencia artificial ha desarrollado un chatbot que charla con los candidatos (casi) sin prejuicios.Y decimos "(casi)" porque al final quien programa esos sistemas es un ser humano, con sus propios prejuicios.
No importa tu apariencia, raza o procedencia
En un mundo perfecto ser blanco o negro, parecerse a Beckham o no y ser chino o finlandés no debería tener importancia alguna para conseguir un trabajo. Serían factores objetivos como la capacidad o la experiencia los que deberían contar para conseguir ese puesto, pero en muchos casos esos primeros factores de los que hablábamos acaban afectando a los procesos de selección.

La inteligencia artificial podría ser la clave para tratar de quitarlos de la ecuación. Mya es un chatbot que se emplea en diversas empresas de primer nivel para "una conversación inicial" con los candidatos. Este bot es capaz de filtrar a los candidatos conforme a los requisitos del puesto, además de preguntarles sobre su educación o experiencia e informarles de en qué consistiría su labor en ese puesto.
Otros desarrollos como HireVue hacen algo parecido pero con entrevistas en vídeo que son analizadas por un motor de inteligencia artificial del que se extraen hasta 25.000 tipos de datos entre los que pueden estar aspectos singulares como la empatía de los candidatos. La idea es la misma, y como decía su CTO, Loren Larson, los candidatos "tienen las mismas oportunidades sin importar su género, raza, edad, temporadas sin trabajar o universidad a la que fueron".
La demanda de estos motores de inteligencia artificial parece estar incrementándose según la consultora CEB, que las proporciona a empresas como AMD, Walmart o Thomson Reuters, pero hay un dato curioso: la idea es aplicarla a contrataciones a gran escala en las que esta automatización puede mejorar la eficiencia a la hora de establecer ese primer filtro. Las entrevistas con responsables (humanos) de la empresa se producen después.
¿Es un motor de IA realmente imparcial?
Se utilicen o no para ese primer filtro objetivo en los procesos de selección, lo cierto es que las dudas sobre la verdadera imparcialidad de estos motores de inteligencia artificial son patentes.

De hecho no hace mucho si los algoritmos pueden ser racistas, y la respuesta era afirmativa. La culpa no la tienen los algoritmos en sí (al menos, no toda), sino el hecho de que 1) esos algoritmos están desarrollados por seres humanos con sus propios prejuicios y 2) los datos de los que se nutren y alimentan también provienen de comportamientos y situaciones que se dan en nuestro día a día. Un día a día no carente de prejuicios. Como explicábamos entonces,
Esto hace el problema mucho más complejo. La matemática Cathy O'Neil avisaba de que aunque los algoritmos >tienen un gran potencial para mejorar el mundo, pueden movernos hacia la dirección contraria. De hecho, a menudo cosas hechas con la mejor >intención salen realmente mal.
Nos encontramos ante una versión extraña del problema de los filtros pero a escala social: como en el callejón del gato, internet nos devuelve una versión a la vez real y deformada de nosotros mismos.
Esos algoritmos muestran también sus defectos en situaciones muy delicadas: las herramientas policiales que tratan de detectar potenciales tasas de reincidencia en quienes cometen delitos acusaban especialmente a los afroamericanos. En otro experimento con un alcance distinto Beauty.AI, que evaluaba si una persona era o no atractiva, tendía a favorecer a los caucásicos con pelos claros.
La conclusión es la que se está confirmando a media que los distintos logros de la inteligencia artificial nos sorprenden: cuidado con esa inteligencia artificial, porque puede no estar libre de prejuicios ni es perfecta.
En Xataka | Los humanos que se rebelan contra los algoritmos
Ver 7 comentarios
7 comentarios
acerswap
Y del mismo modo, tambien es posible que se use algo parecido al SEO. Tecnicas y algoritmos que mejoren tu valoración a la maquina. También puertas traseras con una contraseña para superar automaticamente la prueba o vulnerabilidades similares a SQL Injection.
royendershade
Podemos montar todas las tonterias que queramos, pero al final tiene que haber una entrevista con una persona, y nos guste o no habra sesgos, que es precisamente el objetivo de la entrevista. Claro que seria ideal que estos sesgos fuesen objetivos y no respondieran a temas no relacionados con el trabajo, pero una vez seleccionados una serie de candidatos, a condiciones similares, el empleador seleccionara quien mejor impresion le de, basicamente. O dicho de otra forma el que crea que va a encajar mejor en la empresa o va a suponer menos problemas (se equivoque o no en su juicio) o incluso va a ser mas simpatico y generar mejor ambiente.
A partir de ahi es muy dificil determinar, y sobre todo demostrar si en su eleccion hubo algun motivo racista o sexista.
Pero vamos, que esas cosas tambien se pueden programar...
whisper5
Leo 'chatbot' y casi salgo corriendo. Ya vimos qué paso con el chatbot inteligente de Microsoft, que en menos de 24 horas tuvo que retirarlo porque se convirtió en racista y verbalmente agresivo.
La inteligencia artificial actual aprende a base de presentarle situaciones cuya respuesta es conocida (aprendizaje supervisado) y que poco a poco va reconociendo. Un ejemplo es mostrar a una red neuronal miles de radiografías en las que unas presentan una determinada patología y otras no. Al final es capaz de recibir como entrada una radiografía y clasificarla entre las que tienen o no tienen la patología aprendida. Esto es relativamente sencillo en comparación con una entrevista de trabajo.
Uno de los mayores problemas que presenta la inteligencia artificial frente a otros tipos de computación es que sus resultados no pueden ser explicados. En la computación tradicional se especifican paso a paso las operaciones a realizar (algoritmo) y si algo falla se pueden rastrear y conocer el porqué de una determinada respuesta. Las redes neuronales son una caja negra en la que no hay instrucciones. Todo son matrices con millones de números que no revelan nada. No sólo no puede ser explicada o justificada una respuesta sino que su calidad depende de las muestras de datos con las que haya sido entrenada. Si los datos, por ejemplo en el caso de las entrevistas de este artículo, tienen sesgos raciales, de género, culturales, etc. la elección de candidatos también los tendrá.
Resulta chocante que para eliminar los sesgos en las entrevistas planteen utilizar un sistema que no puede garantizar su imparcialidad, porque no es posible conocer el porqué de sus decisiones. Este es un riesgo real y actual, no especulaciones a lo "Terminator". Las empresas están adoptando estos sistemas con decisiones defectuosas porque resultan más baratos que emplear a personas. Se usan para elegir candidatos, valorar riesgo en concesión de créditos, concesión de seguros y un largo etcétera. El problema es que una empresa que los utilice sólo vea la reducción de costes y no le importe que en un porcentaje de los resultados se esté cometiendo un error, una injusticia o una discriminación. Es injusto pero rentable.
Volviendo a las entrevistas, estoy seguro que un sistema de inteligencia artificial no es capaz de detectar matices humanos. Un parte muy importante de la comunicación es el lenguaje no verbal: entonación, gestos, miradas, movimiento corporal, etc. Una inteligencia artificial no es capaz de percibir todo eso, ni el humor, la ironía y otras muchas cosas. Rechazo este tipo de entrevistas. Debemos humanizar a las máquinas, y mientras no podamos conseguirlo no deberíamos deshumanizar los servicios que tratan con personas.
emedoble
La primera entrevista de una oferta laboral ya es lo suficientemente mecánica (entrega CV, contenta el cuestionario por escrito, rellena el psicotécnico, etc.) como para que, encima, te la vaya a hacer un ordenador.
Si la idea es que la IA valore al entrevistado sin prejuicios y por su potencial, tendría más utilidad en la entrevista personal del final del proceso de selección y no en la de cribaje.
No le veo más utilidad que para quedar de modernazos.
insalada
Siempre hay sesgos. No tener sesgos es un sesgo. Quien programe la IA la programará con sus sesgos. Sesgo, qué palabro tan relativo...