¿Eres gay o heterosexual? Una máquina puede adivinarlo con una foto

Las inteligencias artificiales pueden predecir la orientación sexual al leer los rasgos faciales. Investigadores alertan del riesgo que supone

Una inteligencia artificial traduce las caras a números y relaciona la información con datos almacenados sobre la orientación sexual
Una inteligencia artificial traduce las caras a números y relaciona la información con datos almacenados sobre la orientación sexual – YOUTUBE/MICHAL KOSINSKI

 

Un estudio publicado por científicos de la prestigiosa Universidad de Stanford (Estados Unidos) ha demostrado que la tecnología empleada en la actualidad por empresas y gobiernos permite que una inteligencia artificial (IA) sea capaz de predecir con eficacia la orientación sexual de una persona a partir de una fotografía de su cara. Según los autores, estos resultados son preocupantes y recuerdan la necesidad de crear sistemas de seguridad y de regular el uso de esta tecnología debido a su capacidad de dañar a las personas y de ser usada sin su consentimiento.

La investigación ha recibido la aprobación para ser publicada en Journal of Personality and Social Psychology y ha sido realizada por Michal Kosinski y Yilun Wang. Sus resultados han demostrado que un algoritmo es capaz de lograr una precisión del 91 por ciento a la hora de predecir la orientación sexual de los hombres y del 83 por ciento en el caso de las mujeres.

Tal como informó The Economist, los investigadores entrenaron a una IA con una base de datos con 35.326 caras de 14.776 personas, que obtuvieron en una web de citas cuyos perfiles son públicos.

Michal Kosinski, coautor de la investigación
Michal Kosinski, coautor de la investigación– Lauren Bamford
 

Usaron un programa llamado VGG-Face, que convierte en números la «huella facial» de cada persona, y usaron un modelo predictivo sencillo, una regresión logística, para encontrar correlaciones entre los rasgos faciales y la sexualidad de los individuos que figuraba en el perfil de su web de citas.

Una precisión propia de una prueba médica

Después, pusieron a trabajar al modelo resultante con caras que no había visto antes. Cuando «se le enseñó» una foto al azar de una persona gay y otra heterosexual, la IA acertó en el 81 por ciento de los casos en los hombres y en el 71 en las mujeres. Cuando se le enseñaron cinco fotos de cada persona, una homosexual y otra heterosexual, sus resultados fueron muy superiores: su precisión llegó al 91 y al 83 por ciento en hombres y mujeres, respectivamente.

Esta precisión es comparable a la lograda por mamografías (85 por ciento) o herramientas modernas de diagnóstico de párkinson (90 por ciento), y es muy superior a la alcanzada por personas que observan caras y tratan de predecir la orientación sexual: la capacidad humana roza el 61 por ciento entre los hombres y el 54 entre las mujeres.

Los límites de la máquina

Sin embargo, los propios autores del estudio han reconocido, en una nota de aclaración, varias limitaciones del estudio. La precisión conseguida por la IA solo se alcanza cuando una de las personas de la pareja de las fotos es homosexual. Además, cuando los científicos pusieron a trabajar al algoritmo con muestras de personas que reflejan la proporción real de homosexuales (de cerca de siete por cada cien habitantes), sus resultados fueron peores: la IA tendía a clasificar como gays a personas que no lo eran.

También han reconocido que en el estudio no se incluyó a personas de color, bisexuales o transgénero. Todos los participantes eran blancos y nacidos en Estados Unidos, pero aseguran que esto no afecta a las principales conclusiones del estudio.

¿Se nace homosexual?

Los autores han sugerido que sus conclusiones proporcionan una «base sólida» para la teoría de que la orientación sexual de las personas se define durante el nacimiento, tal como ha informado The Guardian. Esto ocurriría como consecuencia de la exposición a ciertas hormonas, lo que influiría en que se nacieran con unos rasgos concretos o con una una orientación sexual determinada. El hecho de que la máquina consiga peores resultados al predecir la orientación sexual de las mujeres sugiere, según Kosinksy y Wang, que la orientación sexual femenina es más fluida y que depende de más factores.

A través de otras técnicas, los investigadores descubrieron que el programa se centraba en la nariz, ojos, cejas, mejillas, corte de pelo y barbilla para determinar la sexualidad masculina. En el caso de las chicas, la nariz, los ángulos de la boca, el pelo y la línea del cuello eran más importantes. Por eso, serían estos ragos los que supuestamente revelarían cuál es la orientación sexual de una persona.

El polémico propósito del estudio

Los autores han aclarado que su objetivo no era crear un sofware capaz de predecir la sexualidad de una persona, sino demostrar que es posible hacerlo y así alertar a gobiernos y ciudadanos sobre los peligros de esta tecnología, más en un entorno en el que cada vez se almacenan más datos personales en la red. Tal como ha declarado Kosinksi en The Economist, los autores no han inventado ninguna nueva tecnología: solo han juntado datos y programas ya existentes.

«Como cualquier nueva herrramienta, si cae en las manos equivocadas, puede ser usada para propósitos perversos», ha dicho en The Guardian Nick Rule, investigador en el área de la Universidad de Toronto (Canadá). «Lo que los autores han hecho es hacer una afirmación muy clara sobre lo poderosa que puede ser esta tecnología. Ahora sabemos que necesitamos protección»

Además de la sexualidad, en la actualidad hay sistemas de inteligencia artificial que relacionan los rasgos faciales con la personalidad, la orientación política y rasgos psicológicos. Aparte de esto, Facebook o Google usan IAs para cosechar datos sobre pobreza o el año en que se hizo una foto, respectivamente. Lo hacen porque las máquinas pueden extraer patrones a partir de un número ingente de fotografías.

Ciencia basura

Según informó The Guardian, activistas LGTBI denunciaron que la investigación puede ser usada para dañar a las personas y la calificaron como «peligrosa, sesgada y ciencia basura». Criticaron el estudio por discriminar a personas de color, bisexuales y transgénero y por hacer asunciones imprecisas sobre el género y la sexualidad.

Por su parte, Michal Kosinksi, declaró en The Guardian sentirse perplejo por las críticas, puesto que la tecnología ya existe y que el propósito de su estudio era denunciar lo potencialmente peligrosa que puede ser esta aplicación de la IA y lo necesario que es regularla.

http://www.abc.es/ciencia

Deja un comentario