Las buenas y malas noticias sobre la inteligencia artificial

Las buenas y malas noticias sobre la inteligencia artificial

Un dron fabricado por la compañía Skydio que puede seguir a una persona sin ser controlado por un humano usa partes disponibles en muchos lugares y un software de código abierto. CreditLaura Morton para The New York Times

Read in English

SAN FRANCISCO — Una empresa emergente de Silicon Valley develó hace poco un dron que puede marcar su camino de manera completamente independiente. Una aplicación móvil permite que el usuario le ordene al dron seguir a alguien. Una vez que el dron comienza a dar seguimiento al objetivo, será muy difícil que este se deshaga de él.

El dron tiene como objetivo ser un dispositivo lúdico. Sin embargo, no es una idea descabellada que este sabueso automatizado resulte un poco perturbador.

El 20 de febrero, un grupo de legisladores e investigadores en materia de inteligencia artificial (IA) emitió un informe que describía cómo las tecnologías de inteligencia artificial, que se desarrollan con rapidez y cada vez son más asequibles, podrían usarse con propósitos malintencionados.

El dron de rastreo ayuda a explicar sus preocupaciones. Fabricado por la empresa llamada Skydio, el dron cuesta 2499 dólares; se armó con piezas de construcción tecnológicas disponibles para cualquiera: cámaras ordinarias, programa de código abierto y procesadores de computadora de bajo costo. Con el tiempo, reunir estos componentes será cada vez más fácil y barato.

 “Estas cosas están cada vez más disponibles en todos los sentidos”, dijo Adam Bry, uno de los fundadores de Skydio. Estas mismas tecnologías están aportando un nuevo nivel de autonomía a los vehículos, los robots en los almacenes, las cámaras de seguridad y una amplia gama de servicios de internet.

Sin embargo, a veces, los nuevos sistemas de IA también exhiben comportamientos inesperados y extraños debido a que no se entiende por completo la manera en que aprenden a partir de enormes cantidades de datos. Esto los hace vulnerables a la manipulación; se puede engañar a los algoritmos de visión computacional de hoy, por ejemplo, para que vean cosas que no existen.

En un contexto como este, los malhechores podrían burlar cámaras de seguridad o afectar a un vehículo autónomo.

Los investigadores también están desarrollando sistemas de IA que pueden encontrar y aprovechar brechas de seguridad en todo tipo de sistemas, dijo Paul Scharre, un autor del informe. Estos sistemas pueden utilizarse como métodos de defensa y ataque.

Las técnicas automatizadas harán que sea más fácil perpetrar ataques que ahora requieren mucha labor humana, entre ellos el spear phishingo ciberestafa, que involucra reunir y usar los datos personales de las víctimas. En los próximos años, según el informe, las máquinas serán más capaces de recolectar e implementar estos datos por sí mismas.

Los sistemas de IA también son cada vez más capaces de generar contenido de audio y video verosímil por su cuenta. Esto facilitará que quienes tengan malas intenciones puedan divulgar información falsa en internet, indicó el reporte.

https://www.nytimes.com/es

Deja un comentario