Frente a la desinformación

En las redes sociales la mentira juega con ventaja frente a las afirmaciones verdaderas porque a menudo reafirma aquello en lo que creemos o deseamos creer

Usuarios de móviles ante el logo de Facebook. rn
Usuarios de móviles ante el logo de Facebook. DADO RUVIC REUTERS

 

El año 2018 ha sido abundante en fake news. En Brasil, el candidato Bolsonaro se benefició de la campaña de desinformación orquestada contra sus adversarios a través de WhatsApp. En India, más de 20 personas fueron linchadas a muerte a raíz de rumores, difundidos de nuevo por WhatsApp, sobre el secuestro de niños y el sacrificio de vacas, animal sagrado entre los hindúes, por parte de intocables y musulmanes. Y sin duda uno de los casos donde la incitación al odio a través de las redes ha tenido mayor repercusión ha sido el de Myanmar. Allí en los últimos cinco años el Ejército se ha dedicado a organizar en Facebook una sistemática campaña de propaganda contra la minoría musulmana rohingya, alentando el asesinato al servicio de la mayor migración forzosa de los últimos tiempos, la de 700.000 personas en un caso que la ONU ha tildado de limpieza étnica.

Las llamadas fake news, convertidas en signo de la era Trump, son información falsa cuyo punto de arranque suele incluir datos reales y que mediante un proceso de propagación, a veces espontáneo, otras intervenido por actores interesados, adquieren carta de naturaleza. La manipulación de la información ha existido siempre: desde las profecías en la antigüedad, hasta las teorías de conspiración alimentadas por el antisemitismo, como el libelo de los “protocolos de Sion” surgido en la Rusia zarista, explotado por el régimen de la Alemania nazi y en la actualidad revivido en países islámicos. Lo que no tiene precedente es la envergadura masiva y extrema que ha adquirido a través de las plataformas sociales, cuyo modelo de negocio se presta a acelerar la difusión de noticias de contenido falso, al ser éstas las que mayor atención acaparan, las que más se consumen y, por tanto, las que incrementan beneficios.

A todo ello hay que añadir que, al contrario de lo que dicta el sentido común, los individuos tienden a aferrarse a sus opiniones, aun sabiendo que no son ciertas, especialmente en el ámbito de la política. Este año, una investigación del MIT publicada en la revista Science presentó conclusiones inquietantes: en Twitter las noticias y rumores de contenido engañoso tienen un 70% más de posibilidades de ser retuiteadas que las imparciales. En las redes sociales la mentira juega con ventaja frente a las afirmaciones verdaderas porque a menudo reafirma aquello en lo que creemos o deseamos creer, así como lo que más tememos, nuestros miedos más arraigados. Incluso allí donde se presenta evidencia de lo contrario, las personas por lo general preferirán aferrarse a sus ideas: la creencia es contumaz.

Ante esta situación, los regímenes cerrados, como el de China y Rusia, puede blindarse y controlar los medios. No es el caso de las democracias, expuestas a la desinformación en cuanto que sociedades abiertas, pero también más resilientes y capaces de tomar medidas para combatirla.

https://elpais.com

Los problemas de un mundo tecnológico donde todo es fácil

Los problemas de un mundo tecnológico donde todo es fácil

CreditCorey Brickley

Read in English

Hace siete años, un Mark Zuckerberg más joven y desenfadado subió al escenario en la conferencia anual de desarrolladores de Facebook y anunció un gran cambio en el diseño de la red social.

Hasta ese momento, las aplicaciones conectadas a Facebook les preguntaban de manera constante a los usuarios si querían publicar su actividad más reciente en su sección de noticias en la red social. Esos mensajes —de aplicaciones como Spotify, Netflix y The Washington Post— eran molestos, dijo Zuckerberg, así que la empresa había creado una nueva categoría de aplicaciones que podrían publicar directamente en las secciones de noticias de los usuarios, sin pedirles permiso cada vez.

“De ahora en adelante, será una experiencia sin fricción”, dijo Zuckerberg.

De todas las frases populares en el sector tecnológico, quizá ninguna se ha usado con tanta convicción filosófica como “sin fricción”. En la última década, más o menos, eliminar la “fricción” —el nombre que se le da a cualquier cualidad que haga al producto más difícil de usar o que tome más tiempo— se ha convertido en una obsesión en la industria de la tecnología, y muchas de las empresas más grandes del mundo la han adoptado como ley.

Airbnb, Uber y cientos de empresas emergentes más han generado miles de millones de dólares al reducir el esfuerzo necesario para rentar habitaciones, pedir taxis y completar otras tareas irritantes.

Cuando una empresa fracasa, a menudo se ve a la fricción excesiva como el motivo: “Si haces que el consumidor realice cualquier cantidad de esfuerzo adicional, sin importar en qué industria trabajes, te conviertes en blanco de la irrupción”, escribió Aaron Levie, director ejecutivo de la empresa de almacenamiento en la nube Box, en 2012.

No tiene nada de malo facilitar las cosas, en la mayoría de los casos, y la historia de la tecnología está llena de ejemplos de avances asombrosos que se dieron gracias a la reducción de la complejidad. Sospecho que ni siquiera los luditas acérrimos quieren regresar a la época de los carruajes halados por caballos y los radios de manivela.

Sin embargo, vale la pena preguntar si algunos de nuestros desafíos tecnológicos más grandes podrían resolverse si las cosas fueran ligeramente menos sencillas.

Después de todo, el diseño sin fricciones de las plataformas de redes sociales como Facebook y Twitter, que vuelve excesivamente fácil transmitir mensajes a audiencias enormes, ha sido la fuente de innumerables problemas, entre ellos las campañas de influencia desde otros países, la desinformación viral y la violencia étnica. La función sin fricción más famosa de YouTube —la reproducción automática de otro video en cuanto se acaba el anterior— ha creado un efecto de agujero negro que a menudo lleva a los espectadores por una espiral de contenido cada vez más extremo.

“La falta de fricción del internet está muy bien, pero ahora nuestra devoción a minimizarla es quizá el eslabón más débil de la red en cuanto a la seguridad”, escribió en noviembre Justin Kosslyn, gerente de producto en Jigsaw, una rama de Alphabet que se dedica a la seguridad digital, en un ensayo para el sitio de tecnología Motherboard.

He hablado con más de una decena de diseñadores, gerentes de producto y ejecutivos tecnológicos acerca de los principios del diseño sin fricción en las últimas semanas. Muchos dijeron que hacer que los productos sean más fáciles de usar daba buenos resultados, pero que sí había casos en que la fricción pudo haber sido útil para prevenir daños y para facilitar que los usuarios tuvieran conductas más sanas.

Bobby Goodlatte, exdiseñador de Facebook que ahora es inversionista para empresas emergentes, me dijo que la cultura de optimización del sector tecnológico “presupone que la reducción de la fricción es virtuosa por sí misma”.

“Hace que nos preguntemos si ‘podemos’ en lugar de preguntarnos si ‘debemos’”, comentó.

Varias personas elogiaron el movimiento de Time Well Spent, que es encabezado por Tristan Harris, quien fuera especialista en ética de diseño para Google y cofundador del Center for Humane Technology. Entre otras cosas, el grupo ha ejercido presión de manera exitosa sobre empresas como Facebook y Apple para que tomen medidas con el fin de frenar la adicción a la tecnología al incluir funciones que animen a los usuarios a limitar el tiempo que pasan frente a las pantallas.

Algunos se lamentaron de que, en la carrera de la industria tecnológica hacia la conveniencia, se había perdido algo importante.

“Queríamos aumentar la interacción y, por lo tanto, hicimos que las cosas tuvieran tan poca fricción como fuera posible”, dijo Jenna Bilotta, gerente de diseño que ha trabajado en Google. “Creamos todo un mundo de aplicaciones en las que el usuario tenía que hacer lo mínimo y eso está afectando la salud mental de la gente”.

A menudo, invocar el concepto de la fricción es una manera útil de ocultar un objetivo más grande y menos loable. Para Facebook, la “experiencia sin fricción” para compartir contenido era una manera poco velada de referirse al verdadero objetivo de la compañía: hacer que los usuarios publiquen más a menudo y aumentar la cantidad de datos disponibles para anuncios dirigidos a personas específicas. Para YouTube, los videos que se reproducen en automático han aumentado drásticamente el tiempo que los usuarios pasan viendo videos, por lo que también se extendió la rentabilidad de la plataforma. Para Amazon, herramientas como los pedidos con un solo clic han creado toda una maquinaria para el comercio y el consumo.

Hay señales de que algunas empresas tecnológicas están comenzando a valorar los beneficios de la fricción. WhatsApp limitó la función de reenviar mensajes en India después de que varias cadenas virales con desinformación provocaron disturbios. Además, YouTube hizo más estrictas sus reglas respecto a cómo los canales obtienen ganancias publicitarias para que sea más difícil que quienes envíen mensajes indeseados, o spammers, así como extremistas abusen de la plataforma.

Más cambios como estos serían bienvenidos, incluso si disminuyen la interacción en un corto plazo.

Hay muchas posibilidades: ¿qué pasaría si Facebook dificultara más la transmisión de desinformación viral con “topes” algorítmicos para que una publicación controvertida tarde más en ser divulgada hasta que los verificadores la evaluaran? ¿O si YouTube les diera a los usuarios la opción de elegir entre dos videos cuando su video terminara, en vez de autorreproducir la siguiente recomendación? ¿O si Twitter desalentara los mensajes masivos de agresiones y acoso al dificultar que quienes no han seguido a una cuenta durante cierto número de días pueda responder a los tuits de ese usuario?

Quizá incluso haya un argumento comercial a favor de la complejidad.

Consideremos lo que pasó con Tulerie, una empresa emergente neoyorquina que crea una plataforma que les permite a las mujeres compartir ropa de diseñador. Merri Smith, cofundadora de Tulerie, me contó una historia fascinante de los primeros días de la empresa. Al comienzo, dijo Smith, la compañía invitaba a mujeres a que se unieran a la plataforma después de contestar una encuesta breve de Google, que enviaba por correo a cientos de posibles miembros.

“Queríamos evitar la fricción en la medida de lo posible, aunque a la vez debíamos examinar a los solicitantes”, comentó.

No obstante, solo una persona contestó la encuesta. Así que Smith y su cofundadora decidieron probar un enfoque más complicado: cualquiera que quisiera unirse primero debía realizar una breve videollamada con un empleado de la empresa.

Según la lógica, la nueva estrategia debió haber fallado, pero fue un gran éxito. Los posibles miembros inundaron la lista de invitados y ocuparon todas las semanas de entrevistas programadas de manera anticipada. Al crear una inscripción más compleja, Tulerie envió la señal de que su servicio era especial y de que valía la pena el esfuerzo.

“Se basa en los valores”, dijo Smith. “La gente percibe que es más difícil entrar y quieren ser parte de la plataforma”.

Hay razones prácticas y filosóficas para preguntarse si ciertas tecnologías deben optimizarse para ser un poco menos “convenientes”. No confiaríamos en un médico que diera prioridad a la velocidad por encima de la seguridad, ¿por qué confiaríamos en una aplicación que lo hace?

Los tres mandamientos de la propaganda más rastrera en internet

Los tres mandamientos de la propaganda más rastrera en internet

Los lobbies lo saben. Las empresas lo saben. Los Gobiernos lo saben. Y las ONG y plataformas civiles lo saben. Sus miembros más implacables han comprendido que pueden alcanzar más fácilmente sus objetivos si despliegan una campaña digital de intoxicación. Estos son los tres mandamientos que deben cumplir para conseguirlo.

Primer mandamiento: dominarás la conversación sobre todas las cosas

El emisor tiene que asegurarse de que hay miles de personas al otro lado. Para ello recurrirá a opiniones y mensajes poderosos (incendiarios) canalizados por miles de cuentas robóticas que, si están mínimamente bien diseñadas, parecerán humanas.

Fue el caso de Angee Dixson, una presunta influencer tuitera de extrema derecha que animó la confrontación que provocaron los supremacistas blancos en Charlottesville el año pasado. Después, parece que aburrida con sus propias mentiras, pasó a documentar ejemplos (falsos) de terrorismo de extrema izquierda por todo Estados Unidos. Su popularidad se antojaba prodigiosa en un medio –las redes sociales– donde los seguidores otorgan inexplicablemente credibilidad.

Angee Dixson era solo uno de los 60.000 perfiles de bots rusos que se localizaron entonces y el día que el medio de comunicación ProPublica la identificó como tal, y la echaron de Twitter, no cambió casi nada. La sucedió Lizynia Zikur, otro bot que acusó a ProPublica de propaganda de extrema izquierda y cuyas difamaciones consiguieron más repercusión que la propia información que había dejado en evidencia a su compañera.

Algunos de los mensajes de Zikur contaron con la propulsión instantánea de 24.000 retuits, algo que, evidentemente, dio la sensación a muchos usuarios de que existía cierto consenso político. Antes esto, muchos podían responder de dos formas: callarse para no desafiar a una turba abrumadora o dejarse seducir por los mensajes más soft de los radicales. Fueron equidistantes porque los habían acobardado.

Segundo mandamiento: crearás (y destruirás) a los personajes de los que la gente se fíe

La creación de líderes de opinión de nicho nace de una industria que demanda personas que sepan conectar con audiencias muy específicas y que, al mismo tiempo, no exijan honorarios siderales. La agencia Mediakix prevé que las empresas destinarán más de 1.500 millones de dólares al marketing deinfluencers de Instagram este año. Los profesionales del fraude, igual que los intachables, se han multiplicado después de oler el rastro del dinero.

Para demostrar lo fácil que es engañar, Mediakix creó en 2017 los perfiles falsos de dos influencers de estilo de vida con 300 y 800 dólares respectivamente y consiguió defraudar a las marcas para que les ofrecieran productos por la cara. Diseñar una celebrity de nicho no es costoso y, por eso, Angee Dixson y Lizynia Zikur, esas musas de extremistas, ni actuaron en solitario ni eran productos de lujo.

Como sugieren los analistas P.W. Singer y Emerson T. Brooking en el libro LikeWar, los líderes de opinión de nicho, cuando participan en debates políticos, se presentan como personas fiables bien sea por su cargo (encabezan alguna institución pequeña pero aparentemente solvente), por su vocación como fuente de información alternativa a la dictadura del pensamiento políticamente correcto o por su perfil biográfico (aquí tenemos una gama amplia que va desde abuelitas sentimentales a gente con las que pueden empatizar ciertos colectivos como, por ejemplo, personas en paro).

Normalmente, estos perfiles están robotizados o, como en el caso de las ‘web brigades’ rusas, los gestiona una persona que lleva varias cuentas a la vez. Su lugar natural son los espacios donde se debaten asuntos políticos y su misión consiste en crear discusiones estridentes, captar seguidores que admiren su contundencia y filtrar teorías de la conspiración. Estos siniestros animadores de disputas reciben buena parte de su salario en variable.

Como el objetivo es que la verdad o no se perciba entre el ruido o acabe convertida en una versión tan válida como las mentiras que inyectan, también resulta crucial destruir la credibilidad de los adversarios. Según la consultora de ciberseguridad Trend Micro, erosionar fatalmente la reputación de un periodista incómodo en las redes puede rondar los 55.000 dólares.

El menú incluirá noticias falsas sobre él con 50.000 retuits por semana durante un mes, un vídeo de YouTube donde se generen cerca de 100.000 visitas y la agregación de unos 200.000 seguidores robóticos a la cuenta del periodista que se ocuparán de vomitar unos 12.000 comentarios negativos sobre sus intervenciones. Esos comentarios generarán 10.000 likes o retuits aproximadamente. Aquí el objetivo no pasa sólo por minar su reputación, sino también por desmoralizar al periodista y sus editores.

Tercer mandamiento: provocarás tu propia demanda de mentiras y no dejarás un rastro fácil de seguir

La Ley de Say -la oferta crea su propia demanda- se ha impuesto como una regla de oro para la ciberpropaganda. Las mentiras que mejor funcionan tejen un relato conspiranoico o, al menos, confirman y explican algunas de las sospechas infundadas de la audiencia.

Deben ser fáciles de entender y de comunicar y provocar la incontenible necesidad de compartir el mensaje. Esa pulsión se puede cultivar con supuestas coberturas al minuto de una investigación que destapa una turbia trama y empleando plataformas especialmente adictivas como Instagram. Todo esto es importante porque si además un amigo, que tiene nuestros propios prejuicios, llama nuestra atención sobre una mentira verosímil, las probabilidades de que nos la traguemos se disparan.

La imagen es fundamental desde dos puntos de vista. Para empezar, frente al texto, los vídeos breves son más fáciles y rápidos de consumir (y se consumen hasta el final), provocan una interacción mayor con el usuario y son mucho más eficaces a la hora de atraer y retener su atención. En segundo lugar, la imagen puede ser excepcionalmente barata de producir: no hace falta crear un vídeo de alta gama como los de los yihadistas del Daesh, sino que basta con la grabación de un monólogo con un fondo neutro o con la generación de un meme simpático que esconda un mensaje de odio que ni nos divertiría ni compartiríamos en otro contexto.

Ese meme de odio, igual que los vídeos y los comentarios de acoso, contiene una virtud adicional. No sólo posee un origen difícil de rastrear, sino que, muchas veces, forma parte de una campaña descentralizada. Sus integrantes son grupos frontales (asociaciones controladas indirectamente o alentadas por estados, partidos políticos, ONG, asociaciones o empresas), mercenarios independientes (los jóvenes de Macedonia que ganaron mucho dinerodifundiendo contenidos favorables a Trump, pero sin coordinarse con su campaña) y usuarios fáciles de movilizar y reunidos en grupos fanáticos (como los simpatizantes obsesionados con un partido o una causa política).

Estos usuarios, los mercenarios independientes y los grupos frontales casi nunca se pueden relacionar directamente con el beneficiario de las mentiras. Ellos le allanarán el camino, destrozarán a sus adversarios, le harán parecer más moderado y sensato y lo auparán sin que nadie puede acusarlo de haber lanzado la campaña.

https://www.yorokobu.es/

Si la inteligencia artificial nos miente, ¿cómo nos daremos cuenta?

Si la inteligencia artificial nos miente, ¿cómo nos daremos cuenta?

CreditFranziska Barczyk

Read in English

A mediados de 2016, antes de la elección presidencial en Estados Unidos, John Seymour y Philip Tully, dos investigadores de ZeroFOX, una empresa de seguridad en Baltimore, develaron un nuevo tipo de bot de Twitter. Analizando los patrones de actividad en la plataforma, el bot aprendió a engañar a los usuarios para que dieran clic en enlaces de tuits que llevaban a sitios potencialmente peligrosos.

El bot, llamado SNAP_R, era un sistema automatizado de fraude por suplantación de identidad (phishing), capaz de aprovechar los gustos de cada persona con el fin de convencerlos de descargar sin saberlo programas espía en sus máquinas. “Los arqueólogos creen haber encontrado la tumba de Alejandro Magno está en Estados Unidos por primera vez: goo.gl/KjdQYT”, le tuiteó el bot a un usuario desprevenido.

Incluso con esos errores gramaticales, SNAP_R logró que los usuarios dieran clic hasta en un 66 por ciento de las veces, al igual que los hackers humanos que crean mensajes electrónicos fraudulentos para robar datos.

El bot estaba desarmado: solo era una demostración. Sin embargo, tras la elección y la ola de preocupación por el ciberataque político, las noticias falsas y el lado oscuro de las redes sociales, ilustró por qué el panorama de la falsificación solo se volverá más lúgubre.

Ambos investigadores construyeron lo que se llama red neuronal, un complejo sistema matemático que puede aprender tareas analizando grandes cantidades de datos.

Una red neuronal puede aprender a reconocer a un perro mediante el procesamiento de patrones de miles de fotografías de perros. Puede aprender a identificar palabras habladas a partir de la revisión de viejas llamadas de soporte técnico.

Además, tal como lo demostraron los dos investigadores, una red neuronal puede aprender a escribir mensajes electrónicos fraudulentos inspeccionando tuits, publicaciones de Reddit y ciberataques en línea previos.

Actualmente, la misma técnica matemática está inyectándoles a las máquinas un amplio rango de capacidades similares a las humanas, desde el reconocimiento de voz hasta la traducción de lenguas. En muchos casos, esta nueva especie de inteligencia artificial (IA) también es una manera ideal para engañar a muchas personas en internet. La manipulación en masa está a punto de volverse mucho más sencilla.

“Sería muy sorprendente que las cosas no fueran en esa dirección”, dijo Shahar Avin, investigador en el Centro para el Estudio de Riesgos Existenciales en la Universidad de Cambridge. “Todas las tendencias apuntan en esa dirección”.

Muchos observadores tecnológicos han expresado preocupación por el ascenso de la IA que genera deepfakes, es decir, imágenes falsas que parecen reales. Lo que comenzó como una manera de poner la cabeza de quien sea en el cuerpo de una estrella porno se ha convertido en una herramienta para poner cualquier imagen o audio en cualquier video de manera imperceptible.

En abril, BuzzFeed y el comediante Jordan Peele publicaron un videoque ponía ciertas palabras, entre ellas la frase “necesitamos estar más alertas respecto de las cosas en las que confiamos en internet”, en boca del expresidente estadounidense Barack Obama.

La amenaza solo se hará más grande conforme los investigadores desarrollen sistemas que puedan metabolizar y aprender de repositorios de datos cada vez más grandes. Las redes neuronales pueden generar sonidos e imágenes creíbles. Esto es lo que permite que los asistentes digitales como Siri de Apple suenen más humanos que lo que sonaban hace unos años.

Google ha construido un sistema llamado Duplex que puede llamar a un restaurante local, hacer reservaciones y hacer pensar a la persona que está del otro lado del teléfono que quien llama es una persona real. Se espera que el servicio llegue a los teléfonos inteligentes antes de que termine el año.

Los expertos desde hace mucho han tenido el poder de editar audios y videos. No obstante, a medida que estos sistemas de IA mejoren, se volverá más fácil y más barato que cualquiera genere contenido digital —imágenes, videos, interacciones sociales— que se vea y suene como si fueran real.

Inspirados por la cultura académica, los principales laboratorios de IA e incluso empresas públicas gigantes como Google publican abiertamente sus investigaciones y, en muchos casos, su código de software.

Con estas técnicas, las máquinas también están aprendiendo a leer y escribir. Durante años, los expertos cuestionaron si las redes neuronales podrían descifrar el código del lenguaje natural. Sin embargo, la situación ha cambiado en meses recientes.

Organizaciones como Google y OpenAI, un laboratorio independiente en San Francisco, han construido sistemas que aprenden las minucias de la lengua a gran escala —analizando todo, desde artículos de Wikipedia hasta novelas de romance de publicación independiente— antes de aplicar este conocimiento a tareas específicas. Los sistemas pueden leer un párrafo y responder preguntas al respecto. Pueden juzgar si la reseña de una película es positiva o negativa.

Esta tecnología podría mejorar los bots que se utilizan para mensajes fraudulentos por internet como SNAP_R. Actualmente, la mayoría de los bots de Twitter parecen bots, sobre todo cuando comienzas a responderles. En el futuro, ellos responderán también.

La tecnología también podría llevar a la creación de bots de voz que puedan mantener una conversación adecuada y, sin duda, uno de estos días te llamarán y te convencerán de proporcionar la información de tu tarjeta de crédito.

Estos sistemas de lenguaje están impulsados por una nueva ola de poder informático. Los ingenieros de Google han diseñado microprocesadores específicamente para entrenar redes neuronales. Otras empresas están construyendo microprocesadores similares y, conforme lleguen al mercado, acelerarán la investigación en torno a la IA aún más.

Jack Clark, director de políticas en OpenAI, puede ver un futuro no muy distante en el que los gobiernos creen sistemas de aprendizaje automatizado que intenten radicalizar a las poblaciones de otros países, o impongan ideas a su propio pueblo.

“Este es un nuevo tipo de control o propaganda social”, comentó. “Los gobiernos pueden comenzar a crear campañas dirigidas a individuos pero, al mismo tiempo, operar a través de muchas personas de manera paralela, con un objetivo más grande”.

Idealmente, la inteligencia artificial también podría proporcionar maneras de identificar y detener este tipo de manipulación masiva. A Mark Zuckerberg le gusta hablar de las posibilidades. Sin embargo, para el futuro previsible, enfrentamos una carrera armamentista de aprendizaje automático.

Por ejemplo, consideremos las redes generativas antagónicas (GAN): son un par de sistemas de redes neuronales que pueden generar automáticamente imágenes convincentes o manipular las existentes. Lo hacen jugando una suerte de dinámica del gato y el ratón: la primera red hace millones de cambios pequeños a una imagen ⎯se añade nieve a las escenas veraniegas de una calle, los osos pardos se transforman en pandas, los rostros falsos lucen tan convincentes que los espectadores los confunden con celebridades⎯ en un esfuerzo para engañar a la segunda red.

La segunda red hace lo mejor que puede para evitar que la engañen. Mientras ambas compiten, la imagen se vuelve más convincente y la IA que trata de detectar el contenido falso siempre pierde.

Detectar las noticias falsas es aún más difícil. Los humanos apenas pueden ponerse de acuerdo con respecto a qué cuenta como noticias falsas, ¿cómo podemos esperar que lo haga una máquina? Y si pudiera, ¿querríamos que lo hiciera?

Quizá la única manera de detener la desinformación es enseñarle a la gente de alguna manera a considerar con desconfianza extrema lo que ven en línea. No obstante, esa podría ser la solución más difícil de todas.

“Podemos utilizar la tecnología para reparar nuestros sistemas computacionales”, dijo Avin. “Pero no podemos reparar la mente de las personas”.

https://www.nytimes.com/es/

Descarga cientos de ebooks gratis sobre ciencia, filosofía o historia en la web del CSIC

La Agencia Estatal Consejo Superior de Investigaciones Científicas (CSIC) es el mayor organismo público de investigación de España. Este organismo tiene como principal objetivo promover y desarrollar investigaciones que contribuyan al avance científico y tecnológico en distintas áreas del conocimiento”.

Además, en la Editorial CSIC (fundada en 1940) cuenta con miles de títulos en formato impreso y electrónico, organizados en 75 colecciones coordinadas por destacados especialistas.

Window Y Libros Csic Libros Electronicos Del Consejo Superior De Investigaciones Cientificas Csic

Cientos de libros al alcance de un click

Una buena noticia es que en su página web existe un apartado en el que podemos descargar cientos de libros electrónicos totalmente gratis, que pueden ser organizados tanto por título como por año.

Descarga cientos de ebooks gratis sobre ciencia, filosofía o historia en la web del CSIC

Pybonacci@Pybonacci

Libros del @CSIC ahora gratuitos en formato electrónicohttp://libros.csic.es/freebooks.php 

En esta sección del catálogo nos podemos encontrar libros de materias muy diversas: divulgación científica, literatura y crítica literaria, ciencias de la vida, arqueología y prehistoria, historia de la ciencia o filosofía y religión.

Cuando hagamos click en cada libro podremos conocer sus autores, el año de publicación, idioma en el que está escrito, la materia, un breve resumen y la posibilidad de descargar el índice. En la parte inferior derecha encontraremos el archivo con la obra en cuestión.

Window Y Libros Csic Libros Electronicos Del Consejo Superior De Investigaciones Cientificas Csic 2

Otro punto positivo es que no es necesario registrarse para poder acceder a esta amplia selección de eBooks. Ahora que se acercan las vacaciones de navidad puede ser una genial opción para encontrar libros que leer en los ratos muertos.

Además, será una buena idea mantener esta página en los marcadores, ya que seguramente vayan aumentando la colección de libros electrónicos gratuitos con el paso del tiempo.

https://www.genbeta.com/web

Barra libre de datos personales para Google

Barra libre de datos personales para Google

El celo que se ha extendido en los últimos años acerca de cuánta información personal recopilan las páginas web por las que navegamos parece haber olvidado que las apps en los móviles no lo hacen en menor medida. Prácticamente el 90% de las aplicaciones instaladas en los teléfonos móviles con sistema operativo Android están configuradas por defecto para transferir información a Google.

Así lo ha demostrado un reciente estudio llevado a cabo por laUniversidad de Oxford en cerca de un millón de aplicaciones del Play Store de Google en 2017. De media, los datos de las personas propietarias del dispositivo se comparten con diez organizaciones –desde Alphabet (de Google), a Facebook, Microsoft, Amazon, Twitter o Verizon-, y una de cada cinco aplicaciones lo hace con 20.

Es parte del modelo que en inglés se ha denominado ‘freemium’, esto es, apps aparentemente gratuitas cuyo pago, en realidad, es la inclusión de publicidad y el comercio de nuestros datos con terceros… y se ha salido de madre. Aunque el Reglamento General de Protección de Datos (RGPD), vigente desde el pasado 25 de mayo, prohíbe ligar datos personales a individuos concretos (romper la ‘anonimización’) y obliga a los desarrolladores de apps a revelar sus políticas de privacidad, entre las que se incluyen el intercambio de datos con terceros, lo cierto es que las malas prácticas son la tónica general.

Entre la información con la que se comercia, sin que l@s usuari@s sean siempre conscientes, destacan la edad, el género o la localización. Datos que en ocasiones se extraen de las torres de telefonía de donde toman la señal el smartphone, del router al que se conecta para aprovechar el Wi-Fi o, incluso, de otras apps instaladas en el dispositivo.

El análisis realizado por los investigadores revela cómo el 88% de las aplicaciones transfiere datos a terceros que, en última instancia, son propiedad de Alphabet (Google); del mismo sucede con empresas ligadas a Facebook (43%). Esto da una idea de la concentración de información personal de consumidor@s que acaparan unas pocas compañías. Sólo Alphabet, de Google, tienen subsidiarias en los segmentos de juegos y entretenimiento, herramientas de productividad, salud y estilo de vida, educación, música, comunicación, arte y fotografía y noticias.

En este escenario y dado que muchas de las apps instaladas en los teléfonos móviles pertenecen a las mismas compañías y a pesar de que se supone que cada una de ellas recopila información asociada al servicio que presta, todos los datos terminan bajo el mismo techo, pudiendo confeccionar completos perfiles de cada persona. Barra libre de datos personales.

David Bollero

https://blogs.publico.es/kaostica

Un futuro donde todo se convierte en una computadora es tan perturbador como lo temías

Un futuro donde todo se convierte en una computadora es tan perturbador como lo temías

CreditDoug Chayka

Read in English

Hace más de cuarenta años, Bill Gates y Paul Allen fundaron Microsoft con el sueño de lograr que en todos los escritorios hubiera una computadora personal.

La verdad es que nadie les creía, así que pocos intentaron detenerlos. Y antes de que cualquiera se diera cuenta, lo lograron: casi todos tienen una máquina con el sistema operativo Windows, y los gobiernos tuvieron que ver cómo contenían el monopolio de Microsoft.

Sucede una y otra vez en el sector tecnológico: los creadores audaces se proponen algo absurdo —Mark Zuckerberg quiere que todos estén conectados— y, como sus planes parecen muy poco probables, son inmunes al escrutinio. Para cuando el resto de nosotros se percata de sus efectos en la sociedad, a menudo es demasiado tarde para hacer algo al respecto.

En años recientes, las potencias más grandes de la industria tecnológica fueron tras una nueva meta de la conquista digital. Prometieron enormes mejoras y beneficios inimaginables a nuestra salud y felicidad. Solo hay una trampa que a menudo no se menciona: si sus novedades ganan fuerza sin intervención ni supervisión del gobierno, podríamos estar abriéndole la puerta a una serie de vulnerabilidades aterradoras que están relacionadas con la privacidad y la seguridad. Además, adivinen qué: nadie se preocupa mucho por detener ese problema.

¿El nuevo objetivo de la industria? No se trata de una computadora en todos los escritorios ni de una conexión entre todas las personas, sino algo más ambicioso: un ordenador dentro de todo para conectar a todos.

Los autos, las cerraduras de las puertas, los lentes de contacto, la ropa, las tostadoras, los refrigeradores, los robots industriales, las peceras, los juguetes sexuales, las bombillas de luz, los cepillos de dientes, los cascos de motocicleta… estos y otros objetos cotidianos se encuentran en la lista de espera para volverse inteligentes. Cientos de pequeñas empresas emergentes adoptan esta tendencia —conocida por el lema publicitario “El internet de las cosas”— pero al igual que todo lo demás en la tecnología, el movimiento es encabezado por los gigantes, entre ellos Amazon, Apple y Samsung.

El mes pasado, por ejemplo, Amazon presentó un microondas que incluye a Alexa, su asistente de voz. El precio del electrodoméstico será de 60 dólares, pero también les venderá a otros fabricantes el microprocesador de esta tecnología, por lo que la conectividad de Alexa se convertirá en un añadido fácil para una gran variedad de electrodomésticos, como ventiladores, tostadoras y cafeteras. Esta semana, tanto Facebook como Google develaron sus propios dispositivos caseros “centrales” que permiten ver videos y realizar otras actividades digitales por comandos de voz.

Quizá tildes a muchas de estas innovaciones de bobas y destinadas al fracaso. Sin embargo, todas las grandes novedades en la tecnología comienzan pareciendo tontas; las estadísticas muestran que el internet de las cosas crece con rapidez. Por eso, es más sabio imaginar lo peor, que la digitalización de casi todo no solo es posible, sino probable, y que ahora es el momento para alarmarse ante sus peligros.

“En general no soy pesimista, pero es muy difícil no serlo”, comentó Bruce Schneier, un consultor de seguridad que explora las amenazas planteadas por el internet de las cosas en su nuevo libro: Click Here to Kill Everybody.

Schneier argumenta que, en general, los incentivos técnicos y económicos de la industria del internet de las cosas no se alinean con la seguridad y la privacidad para la sociedad. Poner una computadora en todo convierte al mundo entero en una amenaza de seguridad computacional, y los ciberataques y fallas descubiertas durante el último par de semanas en Facebook y Google ilustran lo complicada que es la seguridad digital, incluso para las compañías tecnológicas más grandes. En un mundo robotizado, los ataques informáticos no solo afectarían tus datos, sino que podrían poner en peligro tus bienes, tu vida e incluso la seguridad nacional.

Schneier dijo que solo la intervención gubernamental puede salvarnos de ese tipo de calamidades. Hace un llamado a favor de replantear el régimen regulatorio para la seguridad digital de la misma manera en que el gobierno federal alteró su aparato de seguridad nacional después de los ataques del 11 de septiembre de 2001. Entre otras ideas, señala la necesidad de una nueva agencia federal, la Oficina Cibernética Nacional, que él imagina como un organismo que investiga, asesora y coordina respuestas a amenazas planteadas por un internet de todo.

“No puedo pensar en ninguna otra industria en los últimos cien años que haya mejorado su seguridad y su protección sin que el gobierno la obligara”, escribió. No obstante, sostiene que la intervención del gobierno parece poco probable en el mejor de los casos. “En esta sociedad, en la que el gobierno se muestra incapaz de hacer cualquier cosa, no veo ninguna posibilidad de controlar las tendencias corporativas”, señaló.

Estas tendencias ahora son evidentes. Solía ser complicado añadir conectividad a internet en los dispositivos domésticos, pero, durante el último par de años, el costo y la complejidad de hacerlo han disminuido mucho. Actualmente, las minicomputadoras disponibles para el público en general, como la Arduino, pueden usarse para convertir casi cualquier objeto del hogar en un dispositivo “inteligente”. Los sistemas como el que ofrece Amazon prometen acelerar aún más el desarrollo de las tecnologías del internet de las cosas.

El mes pasado en una conferencia de prensa, un ingeniero de Amazon demostró la facilidad con la que un fabricante de ventiladores podría crear una versión “inteligente” si le instalara el microprocesador de Amazon, conocido como Alexa Connect Kit. El paquete, que Amazon está probando con algunos fabricantes, simplemente se conectaría a la unidad de control del ventilador durante el ensamblaje. El productor también debe escribir algunas líneas de código; en el ejemplo del ventilador, el ingeniero de Amazon solo necesitó media página de código.

Eso es todo. Amazon maneja todas las funciones digitales del ventilador (entre ellas la seguridad y el almacenamiento en la nube). Si lo compras en Amazon, el ventilador se conectará automáticamente con tu red casera y comenzará a obedecer órdenes emitidas por tu Alexa. Solo conéctalo a la corriente eléctrica.

Este sistema ilustra el argumento más amplio de Schneier, es decir: que el costo de agregar computadoras a objetos será tan bajo que para los fabricantes resultará lógico conectar todo tipo de dispositivos a internet.

A veces, estas funciones inteligentes serán prácticas: podrás gritarle a tu microondas desde el otro lado de la habitación que vuelva a calentar tu almuerzo. En otras ocasiones, permitirá oportunidades de ganancias monetarias: el microondas de Amazon comprará más palomitas de maíz cuando se te estén acabando. No obstante, esas características también se usan con fines de vigilancia y mercadotecnia, como la nueva generación de televisores inteligentes que dan seguimiento a lo que ves para mostrarte anuncios dirigidos.

Aunque los beneficios sean pequeños, generan cierta lógica de mercado; en algún momento no muy lejano, los dispositivos que no se conecten a internet serán menos comunes que los inteligentes.

Sin embargo, el problema es que los modelos de negocio de estos dispositivos a menudo no permiten el tipo de mantenimiento continuo de seguridad al que estamos acostumbrados con aparatos computacionales más tradicionales. Apple tiene un incentivo para seguir creando actualizaciones de seguridad con el fin de que el iPhone siga siendo seguro; lo hace porque los equipos son muy costosos y el renombre de Apple depende de su capacidad para mantenerte alejado de los terrores digitales.

No obstante, los fabricantes de electrodomésticos de gama baja no tienen mucha experiencia en esto, además de que cuentan con menos incentivos. Por eso, el internet de las cosas hasta ahora ha sido sinónimo de un nivel de seguridad muy defectuoso; es la misma razón por la que el año pasado el FBI tuvo que advertir a los padres acerca de los peligros de los “juguetes inteligentes” y, también por lo mismo, Dan Coats, el director de inteligencia nacional, calificó los dispositivos inteligentes como una amenaza creciente a la seguridad nacional.

Un representante de Amazon me dijo que la empresa incluye la seguridad en el núcleo de sus tecnologías inteligentes. El Connect Kit, señaló la empresa, permite que Amazon haga el mantenimiento de la seguridad digital de un dispositivo inteligente, y es probable que en cuestión de seguridad Amazon sea mejor que muchos fabricantes de electrodomésticos. Como parte de su negocio en la nube, la compañía también ofrece un servicio para las empresas con el fin de auditar la seguridad de sus servicios del internet de las cosas.

El Consorcio del Internet de las Cosas, un grupo industrial que representa a decenas de empresas, no respondió a nuestra consulta.

Schneier no describe la intervención gubernamental como la panacea, sino como un regulador de velocidad, una manera para que nosotros, los humanos, nos pongamos al corriente con los avances tecnológicos. La regulación y la supervisión gubernamental lentifican la innovación; esa es una de las razones por las que a los expertos en tecnología no les agradan. No obstante, cuando están involucrados peligros globales inciertos, tomarse un minuto para reflexionar no es una mala idea.

Conectar todo podría traer enormes beneficios para la sociedad. Sin embargo, la amenaza podría ser igual de grande. ¿Por qué no mejor avanzamos con lentitud hacia el futuro incierto?

https://www.nytimes.com/es/

La llegada del ‘Homo pasmado’

Creemos que las nuevas tecnologías nos facilitan la vida. Que nos ahorran trabajo y nos liberan. Pero en realidad sucede lo contrario

Resultado de imagen para absortos en el celular ilustracion

Soy una apasionada partidaria de las nuevas tecnologías y sigo creyendo que nos proporcionan avances increíbles; pero, por otro lado, lo digital ha invadido nuestras vidas de una manera tan profunda y tan rápida que los humanos ni siquiera somos conscientes de lo que hemos cambiado. En el mundo hay 7.000 millones de personas, y más de 5.000 millones poseen un móvil. Si pensamos que sólo 4.500 millones tienen acceso a baños, podemos ir haciéndonos una idea de cómo los smartphones se han convertido en una especie de virus. Es una pandemia y no lo sabemos.

Hablando de baños: un reciente estudio en Inglaterra demostraba que el 41% de los jóvenes elegirían dejar de lavarse antes que abandonar el móvil (lo cuenta Mariana Vega en unocero.com). Sospecho que un buen número de ellos preferiría no bañarse en cualquier caso, al margen de tener o no teléfono, pero, en fin, incluso descontando a los guarros sin más, el porcentaje es abultadísimo. Diversos estudios señalan que nos pasamos entre cuatro y cinco horas al día mirando el móvil (Apple demostró que los usuarios del iphone desbloqueamos de media el terminal 80 veces al día). Es una cifra tan bárbara que no me extraña que los cines cierren y las novelas no se vendan. No nos da el tiempo para nada más que para estar amorrados a la pantalla. Y en este cómputo no estamos incluyendo las horas que añadimos ante el ordenador.

Y hay algo aún peor. Creemos que las nuevas tecnologías nos facilitan la vida. Que nos ahorran trabajo y nos liberan. Pero en realidad sucede lo contrario. Con el e-mail y los whatsapps no terminas jamás de trabajar. Antes, sacar adelante un tema suponía quizá una carta de papel al mes y tres llamadas. Hoy son decenas de correos electrónicos y de mensajes. Antes podías cortar tu dedicación laboral a una determinada hora. En estos momentos no cortas jamás. Por no hablar de las preciosas horas que he quemado hoy intentando sacar unas entradas.

Todo esto está alterando las costumbres, la salud y el cerebro. Numerosas investigaciones hablan del insomnio causado por la luz de los terminales, de alteraciones en la producción de hormonas, de quizá un mayor riesgo de cáncer (este punto es polémico), sobre todo en niños menores de dos años, los cuales, según todos los indicios, no deberían ni tocar una tableta. Pero hay algo que creo que está clarísimo, y es la disminución de la capacidad de concentración. Con la mano en el pecho, debo confesar que mi cabeza, siempre tendente a las corrientes de aire, tiene hoy más agujeros que nunca. La mente aletea de acá para allá con más facilidad, hambrienta de nuevos estímulos. Tengo la sensación de que los smartphones son como hechiceros que nos han hipnotizado, creando una Humanidad de seres distraídos y confusos. Hay estudios que señalan que el uso del teléfono mientras conduces, incluso en manos libres, provoca cada día nueve muertes y cerca de mil heridos en Estados Unidos. Otro trabajo realizado en Manhattan indicó que el 42% de los peatones ignoraban los semáforos en rojo por estar enfrascados en su móvil. Ya digo. Somos las primeras generaciones del Homo pasmado.

Rosa Montero

https://elpais.com

Ilustración de Alex Gross – Android

Zuckerberg y los pezones

Facebook no es capaz de defenderse contra la interferencia electoral ni de garantizar el control personal de su información

Mark Zuckerberg, consejero delegado de Facebook
Mark Zuckerberg, consejero delegado de Facebook FRANCE PRESS

 

El hombre con mayor capacidad de influencia del mundo (y el quinto más rico, según la última lista de Forbes),está triste y no sabe cómo dejar de estarlo. La capacidad de influencia del imperio de Mark Zuckerberg no puede hacer nada para ayudarle a cambiar su destino. Cuando un hombre conquista todos los éxitos posibles, solo desea una cosa: la gloria. Pero eso, Zuckerberg lo ha perdido para siempre. Ya no será recordado como el niño prodigio que supo usar Internet para cambiar el mundo, sino como el niñato que creó y alimentó un monstruo capaz de destruir nuestras democracias.

El escándalo de Cambridge Analytics sobre filtración masiva y uso no autorizado de datos personales de Facebook puso de manifiesto que se envió información sesgada a 87 millones de norteamericanos para influir en su voto en las últimas elecciones a la presidencia. El asunto fue tan grave que vimos al dueño de las cuatro redes sociales más grandes del mundo (la propia Facebook, Facebook Messenger, WhatsApp e Instagram, todas ellas con más de 1.000 millones de usuarios mensuales activos) hacer lo nunca visto: ponerse traje y corbata y abandonar sus deportivas para comparecer en Washington. Era tal la vergüenza, que tuvo que disfrazarse. Habló más de diez horas en el Congreso y fue ridiculizado en varias ocasiones, todas viralizadas después en su propio imperio.

Desde entonces intenta arreglar las cosas entonando el mea culpa allá donde se presenta la ocasión. El tour del perdón de Zuckerberg lo llevó hasta Bruselas donde volvió a decir: “En los últimos años no hemos hecho lo suficiente para evitar que las herramientas que hemos creado se utilicen también para causar daño”. Pero como el mejor canal del mundo para comunicar es suyo, el pasado viernes ha hablado desde su trono: su perfil social de Facebook, donde ha explicado cómo afrontará los problemas a los que se enfrenta su compañía. Poca cosa: Facebook no es capaz de defenderse contra la interferencia electoral, de proteger a su comunidad de abusos y daños ni de garantizar que las personas tengan control de su información. Pero tranquilos, porque Mark está trabajando personalmente en ello.

Y no solo. También va a esmerarse seriamente en censurar los discursos del odio y los llamamientos a la violencia, algo que su tecnología aún no puede hacer. Pero tranquilos de nuevo, porque según los cálculos del último mensaje de Zuckerberg, nada de esto se podrá garantizar al 100% hasta 2019 más o menos. La razón es que distinguir unos mensajes de otros es muy difícil. Y encima, algunos de los objetivos son prácticamente incompatibles porque, según ha explicado, “el cifrado aumenta la privacidad y la seguridad de las personas, pero hace que sea más difícil luchar contra el odio a gran escala”. Vamos, que estamos salvados.

Y digo yo, usuaria entusiasta de estas redes, qué raro que Facebook (tampoco Instagram) no sea capaz de distinguir un mensaje que incita a la violencia de uno que no lo hace, pero sí consiga distinguir entre los publicables pezones de un varón y las pecaminosas berzas de una mujer. Porque, como todo el mundo sabe y muchas padecemos, en las redes de Zuckerberg cualquiera puede publicar un mensaje de odio o una mentira sin sufrir censura alguna, pero ninguna mujer del mundo puede publicar los pezones de sus tetas. En eso ha debido centrar la compañía sus esfuerzos de los últimos años, en solucionar la crisis de los pezones que azotaba a la humanidad.

Me imagino que soy una de las personas más poderosas del mundo y que dedico mis mejores esfuerzos a borrar pezones de la faz de la tierra mientras permito tranquilamente que se publiquen mensajes de odio y se corrompa la democracia. Ya pediré perdón si algo se tuerce. De momento, voy a centrarme en lo importante: las tetas de mujer. En este aspecto, el trabajo de Zuckerberg ha sido sobresaliente. Y gracias a la tecnología fina, el big data y su propio esfuerzo, su compañía ha cumplido durante años con una tarea prioritaria: extirpar quirúrgicamente de sus redes los pezones de las mujeres.

El asunto tiene su gracia, porque para superar la crisis de los pezones la tecnología ha tenido que desarrollarse hasta el punto de ser capaz de distinguir no solo el pezón de un hombre del de una mujer, sino también entre los dos tipos de privilegiadas tetas que pueden publicarse sin necesidad de difuminar sus areolas: las que han sufrido una mastectomía y las que aparecen amamantando. Vamos, todas aquellas tetas que según Facebook no contienen ninguna carga sexual o pornográfica. Como si una mujer que amamanta o que hubiera superado un cáncer careciese de sexualidad.

Personalmente, me resulta inevitable preguntar qué habría pasado, quién habría ganado las últimas elecciones americanas, cómo sería hoy la conversación en Facebook e Instagram (cada vez más atestada de soft porn) si al señor Zuckerberg le hubiera preocupado más mi querida democracia que mis tetas.

Nuria Labari es escritora y periodista. Es autora del libro Cosas que brillan cuando están rotas(Círculo de Tiza).

https://elpais.com

Si Google sabe a dónde has ido, ¿sabe quién eres?

Si Google sabe a dónde has ido, ¿sabe quién eres?

CreditIlustración por Jon Han

Read in English

En agosto pasado, The Associated Press publicó una investigación sobre cómo Google administra los datos que recopila, después de un hallazgo algo curioso por parte de un investigador de posgrado de la Universidad de California en Berkeley. Durante años, la empresa ha permitido que los usuarios controlen su “historial de ubicaciones”, en el cual se registra dónde han estado principalmente según su actividad de Google Maps. El investigador sugirió, y Associated Press lo confirmó, que eso no funciona como lo venden. “Algunas aplicaciones de Google almacenan automáticamente su localización y la hora sin preguntar”, encontraron los reporteros. Esa revelación ya resultó en por lo menos una demanda legal y en nuevas críticas públicas.

Sí estamos al tanto, por lo general, de que Google guarda información de nuestros paraderos. Cuando buscamos cosas en Google, para todo tipo de temas, la empresa usa nuestra ubicación para mostrar resultados más relevantes (por ejemplo, según qué idioma hablamos). Google Maps, obviamente, nos muestra datos particulares de dónde estamos y hacia dónde vamos. Las maneras más creativas e indirectas con las cuales Google consigue nuestros datos de ubicación pueden ser útiles o, por lo menos, impresionantes a nivel técnico. (Sí, Google, adivinaste bien, ese es el restaurante al que fui, pero no quiero reseñarlo, gracias). Aunque es más frecuente que los detalles de lugares y movimientos sean procesados entre bambalinas, donde la información es guardada porque puede ser guardada, y después sean compartidos con herramientas que damos por sentadas. Esas herramientas sirven para mostrarnos qué es lo que quiere Google y qué es lo que cree que sabe. Es una manera de ver qué tiene Google de nosotros.

Hay que darle algo de crédito; la empresa desde hace mucho tiempo permite a sus usuarios ver una parte de los datos recopilados sobre ellos y de ellos. Google Takeout es una herramienta para descargar tus datos que está disponible desde 2011 y ahora permite exportar parte del material de cincuenta servicios como Gmail, búsqueda, los chats y el servicio de pagos. El volumen abrumador de información demuestra lo profunda —e ineludible— que es la relación con la compañía. También puede ser algo transformador; ver meses de tu propio historial de búsquedas en listas es revivir una mezcla de momentos mundanos, ansiosos e, incluso, algunos que ya habías olvidado.

El volumen abrumador de información demuestra lo profunda —e ineludible— que es la relación con la compañía.

La descarga de datos también ofrece una utilidad básica: por ejemplo, poder descargar las imágenes que tienes en aplicaciones de Google te permite migrarlas a otro sitio. Y se agradece inmensamente que Google no mantenga secuestrados tus contactos. La empresa también deja que los usuarios revisen su historial de ubicaciones, con una interfaz muy estilo Google porque hace que una cantidad inmensa de información se sienta entendible; sin embargo, es poco estilo Google porque se siente inútil o como que no vale la pena meterse de lleno. Sin embargo, hay otra opción para descargar los datos en bruto. Eso hice y obtuve un archivo con cientos de miles de datos con el tiempo exacto (hasta en milisegundos), la latitud y longitud (con el estimado de qué tan preciso es en metros) y un supuesto de mi actividad en el momento (“EN_BICICLETA”).

Esta información, ya en una base de datos y fuera de las interfaces de Google, se siente como, en su esencia, vigilancia, aunque sigue siendo bastante incomprensible. Pero en 2014, un estudiante de bachillerato llamado Theo Patt trabajó una herramienta que se llama Location History Visualizer que pone todo el historial de ubicaciones sobre un mapa con códigos de colores, como los que se ven en institutos que estudian contagios de enfermedades. La herramienta se volvió un éxito y hubo decenas de miles de visitas al sitio de Patt.

Y es que al ver de esa manera los últimos años de tu vida —lo que registran tu computadora y tu teléfono celular, y que luego consigues con un citatorio de tu cuenta— surge un impulso forense. Ya sea que te pienses como abogado, procurador, jurado o juez, hay mucho con qué trabajar. Si aceptaste por completo compartir información con ciertos productos de Google (yo lo hice con varias aplicaciones de Google para el iPhone, incluido Google Maps), vas a ver años de tus ubicaciones en círculos brillantes, violetas, verdes, amarillos o rojos, encima de un mapa mundial. Explorar los datos es revisar, en segundos, diversos estados emocionales: sorpresa, desorientación, curiosidad, decepción.

Enfoqué mi mapa por primera vez sin agrandar ningún punto y no me pareció la gran cosa. Sobre toda la ciudad de Nueva York, donde vivo, se veía un círculo rojo inmenso; había otros círculos en sitios en los que he visitado a mi familia. Otro en Nashville, donde fui para una conferencia. Un viaje al norte de California para un reportaje. Algunas vacaciones, escalas en aeropuertos y viajes de fin de semana cerca de la ciudad. Si acaso, la información de Google parecía estarme diciendo que me vendría bien viajar más. (Según la empresa, no comparte los historiales de ubicación con anunciantes ni muestra anuncios según los lugares del historial).

Pero luego hice un acercamiento a una área. Esos sitios en los que visité a mi familia quedaron espeluznantemente detallados. En el pueblo donde viví mis primeros dieciocho años era notorio el esqueleto de una rutina de alguien que regresa varias veces a un lugar: los puntos en las puertas G18 y C25 del aeropuerto, desde las que usualmente llego o salgo y desde las cuales caminé hacia los sanitarios cerca de la puerta C9 la última Navidad. Luego hay otro rastro de color rojo hasta la casa de mi madre y unos rastros de color azul de cuando salí a correr durante las visitas. Podía ver los restaurantes del pueblo a los que fuimos juntos y el bar en el que me encontré con un amigo. Había otros puntos misteriosos por la autopista; los seguí hasta que recordé que había ido a un restaurante de comida rápida que me encantaba cuando era adolescente. Me acerqué a otro punto al norte de la casa de mi madre y ahí estaba la iglesia a la que fuimos para el servicio de Nochebuena. Me moví por esa zona del mapa y se veían con claridad las visitas que hice: a la capilla, cuando me senté los bancos de la iglesia que están a la izquierda y al nicho donde están los restos de mi padre.

Si Google sabe a dónde has ido, ¿sabe quién eres?

CreditIlustración por Jon Han

Esta información me sentó mal de diversas maneras: el que una memoria de coordinadas de Google pudiera hacerme sentir pesar o alegría —claro, esa mañana en el parque fue tan linda, y estaban jugando esos perros— o que esas coordinadas me hicieran sentir culpable —y no un amigo, un compañero de trabajo o haberme equivocado de parada en el metro— de que la ciudad en la que vivo es mucho más grande que los lugares que visito rutinariamente.

También hubo momentos al revisar ese diario informático en los que sentí que quería más; pensé que será genial poder acercarme aún más, regresar a un sitio específico y clavarme a verlo. Pero fueron momentos que duraron poco, porque encontrar un diario tan personal sería divertido si está en el ático de la casa de tus padres y fue escrito con tu letra, no cuando lo hallas en los servidores de una corporación multimillonaria que muestra anuncios.

La primera versión de Location History Visualizer fue creada por Theo Patt cuando era adolescente. Poco tiempo después de que la volvió pública, le llegaron solicitudes para agregar herramientas. “Me llegó un correo de un padre cuya hija fue acusada de hurto en una tienda”, me dijo Patt. “Él mismo quería defenderla legalmente”. Entonces trabajó en una versión más avanzada que después empezó a vender. “Hay gente que cree que su pareja la engaña”, dijo, y son un “grupo sorpresivamente numeroso”. Recordó un caso en particular de una mujer que lo contactó directamente porque pensaba que su esposo le era infiel y había conseguido la información de Takeout para intentar comprobarlo. Después de una sesión de asistencia técnica “pudo visualizarlo todo”, dijo Patt, “y se quedó callada”. Varios días después ella le envió un correo escueto: “Gracias”.

Encontrar un diario tan personal sería divertido si está en el ático de la casa de tus padres y fue escrito con tu letra, no cuando lo hallas en los servidores de una corporación multimillonaria.

La gente usa el programa de Patt para revisar a mayor detalle sus viajes para presentar los gastos ante las empresas; otros quieren reconstruir esos viajes por medio de mapas visuales. Pero también las intenciones son cada vez más turbias si se trata de los datos de ubicación propios o de otros. Hay muchas parejas preocupadas —las ventas de Patt se disparan cada vez que se acerca el Día de San Valentín—, aunque ahora también hay jefes preocupados sobre dónde están sus empleados durante el día. También diversas autoridades se acercaron a Patt; no quiso divulgar mucho por los acuerdos que tiene con esos clientes. “Hubo varios de nivel internacional, brazos policiales y agencias de gobierno”. Patt, quien ahora tiene 18 años, está por empezar sus estudios en la Universidad de Stanford mientras alista una nueva empresa. Aún acepta clientes nuevos para Location History Visualizer.

Cuando lo usé sentí que ya había visto más que suficiente. Ese nivel de datos biográficos es suficientemente preocupante cuando lo recopila y usa una empresa en la que confío, al menos en la práctica; fuera de ese contexto es como un cúmulo de confrontaciones con un mundo donde las promesas de privacidad de datos son más frecuentes e insistentes y, para muchos usuarios, menos creíbles. Así que desactivé el historial de ubicaciones en Google… o lo desactivé tanto como se puede. Fue un paso a sabiendas de que hay muchas otras aplicaciones que dan seguimiento a mi ubicación en el celular —de guías a sitios locales, las sociales y hasta las del clima— que recopilarían datos prácticamente idénticos. (Y no olvidemos a los mismos proveedores de servicios celulares o a las empresas bancarias). Pero no apagarlo habría sido como rendirme.

Patt aún tiene activado el suyo. “Es la historia de mi adolescencia”, dijo. Yo los veía como archivos de vigilancia nominal y él como una biografía. Google había redactado ambos aunque, por ahora, no parece estar tan interesado en ninguno.

https://www.nytimes.com/es/