ALGUNAS RAZONES PARA DEJAR LAS REDES SOCIALES

File:Paul Cézanne - The Large Bathers (Les Grandes baigneuses) - BF934 - Barnes Foundation.jpg

El uso de estas plataformas ha provocado cambios esenciales en nuestras interacciones personales y el uso de nuestro tiempo. Este video nos invita a reflexionar en torno a ello…

Cuando algo está demasiado cerca, es difícil verlo con objetividad. Ese es el caso de las redes sociales y el lugar que vertiginosamente ocuparon en nuestra vida cotidiana en años recientes. Hoy, una persona dedica en promedio, dos horas y veintidós minutos al día, según investigaciones recientes. Esta compulsiva intimación con las redes sociales comienza a evidenciar los estragos producidos en la psique colectiva.   

Doctor en ciencias computacionales y autor de seis libros sobre la digitalización de nuestra realidad, Calvin Newport (1982) nunca ha tenido una cuenta en Facebook, Twitter o Instagram, y considera que vive mejor sin ellas, que es más feliz y más exitoso. Al respecto, presentó una charla para Ted Talks en la que plantea algunos argumentos interesantes. En ella, Newport expone las redes sociales como simples productos de entretenimiento, diseñados minuciosamente para mantenerte atado, y de forma compulsiva, a ellos.

Entre los aspectos negativos que destaca Newport en su ponencia, están la fragmentación de la concentración, una sensación de aislamiento, frustración, depresión e incluso una alteración en las conexiones cerebrales derivado de la cantidad de micro-estímulos. Pero más allá de escandalizarnos ante la idea de que las redes sociales son veneno psíquico puro, preferimos tomar su charla como una invitación a revisar y repasar la forma en la que nos relacionamos con estos canales, las emociones que provoca su uso y los estados de ánimo que induce. Tal vez, es posible llegar a conclusiones interesantes durante el ejercicio.

Las palabras de Newport son una invitación a ver con un poco de distancia eso que usamos todos los días a toda hora (eso que inadvertidamente se ha vuelto parte de nuestra cotidianeidad) y así replantear la relación que tenemos con las redes sociales, preguntarnos cómo es que afectan no solamente nuestra productividad económica o laboral (en la que se centra esta charla), sino otros aspectos de la vida, como el social y el emocional.

Imagen: Les Grandes baigneuses, Paul Cézanne – Dominio público

http://www.faena.com/aleph

Estados Unidos apunta a la red eléctrica de Rusia en una guerra fría digital

Por DAVID E. SANGER NICOLE PERLROTH 

Estados Unidos apunta a la red eléctrica de Rusia en una guerra fría digital
Una planta eléctrica en Moscú; funcionarios estadounidenses describieron la incursión en la red rusa y otros blancos como una acción adicional clasificada. CreditMaxim Shemetov/Reuters

Read in English

WASHINGTON — Estados Unidos está intensificando sus incursiones digitales en la red eléctrica rusa como advertencia al presidente Vladimir Putin y como una demostración del modo en que el gobierno del presidente Donald Trump está utilizando nuevas entidades para instalar con mayor agresividad herramientas cibernéticas, afirmaron funcionarios pasados y en activo.

[Si quieres recibir los mejores reportajes de The New York Times en Español en tu correo suscríbete aquí a El Times]

En entrevistas a lo largo de los tres últimos meses, los funcionarios describieron el uso de un código informático de Estados Unidos, del cual no se había informado antes, dentro de la red eléctrica rusa y de otros objetivos como un complemento clasificado para las medidas comentadas más públicamente contra las unidades de ciberataque y desinformación de Moscú en torno a las elecciones intermedias de 2018.

Los defensores de esta estrategia más agresiva señalaron que estaba pendiente desde hacía mucho tiempo, después de años de advertencias públicas por parte del Departamento de Seguridad Nacional y del FBI de que Rusia ha introducido software malicioso que podría sabotear las plantas de energía eléctrica, los oleoductos y los gaseoductos, o los suministros de agua de Estados Unidos en cualquier conflicto futuro con este país.

Sin embargo, también conlleva un riesgo importante de intensificar la guerra fría digital cotidiana entre Washington y Moscú.

El gobierno se rehusó a describir las medidas específicas que estaba tomando con las nuevas funciones que el año pasado la Casa Blanca y el congreso por separado le otorgaron al Cibercomando de Estados Unidos, la rama del Pentágono que se encarga de las operaciones de ataque y defensa del ejército en el mundo cibernético.

No obstante, el 11 de junio, en una aparición pública, el asesor de seguridad nacional del presidente Donald Trump, John Bolton, señaló que Estados Unidos ahora estaba adoptando una perspectiva más amplia sobre posibles blancos digitales como parte de una iniciativa “para decirle a Rusia, o a cualquier otro país que participe en operaciones cibernéticas contra Estados Unidos: ‘Tendrás que pagar el precio’”.

Durante años, las redes eléctricas han sido un campo de batalla de baja intensidad.

Tanto quienes trabajaban en el gobierno como quienes aún son funcionarios actuales comentan que, desde 2012 —por lo menos—, Estados Unidos ha puesto sondas de reconocimiento en los sistemas de control de la red eléctrica de Rusia.

Sin embargo, según los funcionarios, ahora la estrategia de Estados Unidos ha pasado más hacia el ataque y ha colocado software malicioso potencialmente incapacitante dentro del sistema ruso en una magnitud y agresividad que nunca antes se había intentado. Por una parte, tiene el objetivo de advertir y, por la otra, de preparar el terreno para ejecutar un ataque cibernético si se presentara un conflicto importante entre Washington y Moscú.

El comandante del Cibercomando de Estados Unidos, el general Paul M. Nakasone, ha sido franco sobre la necesidad de “defender avanzando” a profundidad dentro de la red del adversario para demostrar que Estados Unidos responderá a la avalancha de ataques en línea dirigidos a ese país.

Estados Unidos apunta a la red eléctrica de Rusia en una guerra fría digital
John Bolton, al centro, asesor de seguridad del presidente estadounidense, dijo que Estados Unidos tenía un panorama más amplio de blancos digitales potenciales como parte de un esfuerzo para advertir a cualquiera “involucrado en ciberoperaciones contra nosotros”. CreditDoug Mills/The New York Times

“No tienen temor de nosotros”, mencionó ante el Senado hace un año durante las audiencias de su ratificación.

No obstante, encontrar formas de graduar esas respuestas de tal modo que desalienten ataques, pero sin provocar una intensificación peligrosa ha sido el origen de constantes debates.

Trump otorgó nuevas funciones al Cibercomando a mediados del año pasado, en un documento aún clasificado conocido como Memorandos Presidenciales 13 para la Seguridad Nacional, que le otorga a Nakasone mucha mayor flexibilidad para llevar a cabo operaciones de ciberataques sin tener que recibir la aprobación del presidente.

Sin embargo, al parecer, la medida de incursionar en la red eléctrica rusa ha sido realizada según nuevas funciones legales poco conocidas, las cuales se introdujeron dentro del proyecto de ley de funciones del ejército aprobado por el congreso a mediados del año pasado. Esta medida aprobó la realización rutinaria de “actividades militares clandestinas” en el ciberespacio con el fin de “disuadir ataques o actividades cibernéticas maliciosas dirigidas en contra de Estados Unidos o salvaguardarse o defenderse de ellas”.

Según la ley, ahora el secretario de Defensa puede autorizar esas medidas sin la aprobación especial del presidente.

“Se volvieron muchísimo más agresivas el año pasado”, señaló un alto funcionario de inteligencia, que habló con la condición de mantener el anonimato, pero se negó a comentar acerca de ningún programa clasificado en particular. “Estamos haciendo las cosas a una escala que hace algunos años jamás habríamos contemplado”.

La pregunta fundamental —imposible de saber sin acceso a los detalles clasificados de la operación— es a qué profundidad de la red rusa ha llegado Estados Unidos. Solo entonces sabremos si sería posible sumergir a Rusia en la oscuridad o debilitar a su ejército, una pregunta que quizás no pueda responderse sino hasta que se active el código.

Tanto Nakasone como Bolton, a través de sus voceros, se negaron a responder las preguntas acerca de sus incursiones en la red eléctrica de Rusia. Los funcionarios del Consejo de Seguridad Nacional también se rehusaron a hacer comentarios, pero señalaron que no les preocupaba la seguridad nacional por los detalles que aparecieron en el reportaje de The New York Times sobre el establecimiento de la red de energía rusa como un blanco; quizás esto indica que algunas de las incursiones tenían por objetivo que los rusos se percataran de ellas.

Estados Unidos apunta a la red eléctrica de Rusia en una guerra fría digital
A Paul Nakasone, comandante del Cibercomando de Estados Unidos, le fue concedida mayor libertad de acción para ejecutar operaciones en línea sin necesidad de obtener aprobación presidencial. CreditErin Schaff para The New York Times

Dos funcionarios del gobierno comentaron que creían que no le habían informado a Trump en detalle acerca de las medidas para colocar “implantes” —códigos de software que pueden emplearse para vigilar o atacar— dentro de la red de energía rusa.

El Pentágono y los funcionarios de inteligencia mencionaron que hubo muchas dudas respecto de entrar en detalles con Trump acerca de las operaciones contra Rusia por temor a su reacción… y la posibilidad de que pudiera cancelarlas o hablar de ellas con funcionarios extranjeros, como lo hizo en 2017, cuando le mencionó al ministro de Relaciones Exteriores de Rusia una operación confidencial en Siria.

Debido a que la nueva ley define las medidas en el ciberespacio como similares a la actividad militar tradicional en tierra, aire o mar, esa información no sería necesaria, añadieron.

La infiltración de Rusia en la infraestructura de Estados Unidos ha sido el revuelo de fondo en la competencia de las superpotencias durante más de una década.

Estados Unidos apunta a la red eléctrica de Rusia en una guerra fría digital
No queda claro cómo reaccionaría el gobierno del presidente ruso, Vladimir Putin, a una postura estadounidense más agresiva. CreditDmitri Lovetsky/Associated Press

Una irrupción exitosa por parte de Rusia en la red de comunicaciones clasificadas del Pentágono en 2008 dio lugar a la creación de lo que se ha convertido en el Cibercomando. Los ataques se aceleraron durante el mandato del presidente Barack Obama.

Sin embargo, Obama estaba renuente a responder a esa agresión de Rusia con contrataques, en parte por temor a que la infraestructura de Estados Unidos fuera más vulnerable que la de Moscú, y en parte debido a que a los funcionarios de inteligencia les preocupaba que al responder del mismo modo, el Pentágono diera a conocer parte de su mejor armamento.

Al final del primer periodo de mandato de Obama, los funcionarios del gobierno comenzaron a descubrir a un grupo de hackers rusos, conocidos alternativamente por los investigadores de seguridad privada como Energetic Bear (oso energético) o Dragonfly (libélula). Sin embargo, se suponía que los rusos estaban llevando a cabo labores de vigilancia y que no llegarían a causar un daño real.

Según dos exfuncionarios, esa suposición desapareció en 2014, cuando el mismo equipo de ciberatacantes rusos puso en peligro las actualizaciones del software que controlaban cientos de sistemas que tienen acceso a los interruptores de energía.

Estados Unidos apunta a la red eléctrica de Rusia en una guerra fría digital
En 2012, el secretario de Defensa en ese entonces, Leon Panetta, a la izquierda, fue advertido sobre las infiltraciones en línea, pero el presidente Barack Obama estaba reacio a responder tales agresiones de parte de Moscú con contrataques. CreditLuke Sharrett para The New York Times

Tras la toma de posesión de Trump, los hackers rusos siguieron intensificando los ataques.

El primer equipo cibernético de Trump decidió ser mucho más abierto al desafiar la actividad rusa. A principios de 2018, nombró a Rusia como el país responsable del “ataque cibernético más destructivo en la historia de la humanidad”, mismo que paralizó la mayor parte de Ucrania y afectó a empresas estadounidenses, que incluyeron a Merck y a FedEx.

No obstante, al parecer, las medidas recientes de Estados Unidos contra las redes de energía de Rusia, ya sea como señales o como posibles armas de ataque, han sido tomadas de acuerdo con las nuevas responsabilidades del congreso.

A medida que se aproximan las elecciones de 2020, el Cibercomando ha contemplado la posibilidad de que Rusia intente provocar apagones selectivos en estados determinantes, señalaron algunos funcionarios. Según ellos, para eso es necesaria una medida disuasiva.

En los últimos meses, se ha puesto a prueba la determinación del Cibercomando. El año pasado, las empresas de energía eléctrica de Estados Unidos y los operadores de gas y petróleo de América del Norte descubrieron que los mismos ciberdelincuentes que en 2017 desmontaron con éxito los sistemas de seguridad en Petro Rabigh, una planta petroquímica y refinería petrolera, habían analizado sus redes.

Ahora la pregunta es si colocar el equivalente a minas terrestres en una red de energía extranjera es la forma adecuada de disuadir a Rusia. Aunque se equipara a la estrategia nuclear de la Guerra Fría, también confirma que las redes de energía son un blanco legítimo.

“Tal vez tengamos que arriesgarnos a llevarnos algunos rasguños provocados por una reacción similar solo para demostrarle al mundo que no nos vamos a dejar”, comentó Robert Silvers, socio en el despacho de abogados Paul Hastings y antiguo funcionario del gobierno de Obama. “A veces hay que recibir un golpe en la nariz para no recibir después un balazo en la cabeza”.

David E. Sanger reportó desde Washington y Nicole Perlroth, desde San Francisco.

https://www.nytimes.com/es/

Infiltrados

No se puede luchar contra el maligno sin conocer antes sus entrañas, su núcleo lógico

Datos privados de 50 millones de usuarios de Facebook se fugaron hace poco más de un año a empresas como Cambridge Analytica.
Datos privados de 50 millones de usuarios de Facebook se fugaron hace poco más de un año a empresas como Cambridge Analytica. DANIEL LEAL-OLIVAS AFP/GETTY IMAGES

 

Todo el mundo está de acuerdo en luchar contra el maligno, pero poca gente sabe cómo hacerlo. Unos mandarían a los tanques, otros a los diplomáticos y el resto apelarán a la educación sin aclarar cómo ni cuándo. Como sabemos los aficionados al género de espías, no hay micrófono oculto, algoritmo de big data ni red de satélites que pueda compararse a una persona infiltrada en el sistema enemigo. No se puede luchar contra el maligno sin conocer antes sus entrañas, su núcleo lógico, la maraña de rencores e intereses que motiva su comportamiento y genera su estilo exclusivo, y nada de eso es posible sin colocar un infiltrado en sus engranajes. De esto va El hombre que fue jueves, de Chesterton, ¿no es cierto?

Las agencias de ciberseguridad se pasan el día reclutando hackers, y hacen bien, porque no hay mejor manera de controlar un gusano informático que contratar a quien lo creó, o a su compañero de pupitre. Los virus de verdad —los que creó la madre naturaleza— descubrieron esa estrategia en la noche de los tiempos. El sistema inmune que nos protege de los virus es obra de otro virus. Por eso sus genes pueden saltar, flipar y variar para producir una variedad ilimitada de anticuerpos contra cualquier agente infeccioso existente o imaginable. Un buen infiltrado, como un buen parásito, rara vez mata a su huésped. Lo que más le interesa es mantenerlo vivo para exprimir su información hasta llegar al hueso. Quizá el mejor infiltrado es el que sabe que nunca volverá a casa.

¿Te acuerdas del escándalo de Facebook? Aunque parezca mentira, ocurrió hace poco más de un año. Los datos privados de 50 millones de usuarios de esa red social se fugaron de algún modo a empresas como Cambridge Analytica, que los utilizó para la campaña presidencial de Donald Trump y también a favor del Brexit. El jefe y fundador de Facebook, Mark Zuckerberg, se tuvo que humillar ante el Capitolio y el Parlamento de Estrasburgo para pedir perdón por el fiasco y prometer que todo iba a mejorar pronto. A un año del escándalo, ¿ha reducido Zuckerberg el acceso a los datos de los usuarios?

La respuesta es no. De hecho, está dando más acceso que nunca a terceras partes. Pero espera, esto no es tan malo como parece. Esas terceras partes ya no son Cambridge Analytica ni ninguna otra firma dedicada a vender “el petróleo del futuro” —tus datos— a partidos políticos, publicistas o tramas delictivas. Las terceras partes son ahora los científicos interesados en la forma en que se propagan las fake news, su fuente última y a quienes colaboran a su difusión. No son policías, sino investigadores que aspiran a entender desde dentro la lógica de ese tumor que amenaza los derechos constitucionales de la gente. De ti y de mí, desocupado lector.

El Social Science Research Council de Nueva York, una asociación no lucrativa, y la fundación público-privada Social Science One, asociada a la Universidad de Harvard, han seleccionado los primeros proyectos científicos. Implican a 60 investigadores, se centrarán en Alemania, Chile, Italia y Estados Unidos y serán financiados por organizaciones no gubernamentales. Los científicos tendrán acceso a una cantidad de datos sin el menor precedente en la investigación académica. Esos datos pueden ser los tuyos y los míos, pero ¿tú te opondrías a que se usaran para este fin? Yo no. Por fin tenemos infiltrados en las tripas de la mayor red social de este planeta.

https://elpais.com/

La libertad de expresión en la ciencia está en peligro y por eso ha nacido la Intellectual Dark Web

La libertad de expresión en la ciencia está en peligro y por eso ha nacido la Intellectual Dark Web

Es posible que estemos en contra de la divulgación de ciencia que pueda debilitar la ideología que consideramos correcta y buena para todos. Por ejemplo, imaginemos (solo es un supuesto) que se descubre que hay una etnia cuya inteligencia es estadísticamente inferior al resto de etnias. ¿Debemos silenciarlo so pena de evitar estallidos xenófobos o explorar la idea en busca de las razones subyacentes (a la vez que combatimos la xenofobia recordando que no debemos respetar a los demás porque son iguales a nosotros, sino precisamente porque son o podrían ser diferentes)?

Puede que estés de acuerdo con este modo de operar, con esta censura preventiva para escamotear futuras censuras. Sobre todo si eres posmoderno, o sea, esgrimes un pensamiento que se sustenta en la idea de que no existe una verdad, sino muchas, y que todas son igualmente válidas. Por eso ha nacido la Intellectual Dark Web.

Para quienes ya no pueden publicar libremente

Claire Lehmann es editora en jefe de Quillette, una nueva revista que está sirviendo como plataforma para dar cabida a la libertad de expresión al núcleo duro de la Intellectual Dark Web (con confundir con Deep Web, Dark Web y Darknet). Lehmann es una psicóloga australiana que empezó a ser conocida por sus interesantes artículos en revistas y periódicos a propósito del feminismo, la educación científica y los videojuegos. Hasta que, poco a poco, sus textos empezaron a ser rechazados por todos. Entonces, en octubre de 2015, Lehmann fundó la revista Quillette para albergar textos como los suyos, los que habían sido podados de los medios convencionales.

Quillette es la salida oficial, si se puede decir que existe tal cosa, de la ahora notoria Intellectual Dark Web. Eric Weinstein, el director ejecutivo de Thiel Capital (sí, de Peter Thiel de PayPal), acuñó el nombre como una broma. Cada vez lo parece menos.

La mayor parte de esta confederación intelectual informal está formada por académicos y ex académicos, además de un empresario ocasional como Weinstein o personalidades de YouTube como Dave Rubin. Lo que les une es que todos se han sentido excluidos de la sociedad educada, e incluso han sido despedidos de sus trabajos por expresar sus opiniones, como el profesor de psicología de Yale Nicholas A. Christakis, como podéis ver en este grotesco vídeo:

O Bret Weinstein y Heather Heying, respetados profesores titulares en el Evergreen State College, donde su política de compasión con Occupy Wall Street estaba en sintonía con el espíritu progresista de la escuela. Hoy han dejado sus trabajos, han perdido a muchos de sus amigos y han puesto en peligro su reputación. Todo ello porque se opusieron a un “Día de Ausencia”, en el cual a los estudiantes blancos se les pidió que abandonaran el campus por un día. Por cuestionar un día de segregación racial encubierto de progresismo, la pareja fue tildada de racista. Después de las amenazas, salieron de la ciudad por un tiempo y, finalmente, renunciaron a sus empleos.

El filósofo y neurocientífico Sam Harris dice que su momento llegó en 2006, en una conferencia en el Instituto Salk con Richard Dawkins, Neil deGrasse Tyson y otros científicos prominentes. Harris argumentó algo que, a su juicio, era obvio: no todas las culturas son igualmente propicias para el florecimiento humano. Algunas son superiores a otros, aunque solo sea por lo que aducía Jared Diamond en Armas, gérmenes y acero, catedrático de geografía y fisiología en la Universidad de California en Los Ángeles (UCLA). “Hasta ese momento yo había estado criticando la religión, por lo que las personas que odiaban lo que tenía que decir estaban mayormente a la derecha”, señaló Harris. “Esta fue la primera vez que entendí completamente que tenía un problema equivalente con la izquierda secular”.

Otro ejemplo. En 2017, Sergei Tabachnikov y Theodore Hill publicaron un estudio en Mathematical Intelligencer donde se proponía un modelo matemático para explicar que hubiera más variabilidad de inteligencia entre los hombres y las mujeres (es decir, que hay más genios entre el género masculino, pero también más idiotas). El estudio fue aceptado tras una revisión por pares, pero finalmente se retiró su publicación por la presión de la asociación Women in Matoematics de la Universidad Estatal de Pensilvania, entre otros. Un artículo científico solo se retira si se demuestra que hay fraude académico, no porque las ideas que desliza no encajen con nuestra ideología. El youtuber Un Tío Blanco Hetero explica este caso con más detalle en el siguiente vídeo:

Entre los que forman parte de forma más o menos explícita de la Intellectual Dark Web encontramos a Steven Pinker, Michael Shermer, Stephen Hicks, Heather Heying, Gad Saad, Jonathan Haidt, Jordan Peterson… incluso en España podemos encontrar ejemplos equivalentes, como es el caso de Marta Iglesias, que también ha provocado reacciones airadas en Twitter por su trabajo, y que también ha publicado en Quillettetextos como Why Feminists Must Understand Evolution. En latinoamérica tenemos el caso de Roxana Kreimer, tuitera licenciada en Filosofía y doctora en Ciencias Sociales de la Universidad de Buenos Aires que aborda los perjuicios que sufren mujeres y hombres por su sexo.

A pesar de estar en una misma organización de herejes, son pocos los puntos que tienen en común los miembros del Intellectual Dark Web, salvo quizá los siguientes. Que hay universales culturales, es decir, que algunos rasgos nacen de la biología, y no de la crianza, que las diferencias biológicas y psicológicas entre hombres y mujeres son reales y están bien documentadas, que la política de identidad es una tontería polarizante, que la cortesía al dirigirse a los oponentes solo confiere capacidad de persuadir, que los snowflakes son una lacra, que lo woke es demagogia dopada con culpa judeocristiana, que los Social Justice Warriors son contraproducentes a pesar de sus buenas intenciones y que la libertad de expresión es la condición sine qua non de la sociedad civil, sin excepciones, lo que permite hablar desde cualquier punto de vista de temas espinosos como la religión, el aborto, la inmigración o la naturaleza de la conciencia. En todo lo demás, no podrían ser más distintos. Apoyan formaciones políticas diametralmente opuestas: hay votantes de Bernie Sanders, Hillary Clinton, Gary Johnson e incluso Donald Trump.

No les importa. Solo faltaría que empezaran a censuar de las ideas de sus compañeros de club solo porque tienen opciones políticas que les parecen malignos o peligrosos para el futuro de la civilización. Al menos, en carne propia, han tenido posiblidad de comprobar lo que pasa cuando la mayoría actúan con arreglo a esas dinámicas.

Xataka en Instagram

https://www.xatakaciencia.com

Acebook

La versión ética de Facebook, solo podría surgir en Europa. Y lo está haciendo

Logotipo de Facebook, desplegado en la pantalla de un móvil.
Logotipo de Facebook, desplegado en la pantalla de un móvil. LOIC VENANCE (AFP)

 

Voy a escandalizar al lector, pero debo decir que corren buenos tiempos para Europa. Al menos en un sector de poder incógnito, de importancia capital y creciente: las redes, la inteligencia artificial y el comercio planetario con los grandes datos, con tus datos y los míos, desocupado lector. Este es un mundo —nuestro mundo— en el que un puñado de alumnos aventajados de la intelligentsianorteamericana, nativa o adoptiva, se afincó en Silicon Valley para conquistar desde allí los hábitos, los gastos y el pensamiento de medio planeta. Han sorbido el seso a un par de generaciones, por no hablar de sus padres, que están más enganchados aún que los hijos a esta forma futurista de la estupidez humana.

 

Y solo Europa puede parar los pies alados de estos gigantes de silicio y barro. En un rasgo de genio, el editorialista de The Economist nos pide imaginar una empresa llamada Acebook. Con solo quitar una efe, el libro de caras (Facebook) se convierte en un libro de ases (Acebook). Esta empresa ficticia te ofrece garantías de privacidad y reconoce tu contribución con un porcentaje de los (obscenos) beneficios que obtiene gracias a tus datos: gracias a saber qué compras, por dónde te mueves, qué buscas en Google, cuáles son tus gustos musicales, tus tendencias políticas, tu talento para hipotecarte, a qué dedicas el tiempo libre. Esa Acebook, la versión ética de Facebook, solo podría surgir en Europa. Y lo está haciendo. Con la característica gracilidad de hipopótamo que tanto deleita a los brexiters, pero también con el peso aplastante de ese artiodáctilo subsahariano amante del agua y que pasará a la prehistoria como el primo tonto de las ballenas. Tonto pero eficaz: por eso sigue vivo.

La Unión Europea acaba de atizarle a Google un multazo de 1.500 millones de euros por yugular a sus competidores en el mercado de la publicidad, y tiene en la tubería una ley de protección de la propiedad intelectual que, como parece lógico, puede dejar hechos polvo los almacenes de dinero del tío Gilito que ha amasado la empresa a base de distribuir el trabajo de otros sin pagarles un céntimo. Puedes llamarlo genio empresarial o piratería industrial. A los productores de contenidos nos da igual mientras el capitán pirata, cantando alegre en la popa, nos pague por el trabajo. Y que lo haga en Europa.

La Regulación General de Protección de Datos (GDPR en inglés) que ha promulgado Bruselas tras una juiciosa consideración y el debido procedimiento democrático es la primera iniciativa legal que pretende devolver a las personas el control sobre sus datos, incluido el derecho a participar de los beneficios que la empresa ha obtenido gracias a ellos. Facebook, Microsoft, Apple, Amazon y Alphabet (la matriz de Google) venden una cuarta parte de sus productos en Europa, lo que en sí mismo conforma un argumento para que los big five de Silicon Valley, que ganaron el año pasado 150.000 millones de dólares, se vayan adaptando a la regulación del viejo continente. El segundo argumento es que un país tras otro están importando la GDPR en sus sistemas legales, o usándola como inspiración. Si la ética no funciona como argumento, la economía lo acabará haciendo.

Y sí, amigos, la siguiente medida que impulsará Europa será la “interoperabilidad”, horrible término para el noble concepto de que, si te da la gana, te puedas llevar todos tus contactos de Facebook a Acebook. Si Acebook no existe, Europa tendrá que inventarla.

https://elpais.com

¿Qué efecto tiene Facebook en tu salud mental?

¿Qué efecto tiene Facebook en tu salud mental?

A participantes de un estudio de la Universidad de Stanford les tuvieron que pagar 100 dólares en promedio para renunciar a Facebook durante un mes. Al final, estaban menos polarizados políticamente que las personas en un grupo de control. CreditMarcio Jose Sanchez/Associated Press

Read in English

[Si quieres recibir los mejores reportajes de The New York Times en Español en tu correo, suscríbete aquí a El Times]

No es fácil acabar con el hábito digital más común del mundo, ni siquiera en un arranque de ira moral ante los riesgos relacionados con la privacidad y las divisiones políticas que ha creado Facebook, o en medio de las preocupaciones acerca de cómo el hábito afecta la salud emocional.

Aunque cuatro de cada diez usuarios de Facebook afirman haberse tomado largos descansos de la red social, la plataforma digital sigue creciendo. Un estudio reciente reveló que al usuario promedio se le tendrían que pagar entre 1000 y 2000 dólares por alejarse de su cuenta durante un año.

Entonces, ¿qué sucede si renuncias de verdad? Un nuevo estudio, el más completo hasta la fecha, ofrece un adelanto.

Debes saber que verás las consecuencias de inmediato: pasarás más tiempo con amigos y familia en persona. Sabrás menos acerca de la política, pero también serás menos propenso a la fiebre partidista. Tendrás ligeros cambios de humor en el día y estarás satisfecho con la vida. Y, si eres como el usuario promedio de Facebook, tendrás una hora de ocio extra al día.

El estudio, realizado por investigadores de las universidades de Stanford y de Nueva York, ayuda a esclarecer la discusión respecto a la influencia de Facebook en la conducta, el pensamiento y la política de sus usuarios activos mensuales, quienes suman unos 2300 millones en todo el mundo. El estudio se publicó hace poco en el sitio web de acceso público Social Science Research Network.

Un cuerpo de psicólogos ha argumentado durante años que el uso de Facebook y otras redes sociales está relacionado con problemas mentales, en especial en adolescentes. Otros han comparado el uso habitual de Facebook con una enfermedad mental, con una adicción a las drogas e incluso han publicado imágenes de resonancias magnéticas que muestran “cómo se ve la adicción a Facebook en el cerebro”.

Cuando Facebook  publicó sus propios análisis para refutar esas aseveraciones, la compañía ha sido ampliamente criticada.

Un directivo de prensa de Facebook declaró lo siguiente acerca del nuevo ensayo que el propio estudio mencionaba: “Facebook genera grandes beneficios para sus usuarios”, y “cualquier debate acerca de los inconvenientes de las redes sociales no debería opacar el hecho de que cumplen con necesidades profundas y generalizadas”.

El nuevo estudio, una prueba aleatoria, esboza una imagen matizada y equilibrada del uso diario que probablemente no satisfaga a quienes critican la plataforma ni a quienes la apoyan.

(El ensayo, junto con análisis similares realizados por otros grupos de investigación, aún no ha pasado por la revisión de otros expertos. The New York Times les pidió a cinco expertos independientes que revisaran la metodología y los descubrimientos).

Los investigadores (dirigidos por Hunt Allcott, profesor adjunto de Economía en la Universidad de Nueva York, y Matthew Gentzkow, un economista de Stanford) usaron anuncios de Facebook para reclutar a participantes mayores de 18 años para que pasaran al menos quince minutos al día usando la plataforma; el promedio diario fue de una hora, mientras que quienes la usaban con más frecuencia lo hacían entre dos y tres horas, o más.

Casi tres mil usuarios aceptaron y llenaron largos cuestionarios en los que se les preguntaba acerca de sus rutinas diarias, sus opiniones políticas y su estado mental en general.

A la mitad de los usuarios se les pidió al azar que desactivaran su cuenta de Facebook durante un mes a cambio de un pago. El precio pactado para el pago fue un tema de gran interés para los investigadores: ¿cuánto vale el acceso mensual a fotografías, comentarios, grupos de Facebook, amigos y noticias? El estudio reveló que el costo es de aproximadamente 100 dólares en promedio.

Durante el mes de abstinencia, el equipo de investigadores revisó con regularidad las cuentas de Facebook de los participantes para asegurarse de que quienes habían aceptado alejarse de la plataforma no las reactivaran. (Solo el uno por ciento lo hizo).

Los participantes también recibieron mensajes de texto de manera regular para evaluar sus estados de ánimo. Se cree que esta especie de monitoreo en tiempo real produce una evaluación psicológica más precisa que, por ejemplo, un cuestionario proporcionado días más tarde.

Algunos participantes afirmaron que no habían notado los beneficios de la plataforma hasta que la cerraron. “Por supuesto, extrañé mi conexión con la gente, pero también ver los eventos en vivo por Facebook Live, en especial los de política, cuando sabes que estás viendo el contenido junto con otras personas interesadas en lo mismo”, comentó Connie Graves, de 56 años, una enfermera profesional a domicilio en Texas que participó en el estudio. “Y me di cuenta de que también me gusta tener un lugar donde pueda obtener toda la información que deseo: pum, pum, pum, ahí está”.

Ella y el resto de quienes se abstuvieron tuvieron acceso al servicio de mensajería de Facebook a lo largo del estudio. Messenger es un producto diferente y el equipo de investigación decidió permitirlo porque es muy similar a otros servicios de comunicación interpersonal.

Al finalizar el mes, quienes se abstuvieron y los sujetos de control volvieron a responder largos cuestionarios que evaluaban los cambios en su estado mental, su conciencia política y su pasión partidista, así como las fluctuaciones de sus actividades diarias (en línea y desconectados), desde el inicio del experimento.

Para los abstemios, la ruptura con Facebook les liberó una hora al día en promedio y más del doble a los usuarios más asiduos. También reportaron que habían pasado más tiempo desconectados, incluyendo el tiempo que pasaron con amigos y familia y viendo televisión.

“Yo habría esperado un índice mayor de uso de otras plataformas digitales en sustitución de Facebook (Twitter, Snapchat, navegación en línea)”, comentó Gentzkow, de Stanford. “No fue así y, al menos, en lo que a mí respecta, fue una sorpresa”.

El resultado más sorprendente del estudio podría ser que el hecho de desactivar Facebook tuvo un efecto pequeño, pero positivo en los estados de ánimo de las personas y en la satisfacción que sentían con su vida. El descubrimiento modifica la suposición generalizada de que el uso habitual de las redes sociales puede ocasionar problemas psicológicos reales.

Una investigación previa no logró distinguir si los problemas con el estado de ánimo se presentaban después del uso prolongado, o si las personas malhumoradas tendían a ser las usuarias más frecuentes. El estudio nuevo sustentó esta última explicación.

En una entrevista, Ethan Kross, profesor de Psicología en la Universidad de Míchigan, quien ha hecho investigaciones previas respecto al estado de ánimo y el uso de las redes sociales, afirmó que era demasiado pronto para sacar conclusiones respecto a los efectos psicológicos de abandonar Facebook. Mencionó dos estudios recientes, aleatorios y de menor tamaño, en los que se descubrió que el estado de ánimo de los usuarios mejoraba cuando se les restringía el acceso a las redes sociales.

“Necesitamos saber más acerca de cómo impacta el uso de las redes sociales en el estado de ánimo y cuándo, no solo concluir que la correlación no existe”, o que es muy leve, aseguró Kross.

Hasta ahora, la discusión respecto a los efectos de las redes sociales en la salud mental también se ha enfocado, en su mayoría, en niños y adolescentes, no en la población de mayor edad que fue el objeto de este nuevo estudio.

“Es absolutamente posible, y probable, que la dinámica de las redes sociales y el bienestar sea diferente para los adolescentes que para las personas de 30 años en adelante”, afirmó Jean Twenge, psicóloga y autora de iGen: Why Today’s Super-Connected Kids Are Growing Up Less Rebellious, More Tolerant, Less Happy.

Los psicólogos y los informáticos han presentado el argumento de que las redes sociales son adictivas, y muy pocos usuarios habituales de Facebook estarían en desacuerdo. El nuevo experimento proporcionó mucha evidencia que lo sustenta: al concluir, los participantes que abandonaron la red social durante un mes dijeron que planeaban usar Facebook con menor frecuencia, y lo hicieron, por lo que redujeron su viejo hábito… al menos durante un tiempo.

Aproximadamente el diez por ciento seguía absteniéndose una semana después, en comparación con el tres por ciento del grupo de control, que había desactivado su cuenta de manera voluntaria; y el cinco por ciento se seguía absteniendo dos meses más tarde, en comparación con el uno por ciento en el grupo de control.

Los incentivos financieros tuvieron resultados similares. Después de que finalizó el periodo de un mes del estudio, los investigadores les preguntaron a quienes se abstuvieron cuánto dinero necesitarían que se les pagara, hipotéticamente, para mantenerse desconectados de Facebook durante otro mes. Esta vez, el costo se redujo por debajo de los 100 dólares… aunque no en todos los casos.

“Les pedí 200 dólares por otras cuatro semanas”, contó Graves, la participante de Texas quien aún no ha vuelto a Facebook. “Mínimo”.

https://www.nytimes.com/es/

Frente a la desinformación

En las redes sociales la mentira juega con ventaja frente a las afirmaciones verdaderas porque a menudo reafirma aquello en lo que creemos o deseamos creer

Usuarios de móviles ante el logo de Facebook. rn
Usuarios de móviles ante el logo de Facebook. DADO RUVIC REUTERS

 

El año 2018 ha sido abundante en fake news. En Brasil, el candidato Bolsonaro se benefició de la campaña de desinformación orquestada contra sus adversarios a través de WhatsApp. En India, más de 20 personas fueron linchadas a muerte a raíz de rumores, difundidos de nuevo por WhatsApp, sobre el secuestro de niños y el sacrificio de vacas, animal sagrado entre los hindúes, por parte de intocables y musulmanes. Y sin duda uno de los casos donde la incitación al odio a través de las redes ha tenido mayor repercusión ha sido el de Myanmar. Allí en los últimos cinco años el Ejército se ha dedicado a organizar en Facebook una sistemática campaña de propaganda contra la minoría musulmana rohingya, alentando el asesinato al servicio de la mayor migración forzosa de los últimos tiempos, la de 700.000 personas en un caso que la ONU ha tildado de limpieza étnica.

Las llamadas fake news, convertidas en signo de la era Trump, son información falsa cuyo punto de arranque suele incluir datos reales y que mediante un proceso de propagación, a veces espontáneo, otras intervenido por actores interesados, adquieren carta de naturaleza. La manipulación de la información ha existido siempre: desde las profecías en la antigüedad, hasta las teorías de conspiración alimentadas por el antisemitismo, como el libelo de los “protocolos de Sion” surgido en la Rusia zarista, explotado por el régimen de la Alemania nazi y en la actualidad revivido en países islámicos. Lo que no tiene precedente es la envergadura masiva y extrema que ha adquirido a través de las plataformas sociales, cuyo modelo de negocio se presta a acelerar la difusión de noticias de contenido falso, al ser éstas las que mayor atención acaparan, las que más se consumen y, por tanto, las que incrementan beneficios.

A todo ello hay que añadir que, al contrario de lo que dicta el sentido común, los individuos tienden a aferrarse a sus opiniones, aun sabiendo que no son ciertas, especialmente en el ámbito de la política. Este año, una investigación del MIT publicada en la revista Science presentó conclusiones inquietantes: en Twitter las noticias y rumores de contenido engañoso tienen un 70% más de posibilidades de ser retuiteadas que las imparciales. En las redes sociales la mentira juega con ventaja frente a las afirmaciones verdaderas porque a menudo reafirma aquello en lo que creemos o deseamos creer, así como lo que más tememos, nuestros miedos más arraigados. Incluso allí donde se presenta evidencia de lo contrario, las personas por lo general preferirán aferrarse a sus ideas: la creencia es contumaz.

Ante esta situación, los regímenes cerrados, como el de China y Rusia, puede blindarse y controlar los medios. No es el caso de las democracias, expuestas a la desinformación en cuanto que sociedades abiertas, pero también más resilientes y capaces de tomar medidas para combatirla.

https://elpais.com

Los problemas de un mundo tecnológico donde todo es fácil

Los problemas de un mundo tecnológico donde todo es fácil

CreditCorey Brickley

Read in English

Hace siete años, un Mark Zuckerberg más joven y desenfadado subió al escenario en la conferencia anual de desarrolladores de Facebook y anunció un gran cambio en el diseño de la red social.

Hasta ese momento, las aplicaciones conectadas a Facebook les preguntaban de manera constante a los usuarios si querían publicar su actividad más reciente en su sección de noticias en la red social. Esos mensajes —de aplicaciones como Spotify, Netflix y The Washington Post— eran molestos, dijo Zuckerberg, así que la empresa había creado una nueva categoría de aplicaciones que podrían publicar directamente en las secciones de noticias de los usuarios, sin pedirles permiso cada vez.

“De ahora en adelante, será una experiencia sin fricción”, dijo Zuckerberg.

De todas las frases populares en el sector tecnológico, quizá ninguna se ha usado con tanta convicción filosófica como “sin fricción”. En la última década, más o menos, eliminar la “fricción” —el nombre que se le da a cualquier cualidad que haga al producto más difícil de usar o que tome más tiempo— se ha convertido en una obsesión en la industria de la tecnología, y muchas de las empresas más grandes del mundo la han adoptado como ley.

Airbnb, Uber y cientos de empresas emergentes más han generado miles de millones de dólares al reducir el esfuerzo necesario para rentar habitaciones, pedir taxis y completar otras tareas irritantes.

Cuando una empresa fracasa, a menudo se ve a la fricción excesiva como el motivo: “Si haces que el consumidor realice cualquier cantidad de esfuerzo adicional, sin importar en qué industria trabajes, te conviertes en blanco de la irrupción”, escribió Aaron Levie, director ejecutivo de la empresa de almacenamiento en la nube Box, en 2012.

No tiene nada de malo facilitar las cosas, en la mayoría de los casos, y la historia de la tecnología está llena de ejemplos de avances asombrosos que se dieron gracias a la reducción de la complejidad. Sospecho que ni siquiera los luditas acérrimos quieren regresar a la época de los carruajes halados por caballos y los radios de manivela.

Sin embargo, vale la pena preguntar si algunos de nuestros desafíos tecnológicos más grandes podrían resolverse si las cosas fueran ligeramente menos sencillas.

Después de todo, el diseño sin fricciones de las plataformas de redes sociales como Facebook y Twitter, que vuelve excesivamente fácil transmitir mensajes a audiencias enormes, ha sido la fuente de innumerables problemas, entre ellos las campañas de influencia desde otros países, la desinformación viral y la violencia étnica. La función sin fricción más famosa de YouTube —la reproducción automática de otro video en cuanto se acaba el anterior— ha creado un efecto de agujero negro que a menudo lleva a los espectadores por una espiral de contenido cada vez más extremo.

“La falta de fricción del internet está muy bien, pero ahora nuestra devoción a minimizarla es quizá el eslabón más débil de la red en cuanto a la seguridad”, escribió en noviembre Justin Kosslyn, gerente de producto en Jigsaw, una rama de Alphabet que se dedica a la seguridad digital, en un ensayo para el sitio de tecnología Motherboard.

He hablado con más de una decena de diseñadores, gerentes de producto y ejecutivos tecnológicos acerca de los principios del diseño sin fricción en las últimas semanas. Muchos dijeron que hacer que los productos sean más fáciles de usar daba buenos resultados, pero que sí había casos en que la fricción pudo haber sido útil para prevenir daños y para facilitar que los usuarios tuvieran conductas más sanas.

Bobby Goodlatte, exdiseñador de Facebook que ahora es inversionista para empresas emergentes, me dijo que la cultura de optimización del sector tecnológico “presupone que la reducción de la fricción es virtuosa por sí misma”.

“Hace que nos preguntemos si ‘podemos’ en lugar de preguntarnos si ‘debemos’”, comentó.

Varias personas elogiaron el movimiento de Time Well Spent, que es encabezado por Tristan Harris, quien fuera especialista en ética de diseño para Google y cofundador del Center for Humane Technology. Entre otras cosas, el grupo ha ejercido presión de manera exitosa sobre empresas como Facebook y Apple para que tomen medidas con el fin de frenar la adicción a la tecnología al incluir funciones que animen a los usuarios a limitar el tiempo que pasan frente a las pantallas.

Algunos se lamentaron de que, en la carrera de la industria tecnológica hacia la conveniencia, se había perdido algo importante.

“Queríamos aumentar la interacción y, por lo tanto, hicimos que las cosas tuvieran tan poca fricción como fuera posible”, dijo Jenna Bilotta, gerente de diseño que ha trabajado en Google. “Creamos todo un mundo de aplicaciones en las que el usuario tenía que hacer lo mínimo y eso está afectando la salud mental de la gente”.

A menudo, invocar el concepto de la fricción es una manera útil de ocultar un objetivo más grande y menos loable. Para Facebook, la “experiencia sin fricción” para compartir contenido era una manera poco velada de referirse al verdadero objetivo de la compañía: hacer que los usuarios publiquen más a menudo y aumentar la cantidad de datos disponibles para anuncios dirigidos a personas específicas. Para YouTube, los videos que se reproducen en automático han aumentado drásticamente el tiempo que los usuarios pasan viendo videos, por lo que también se extendió la rentabilidad de la plataforma. Para Amazon, herramientas como los pedidos con un solo clic han creado toda una maquinaria para el comercio y el consumo.

Hay señales de que algunas empresas tecnológicas están comenzando a valorar los beneficios de la fricción. WhatsApp limitó la función de reenviar mensajes en India después de que varias cadenas virales con desinformación provocaron disturbios. Además, YouTube hizo más estrictas sus reglas respecto a cómo los canales obtienen ganancias publicitarias para que sea más difícil que quienes envíen mensajes indeseados, o spammers, así como extremistas abusen de la plataforma.

Más cambios como estos serían bienvenidos, incluso si disminuyen la interacción en un corto plazo.

Hay muchas posibilidades: ¿qué pasaría si Facebook dificultara más la transmisión de desinformación viral con “topes” algorítmicos para que una publicación controvertida tarde más en ser divulgada hasta que los verificadores la evaluaran? ¿O si YouTube les diera a los usuarios la opción de elegir entre dos videos cuando su video terminara, en vez de autorreproducir la siguiente recomendación? ¿O si Twitter desalentara los mensajes masivos de agresiones y acoso al dificultar que quienes no han seguido a una cuenta durante cierto número de días pueda responder a los tuits de ese usuario?

Quizá incluso haya un argumento comercial a favor de la complejidad.

Consideremos lo que pasó con Tulerie, una empresa emergente neoyorquina que crea una plataforma que les permite a las mujeres compartir ropa de diseñador. Merri Smith, cofundadora de Tulerie, me contó una historia fascinante de los primeros días de la empresa. Al comienzo, dijo Smith, la compañía invitaba a mujeres a que se unieran a la plataforma después de contestar una encuesta breve de Google, que enviaba por correo a cientos de posibles miembros.

“Queríamos evitar la fricción en la medida de lo posible, aunque a la vez debíamos examinar a los solicitantes”, comentó.

No obstante, solo una persona contestó la encuesta. Así que Smith y su cofundadora decidieron probar un enfoque más complicado: cualquiera que quisiera unirse primero debía realizar una breve videollamada con un empleado de la empresa.

Según la lógica, la nueva estrategia debió haber fallado, pero fue un gran éxito. Los posibles miembros inundaron la lista de invitados y ocuparon todas las semanas de entrevistas programadas de manera anticipada. Al crear una inscripción más compleja, Tulerie envió la señal de que su servicio era especial y de que valía la pena el esfuerzo.

“Se basa en los valores”, dijo Smith. “La gente percibe que es más difícil entrar y quieren ser parte de la plataforma”.

Hay razones prácticas y filosóficas para preguntarse si ciertas tecnologías deben optimizarse para ser un poco menos “convenientes”. No confiaríamos en un médico que diera prioridad a la velocidad por encima de la seguridad, ¿por qué confiaríamos en una aplicación que lo hace?

Los tres mandamientos de la propaganda más rastrera en internet

Los tres mandamientos de la propaganda más rastrera en internet

Los lobbies lo saben. Las empresas lo saben. Los Gobiernos lo saben. Y las ONG y plataformas civiles lo saben. Sus miembros más implacables han comprendido que pueden alcanzar más fácilmente sus objetivos si despliegan una campaña digital de intoxicación. Estos son los tres mandamientos que deben cumplir para conseguirlo.

Primer mandamiento: dominarás la conversación sobre todas las cosas

El emisor tiene que asegurarse de que hay miles de personas al otro lado. Para ello recurrirá a opiniones y mensajes poderosos (incendiarios) canalizados por miles de cuentas robóticas que, si están mínimamente bien diseñadas, parecerán humanas.

Fue el caso de Angee Dixson, una presunta influencer tuitera de extrema derecha que animó la confrontación que provocaron los supremacistas blancos en Charlottesville el año pasado. Después, parece que aburrida con sus propias mentiras, pasó a documentar ejemplos (falsos) de terrorismo de extrema izquierda por todo Estados Unidos. Su popularidad se antojaba prodigiosa en un medio –las redes sociales– donde los seguidores otorgan inexplicablemente credibilidad.

Angee Dixson era solo uno de los 60.000 perfiles de bots rusos que se localizaron entonces y el día que el medio de comunicación ProPublica la identificó como tal, y la echaron de Twitter, no cambió casi nada. La sucedió Lizynia Zikur, otro bot que acusó a ProPublica de propaganda de extrema izquierda y cuyas difamaciones consiguieron más repercusión que la propia información que había dejado en evidencia a su compañera.

Algunos de los mensajes de Zikur contaron con la propulsión instantánea de 24.000 retuits, algo que, evidentemente, dio la sensación a muchos usuarios de que existía cierto consenso político. Antes esto, muchos podían responder de dos formas: callarse para no desafiar a una turba abrumadora o dejarse seducir por los mensajes más soft de los radicales. Fueron equidistantes porque los habían acobardado.

Segundo mandamiento: crearás (y destruirás) a los personajes de los que la gente se fíe

La creación de líderes de opinión de nicho nace de una industria que demanda personas que sepan conectar con audiencias muy específicas y que, al mismo tiempo, no exijan honorarios siderales. La agencia Mediakix prevé que las empresas destinarán más de 1.500 millones de dólares al marketing deinfluencers de Instagram este año. Los profesionales del fraude, igual que los intachables, se han multiplicado después de oler el rastro del dinero.

Para demostrar lo fácil que es engañar, Mediakix creó en 2017 los perfiles falsos de dos influencers de estilo de vida con 300 y 800 dólares respectivamente y consiguió defraudar a las marcas para que les ofrecieran productos por la cara. Diseñar una celebrity de nicho no es costoso y, por eso, Angee Dixson y Lizynia Zikur, esas musas de extremistas, ni actuaron en solitario ni eran productos de lujo.

Como sugieren los analistas P.W. Singer y Emerson T. Brooking en el libro LikeWar, los líderes de opinión de nicho, cuando participan en debates políticos, se presentan como personas fiables bien sea por su cargo (encabezan alguna institución pequeña pero aparentemente solvente), por su vocación como fuente de información alternativa a la dictadura del pensamiento políticamente correcto o por su perfil biográfico (aquí tenemos una gama amplia que va desde abuelitas sentimentales a gente con las que pueden empatizar ciertos colectivos como, por ejemplo, personas en paro).

Normalmente, estos perfiles están robotizados o, como en el caso de las ‘web brigades’ rusas, los gestiona una persona que lleva varias cuentas a la vez. Su lugar natural son los espacios donde se debaten asuntos políticos y su misión consiste en crear discusiones estridentes, captar seguidores que admiren su contundencia y filtrar teorías de la conspiración. Estos siniestros animadores de disputas reciben buena parte de su salario en variable.

Como el objetivo es que la verdad o no se perciba entre el ruido o acabe convertida en una versión tan válida como las mentiras que inyectan, también resulta crucial destruir la credibilidad de los adversarios. Según la consultora de ciberseguridad Trend Micro, erosionar fatalmente la reputación de un periodista incómodo en las redes puede rondar los 55.000 dólares.

El menú incluirá noticias falsas sobre él con 50.000 retuits por semana durante un mes, un vídeo de YouTube donde se generen cerca de 100.000 visitas y la agregación de unos 200.000 seguidores robóticos a la cuenta del periodista que se ocuparán de vomitar unos 12.000 comentarios negativos sobre sus intervenciones. Esos comentarios generarán 10.000 likes o retuits aproximadamente. Aquí el objetivo no pasa sólo por minar su reputación, sino también por desmoralizar al periodista y sus editores.

Tercer mandamiento: provocarás tu propia demanda de mentiras y no dejarás un rastro fácil de seguir

La Ley de Say -la oferta crea su propia demanda- se ha impuesto como una regla de oro para la ciberpropaganda. Las mentiras que mejor funcionan tejen un relato conspiranoico o, al menos, confirman y explican algunas de las sospechas infundadas de la audiencia.

Deben ser fáciles de entender y de comunicar y provocar la incontenible necesidad de compartir el mensaje. Esa pulsión se puede cultivar con supuestas coberturas al minuto de una investigación que destapa una turbia trama y empleando plataformas especialmente adictivas como Instagram. Todo esto es importante porque si además un amigo, que tiene nuestros propios prejuicios, llama nuestra atención sobre una mentira verosímil, las probabilidades de que nos la traguemos se disparan.

La imagen es fundamental desde dos puntos de vista. Para empezar, frente al texto, los vídeos breves son más fáciles y rápidos de consumir (y se consumen hasta el final), provocan una interacción mayor con el usuario y son mucho más eficaces a la hora de atraer y retener su atención. En segundo lugar, la imagen puede ser excepcionalmente barata de producir: no hace falta crear un vídeo de alta gama como los de los yihadistas del Daesh, sino que basta con la grabación de un monólogo con un fondo neutro o con la generación de un meme simpático que esconda un mensaje de odio que ni nos divertiría ni compartiríamos en otro contexto.

Ese meme de odio, igual que los vídeos y los comentarios de acoso, contiene una virtud adicional. No sólo posee un origen difícil de rastrear, sino que, muchas veces, forma parte de una campaña descentralizada. Sus integrantes son grupos frontales (asociaciones controladas indirectamente o alentadas por estados, partidos políticos, ONG, asociaciones o empresas), mercenarios independientes (los jóvenes de Macedonia que ganaron mucho dinerodifundiendo contenidos favorables a Trump, pero sin coordinarse con su campaña) y usuarios fáciles de movilizar y reunidos en grupos fanáticos (como los simpatizantes obsesionados con un partido o una causa política).

Estos usuarios, los mercenarios independientes y los grupos frontales casi nunca se pueden relacionar directamente con el beneficiario de las mentiras. Ellos le allanarán el camino, destrozarán a sus adversarios, le harán parecer más moderado y sensato y lo auparán sin que nadie puede acusarlo de haber lanzado la campaña.

https://www.yorokobu.es/

Si la inteligencia artificial nos miente, ¿cómo nos daremos cuenta?

Si la inteligencia artificial nos miente, ¿cómo nos daremos cuenta?

CreditFranziska Barczyk

Read in English

A mediados de 2016, antes de la elección presidencial en Estados Unidos, John Seymour y Philip Tully, dos investigadores de ZeroFOX, una empresa de seguridad en Baltimore, develaron un nuevo tipo de bot de Twitter. Analizando los patrones de actividad en la plataforma, el bot aprendió a engañar a los usuarios para que dieran clic en enlaces de tuits que llevaban a sitios potencialmente peligrosos.

El bot, llamado SNAP_R, era un sistema automatizado de fraude por suplantación de identidad (phishing), capaz de aprovechar los gustos de cada persona con el fin de convencerlos de descargar sin saberlo programas espía en sus máquinas. “Los arqueólogos creen haber encontrado la tumba de Alejandro Magno está en Estados Unidos por primera vez: goo.gl/KjdQYT”, le tuiteó el bot a un usuario desprevenido.

Incluso con esos errores gramaticales, SNAP_R logró que los usuarios dieran clic hasta en un 66 por ciento de las veces, al igual que los hackers humanos que crean mensajes electrónicos fraudulentos para robar datos.

El bot estaba desarmado: solo era una demostración. Sin embargo, tras la elección y la ola de preocupación por el ciberataque político, las noticias falsas y el lado oscuro de las redes sociales, ilustró por qué el panorama de la falsificación solo se volverá más lúgubre.

Ambos investigadores construyeron lo que se llama red neuronal, un complejo sistema matemático que puede aprender tareas analizando grandes cantidades de datos.

Una red neuronal puede aprender a reconocer a un perro mediante el procesamiento de patrones de miles de fotografías de perros. Puede aprender a identificar palabras habladas a partir de la revisión de viejas llamadas de soporte técnico.

Además, tal como lo demostraron los dos investigadores, una red neuronal puede aprender a escribir mensajes electrónicos fraudulentos inspeccionando tuits, publicaciones de Reddit y ciberataques en línea previos.

Actualmente, la misma técnica matemática está inyectándoles a las máquinas un amplio rango de capacidades similares a las humanas, desde el reconocimiento de voz hasta la traducción de lenguas. En muchos casos, esta nueva especie de inteligencia artificial (IA) también es una manera ideal para engañar a muchas personas en internet. La manipulación en masa está a punto de volverse mucho más sencilla.

“Sería muy sorprendente que las cosas no fueran en esa dirección”, dijo Shahar Avin, investigador en el Centro para el Estudio de Riesgos Existenciales en la Universidad de Cambridge. “Todas las tendencias apuntan en esa dirección”.

Muchos observadores tecnológicos han expresado preocupación por el ascenso de la IA que genera deepfakes, es decir, imágenes falsas que parecen reales. Lo que comenzó como una manera de poner la cabeza de quien sea en el cuerpo de una estrella porno se ha convertido en una herramienta para poner cualquier imagen o audio en cualquier video de manera imperceptible.

En abril, BuzzFeed y el comediante Jordan Peele publicaron un videoque ponía ciertas palabras, entre ellas la frase “necesitamos estar más alertas respecto de las cosas en las que confiamos en internet”, en boca del expresidente estadounidense Barack Obama.

La amenaza solo se hará más grande conforme los investigadores desarrollen sistemas que puedan metabolizar y aprender de repositorios de datos cada vez más grandes. Las redes neuronales pueden generar sonidos e imágenes creíbles. Esto es lo que permite que los asistentes digitales como Siri de Apple suenen más humanos que lo que sonaban hace unos años.

Google ha construido un sistema llamado Duplex que puede llamar a un restaurante local, hacer reservaciones y hacer pensar a la persona que está del otro lado del teléfono que quien llama es una persona real. Se espera que el servicio llegue a los teléfonos inteligentes antes de que termine el año.

Los expertos desde hace mucho han tenido el poder de editar audios y videos. No obstante, a medida que estos sistemas de IA mejoren, se volverá más fácil y más barato que cualquiera genere contenido digital —imágenes, videos, interacciones sociales— que se vea y suene como si fueran real.

Inspirados por la cultura académica, los principales laboratorios de IA e incluso empresas públicas gigantes como Google publican abiertamente sus investigaciones y, en muchos casos, su código de software.

Con estas técnicas, las máquinas también están aprendiendo a leer y escribir. Durante años, los expertos cuestionaron si las redes neuronales podrían descifrar el código del lenguaje natural. Sin embargo, la situación ha cambiado en meses recientes.

Organizaciones como Google y OpenAI, un laboratorio independiente en San Francisco, han construido sistemas que aprenden las minucias de la lengua a gran escala —analizando todo, desde artículos de Wikipedia hasta novelas de romance de publicación independiente— antes de aplicar este conocimiento a tareas específicas. Los sistemas pueden leer un párrafo y responder preguntas al respecto. Pueden juzgar si la reseña de una película es positiva o negativa.

Esta tecnología podría mejorar los bots que se utilizan para mensajes fraudulentos por internet como SNAP_R. Actualmente, la mayoría de los bots de Twitter parecen bots, sobre todo cuando comienzas a responderles. En el futuro, ellos responderán también.

La tecnología también podría llevar a la creación de bots de voz que puedan mantener una conversación adecuada y, sin duda, uno de estos días te llamarán y te convencerán de proporcionar la información de tu tarjeta de crédito.

Estos sistemas de lenguaje están impulsados por una nueva ola de poder informático. Los ingenieros de Google han diseñado microprocesadores específicamente para entrenar redes neuronales. Otras empresas están construyendo microprocesadores similares y, conforme lleguen al mercado, acelerarán la investigación en torno a la IA aún más.

Jack Clark, director de políticas en OpenAI, puede ver un futuro no muy distante en el que los gobiernos creen sistemas de aprendizaje automatizado que intenten radicalizar a las poblaciones de otros países, o impongan ideas a su propio pueblo.

“Este es un nuevo tipo de control o propaganda social”, comentó. “Los gobiernos pueden comenzar a crear campañas dirigidas a individuos pero, al mismo tiempo, operar a través de muchas personas de manera paralela, con un objetivo más grande”.

Idealmente, la inteligencia artificial también podría proporcionar maneras de identificar y detener este tipo de manipulación masiva. A Mark Zuckerberg le gusta hablar de las posibilidades. Sin embargo, para el futuro previsible, enfrentamos una carrera armamentista de aprendizaje automático.

Por ejemplo, consideremos las redes generativas antagónicas (GAN): son un par de sistemas de redes neuronales que pueden generar automáticamente imágenes convincentes o manipular las existentes. Lo hacen jugando una suerte de dinámica del gato y el ratón: la primera red hace millones de cambios pequeños a una imagen ⎯se añade nieve a las escenas veraniegas de una calle, los osos pardos se transforman en pandas, los rostros falsos lucen tan convincentes que los espectadores los confunden con celebridades⎯ en un esfuerzo para engañar a la segunda red.

La segunda red hace lo mejor que puede para evitar que la engañen. Mientras ambas compiten, la imagen se vuelve más convincente y la IA que trata de detectar el contenido falso siempre pierde.

Detectar las noticias falsas es aún más difícil. Los humanos apenas pueden ponerse de acuerdo con respecto a qué cuenta como noticias falsas, ¿cómo podemos esperar que lo haga una máquina? Y si pudiera, ¿querríamos que lo hiciera?

Quizá la única manera de detener la desinformación es enseñarle a la gente de alguna manera a considerar con desconfianza extrema lo que ven en línea. No obstante, esa podría ser la solución más difícil de todas.

“Podemos utilizar la tecnología para reparar nuestros sistemas computacionales”, dijo Avin. “Pero no podemos reparar la mente de las personas”.

https://www.nytimes.com/es/