Archivo de la categoría: Google

Los cercos del algoritmo | Medios y comunicación | Página12

Fuente original: Los cercos del algoritmo | Medios y comunicación | Página12

Como siempre, recomiendo visitar el sitio del artículo original, para obtener mayor información del tema y, en este caso, para conocer el enorme trabajo periodístico de este medio independiente argentino.

Si tiene intención de hacerse socio de Página 12, colaborando económicamente con el medio, desde la siguiente página, se pueden leer las opciones: https://www.pagina12.com.ar/apps/membresias/ (No tengo ninguna relación comercial, laboral o personal con Página 12, salvo de ser ávido lector desde hace décadas).

Roberto Samar y Javier Cantarini explican cómo Facebook y Google segmentan las opiniones que se ven en los muros y en las búsquedas de acuerdo con la ideología del titular de las cuentas. Los riesgos de un mundo de guetos.

Hace tiempo que en tu cuenta de Facebook no aparece ninguna publicación de contactos con los que supiste compartir algún tramo de tu vida. Entonces lo buscas por su nombre y te das cuenta que sus publicaciones distan mucho de tus ideas y gustos. Un fuerte impulso por ver que apoya todas las expresiones que de alguna manera crees que son perjudiciales para la sociedad te hace dar gracias a la red social más consumida en Argentina por haberlo ocultado.

Pero si hacemos el ejercicio de ver más allá de nuestras narices y gustos podemos darnos cuenta que nos vamos construyendo un cerco social y comunicacional. O que, en verdad, nos construye el algoritmo que usa Facebook de acuerdo a nuestros clics.

Un cerco que también se fortalece con los servicios de noticias a los que estamos suscriptos que dirigen la información de acuerdos a nuestras preferencias. Si simpatizas con Cambiemos te llegará una catarata de noticias vinculadas al discurso de la mano dura o de estigmatización de la pobreza, pero seguramente no te enteres del aumento de la violencia institucional que denuncia la Coordinadora Contra la Represión Policial e Institucional.

Una situación similar se da en la industria del entretenimiento como Netflix que te satura con un contenido siempre idéntico, dificultando que puedas encontrar títulos alternativos que pueden poner en tensión tu mirada motivando así el ejercicio del pensamiento crítico. O el buscador de internet más utilizado, Google, que desde 2009 arroja distintos resultados a pesar que las personas busquen la misma palabra.

El integrante de MoveOn, Eli Pariser, ejemplifica en su texto el Filtro Burbuja que, con la personalización de Google, “la consulta ‘células madre’ puede producir resultados diametralmente opuestos en el caso de que los usuarios sean científicos que apoyen la investigación o activistas que se opongan. En otras palabras, ya no existe un Google estándar”.

En los consumos culturales y de noticias, siempre existió lo que se denominó una “exposición selectiva”. Es decir, que tendemos a exponernos a contenidos que nos son afines. La particularidad del momento actual, es que los discursos y contenidos que no coinciden con nuestros puntos de vista se nos vuelven invisibles por los filtros que producen las nuevas tecnologías.

Pariser afirma que “la nueva generación de filtros de internet observa las cosas que parecen gustarte”. Y que de esta manera “tu pantalla de ordenador es cada vez más una especie de espejo unidireccional que refleja tus propios intereses, mientras los analistas de los algoritmos observan todo lo que clicas”. En un mundo globalizado y en el que internet y las redes sociales se presentaron como la democratización de la información a gran escala ¿Qué sentido tiene que los mismos contenidos circulen entre las mismas personas?

“La era de una conexión cívica con la que tanto soñaba no ha llegado. La democracia precisa de ciudadanos que vean las cosas desde el punto de vista de otros, pero en vez de eso cada vez estamos más encerrados en nuestras burbujas”, sintetiza Parisir.

Todo hace pensar que estas nuevas estructuras comunicacionales podrían profundizar las grietas ideológicas. Ahora, el desafío que se nos presenta es construir puentes, espacios de diálogo que tal vez incomoden, pero que sí puedan poner en tensión esas burbujas, especialmente a las que sostienen y alimentan discursos anti-políticos, machistas, xenófobos y estigmatizantes que nos retrotraen a los momentos más oscuros y tristes de nuestra historia.

Roberto Samar es especialista en Comunicación y culturas UNCO. Docente de la UNRN

Javier Cantarini es Periodista. Integrante de la RED PAR. Diplomado en Comunicación con Perspectiva de Género y Derechos Humanos.

No hay una conspiración para estudiar cómo eras hace diez años: ya lo sabían – Nec Otium – Diario La Información

Fuente original: No hay una conspiración para estudiar cómo eras hace diez años: ya lo sabían – Nec Otium – Diario La Informacion

Como siempre, recomiendo leer el artículo en su sitio original.

El reto #10yearschallenge ha plagado internet de fotos tal como eramos hace una década. ¿Es una estrategia para tener más datos de los usuarios?

“La próxima revolución política será por el control de los algoritmos”

Fuente original: “La próxima revolución política será por el control de los algoritmos”

Palabra de dios. Por mandato real. Es la economía, estúpido. La historia ofrece constantemente ejemplos de cómo las personas recurrimos al mito de la autoridad superior para revestir de una supuesta justicia objetiva nuestras decisiones. Para Cathy O’Neil, los algoritmos son el siguiente mito en esa lista.

O’Neil, matemática doctorada en Harvard, posdoctorada en el MIT, fue una de las primeras en señalar que nuestro nuevo emperador también está desnudo. Un algoritmo (o la celebrada Inteligencia Artificial, que “no es más que un término de marketing para nombrar a los algoritmos”) es tan machista, racista o discriminador como aquel que lo diseña. Mal programados, pueden llegar a ser Armas de Destrucción Matemática (Capitán Swing), como detalla en su libro sobre el peligro que representan para la democracia.

Defiende que existe una diferencia entre lo que la gente piensa que es un algoritmo y lo que realmente es un algoritmo. ¿Cuál es?

La gente piensa que un algoritmo es un método para tratar de llegar a una verdad objetiva. Hemos desarrollado una fe ciega en ellos porque pensamos que hay una autoridad científica detrás.

En realidad un algoritmo es algo tonto, básicamente un sistema de perfiles demográficos generado a partir del big data. Averigua si eres un cliente que paga o cuáles son tus posibilidades para comprar una casa en base a pistas que has ido dejando, como cuál es tu clase social, tu riqueza, tu raza o tu etnia.

¿Qué es un arma de destrucción matemática?

Es un algoritmo importante, secreto y destructivo. Injusto para los individuos que evalúa.

Normalmente son un sistema de puntuación. Si tienes una puntuación lo suficientemente elevada se te da una opción, pero si no la consigues se te deniega. Puede ser un puesto de trabajo o la admisión en la universidad, una tarjeta de crédito o una póliza de seguros. El algoritmo te asigna una puntuación de manera secreta, no puedes entenderla, no puedes plantear un recurso. Utiliza un método de decisión injusto.

Sin embargo, no solo es algo injusto para el individuo, sino que normalmente este sistema de decisión es algo destructivo también para la sociedad. Con los algoritmos estamos tratando de trascender el prejuicio humano, estamos tratando de poner en marcha una herramienta científica. Si fracasan, provocan que la sociedad entre un bucle destructivo, porque aumentan la desigualdad progresivamente.

Pero también puede ser algo más preciso. Puede ser un algoritmo para decidir quién accede a la libertad condicional racista, uno que determina qué barrios sufren una mayor presión policial en función de la presencia de minorías…

¿A quién le pedimos cuentas cuando un algoritmo es injusto?

Es una buena pregunta. La semana pasada salió a la luz que luz que Amazon tenía un algoritmo de selección de personal sexista. Cada vez que ocurre algo así, las empresas se muestran sorprendidas, toda la comunidad tecnológica se muestra sorprendida. En realidad es una reacción fingida, hay ejemplos de algoritmos discriminatorios por todas partes.

Si admitieran que los algoritmos son imperfectos y que potencialmente pueden ser racistas o sexistas, ilegales, entonces tendrían que abordar este problema para todos los algoritmos que están utilizando. Si hacen como si nadie supiera nada pueden seguir promulgando esta fe ciega en los algoritmos, que ellos en realidad no tienen, pero que saben que el resto del público tiene.

Por eso escribí el libro, para que la gente deje de estar intimidada por los modelos matemáticos. No hay que abandonar la automatización ni dejar de confiar en los algoritmos, pero sí exigir que rindan cuentas. Sobre todo cuando actúan en un campo en el que no hay una definición clara de qué es “éxito”. Ese es el tipo de algoritmo que me preocupa. Quien controle el algoritmo controla la definición de éxito. Los algoritmos siempre funcionan bien para la gente que los diseña, pero no sabemos si funcionan bien para la gente objetivo de esos algoritmos. Pueden ser tremendamente injustos para ellos.

¿La próxima revolución política será por el control de los algoritmos?

En cierto sentido, sí. Creo que los algoritmos reemplazarán todos los procesos burocráticos humanos porque son más baratos, más fáciles de mantener y mucho más fáciles de controlar. Así que, sí: la cuestión sobre quién tiene el control está relacionada con quién despliega ese algoritmo. Espero que nosotros tengamos un control con rendición de cuentas sobre ellos.

Pero si nos fijamos en un lugar como China, donde  hay sistemas de puntuaciones sociales que son intentos explícitos de controlar a los ciudadanos, no tengo tanta esperanza sobre que los ciudadanos chinos puedan ser los propietarios de esos algoritmos. En estos casos estamos hablando de una distopía, una sociedad de vigilancia en la que el Gobierno controla a los ciudadanos con los algoritmos, como una amenaza real. Es algo que puede pasar.

De momento el poder político no ha hecho mucho por mejorar la transparencia de los algoritmos. 

Sí, es un problema real. Los políticos piensan que desde su posición tendrán en su mano controlar los algoritmos, así que no quieren renunciar a este poder, aunque sea malo para la democracia.

Es una consideración muy seria. Como digo en el libro, Obama fue adorado por la izquierda por su uso del big data para aumentar las donaciones o mejorar la segmentación de mensajes. Pero eso fue un precedente muy peligroso: en las últimas elecciones hemos visto como la campaña de Trump logró suprimir el voto de los afroamericanos gracias a esa misma segmentación de mensajes a través de los algoritmos de Facebook.

Publicó su libro en 2016. ¿Ha cambiado algo desde entonces?

Cuando escribí el libro yo no conocía a nadie preocupado por este tema. Eso sí ha cambiado. Vengo de Barcelona, donde he visto a 300 personas, mayoritariamente jóvenes, preocupadas por este tema. Es un fenómeno emergente a nivel mundial, la gente está empezando a ver el daño, el mal que hay aquí. La mayor parte de este daño algorítmico no se ve, no es visible. Que la gente sea más consciente hace que podamos esperar que haya una demanda para que los algoritmos rindan cuentas. Espero que eso ocurra.

Deceived by design – Engañado por diseño

Fuente original (en inglés): https://cryptome.org//2018/07/deceived-by-design.pdf

Un documento de investigación científica nos revela cómo las compañías de tecnología usan patrones oscuros para desalentarnos de ejercer nuestros derechos a la privacidad.

En este informe, analizamos una muestra de la configuración de Facebook, Google y Windows 10, y mostramos cómo la configuración predeterminada y los patrones oscuros, las técnicas y las características del diseño de la interfaz destinadas a manipular a los usuarios, se utilizan para empujar a los usuarios hacia las opciones intrusivas de privacidad. Los hallazgos incluyen la configuración predeterminada de privacidad intrusiva, la redacción engañosa, dar a los usuarios una ilusión de control, ocultar las opciones que favorecen la privacidad, las opciones que se toman o se dejan y las arquitecturas de elección en las que la elección de la opción que favorece la privacidad requiere más esfuerzo por parte de los usuarios.

Facebook y Google tienen valores predeterminados intrusivos de privacidad, en los que los usuarios que desean la opción de privacidad amigable tienen que pasar por un proceso significativamente más largo. Incluso oscurecen algunos de estos ajustes para que el usuario no pueda saber que la opción más intrusiva de privacidad fue preseleccionada.

Las ventanas emergentes de Facebook, Google y Windows 10 tienen un diseño, símbolos y palabras que alejan a los usuarios de las opciones de privacidad. Las opciones están redactadas para obligar a los usuarios a tomar ciertas decisiones, mientras que la información clave es omitida o minimizada. Ninguno de ellos permite al usuario posponer libremente las decisiones.

Además, Facebook y Google amenazan a los usuarios con la pérdida de funcionalidad o la eliminación de la cuenta de usuario si el usuario no elige la opción intrusiva de privacidad. Los ajustes de GDPR de Facebook, Google y Windows 10 proporcionan a los usuarios opciones granulares con respecto a la recopilación y uso de datos personales. Al mismo tiempo, encontramos que los proveedores de servicios emplean numerosas tácticas para empujar o empujar a los consumidores a compartir la mayor cantidad de datos posible.

El 4º Poder en Red » Soberanía tecnológica para combatir al capitalismo digital

Fuente original: El 4º Poder en Red » Soberanía tecnológica para combatir al capitalismo digital

Como siempre, recomiendo visitar el sitio del artículo original, para obtener mayor información del tema. En este caso, recomiendo el trabajo que viene realizando el períódico español Público, y  a través de él, sus blogs, intentando mantenerse independiente en un ambiente de grandes grupos económicos.

19 Abr 2018

Integrante de la Comunidad CCCD y ex alumno del Máster en Comunicación, Cultura y Ciudadanía Digitales. Periodista e investigador de la URJC en el proyecto Dietética Digital. Editor del blog de Público Dietética Digital.

Uno de los capítulos del último ensayo del Comité Invisible, titulado ‘Ahora’, termina con la siguiente frase: ‘la única medida del estado de crisis del capital es el grado de organización de las fuerzas que pretenden destruirlo’. Así, la denominada crisis financiera de 2008 quizás no lo fue tanto. El 15M, precisamente una de esas fuerzas, resumió con mucha lucidez en una de sus máximas esta idea con el famoso ‘no es una crisis, es una estafa’. Desde luego lo fue para la ciudadanía, a la vista del aumento de la desigualdad que se ha generado diez años después. Para la élite fue momento de recambio. El sistema experimentó un cambio de forma. El capitalismo financiero daba paso al capitalismo digital, con la consecuente sustitución de una élite dominante por otra. Desde la década de los ’90 venía desarrollándose un tipo de capitalismo en Internet que ha pasado por diversas fases de gestación como la burbuja de las puntocom o la web 2.0. y que dio sus primeros pasos en los ámbitos de la publicidad online y el comercio electrónico.

La mutación del capitalismo se puede observar en cómo ha cambiado el ranking de las mayores empresas del mundo por capitalización bursátil. Donde antes había compañías petroleras y automovilísticas, ahora hay plataformas tecnológicas digitales. Estas empresas son a las que Eugeny Morozov* denomina plataformas Big-Tech, refiriéndose a las GAFAM (Google, Amazon, Facebook, Apple y Microsoft), principalmente, aunque también destacando algunas potencias tecnológicas emergentes en China, como Alibaba. Silicon Valley, la Meca de las GAFAM, ha sustituido a Wall Street como centro neurálgico del capital. Es el lugar desde el que se propaga al resto del mundo -occidental, al menos- la doctrina hegemónica actual, el tecnoutopismo. Es a lo que Morozov llama ‘solucionismo tecnológico’, es decir, la creencia de que las tecnologías digitales son y serán capaces de ofrecernos soluciones a todos los problemas del mundo y, por tanto, debemos depositar nuestra fe ciega en ellas, y en los nuevos amos que las dominan.

Estas empresas han alcanzado tal posición de poder, y la mantienen, mediante dos factores elementales. La extracción y acumulación masiva de datos generados por los usuarios, el Big Data; y la posesión de las infraestructuras que median, cada vez más, nuestras relaciones sociales, políticas y económicas. La venta de estos datos para insertar publicidad micro-segmentada -Google y Facebook-, la venta de software y hardware -Apple y Microsoft- y el abaratamiento de costes en el comercio electrónico -Amazon- son los más obvios. Sin embargo, los modelos de negocio de la economía digital han ido evolucionando y diversificándose más allá de la publicidad y el comercio online. Con ellos, las implicaciones del capitalismo digital han ido mucho más allá de cuestiones como la privacidad y la vigilancia masiva -como demostraron las filtraciones de Edward Snowden- y la micro-segmentación, ya no solo comercial si no electoral, como ejemplifica el caso de Cambridge Analytica.

Capitalismo digital expandido

Los algoritmos que hacen de motor de la economía digital toman muchas más decisiones de las que nos imaginamos. Cada vez más, son responsables de decidir si una persona recibe un crédito en un banco, si puede contratar un seguro, si tiene acceso a una universidad, o si es contratada por una empresa. Con el objetivo de reducir costes y maximizar la eficiencia, se emplean algoritmos capaces de procesar mucha más información que un ser humano, con la ventaja añadida de que no precisa de un salario -ni se va a quejar por ello- y otorga un aura de neutralidad e imparcialidad a la toma de decisiones. Esto último es un mito que es necesario rebatir, pues este modelo de toma de decisiones ‘objetivo’ responde a los sesgos introducidos por los humanos que los programaron. Además, la falta de transparencia alrededor de su funcionamiento evita que se pueda revisar ese proceso para evaluar si se hace correctamente. Así, los algoritmos se convierten en generadores de desigualdad, lo que la matemática Cathy O’Neill llama ‘Armas de Destrucción Matemática’.

En la expansión de la utilización de algoritmos en amplios sectores de la sociedad encontramos el modelo de negocio del futuro (y ya del presente) para las plataformas Big-Tech, el de la Inteligencia Artificial (IA). El Big Data es utilizado para alimentar estos algoritmos, desarrollando así la rama de la IA denominada ‘aprendizaje automático’. De este modo, las corporaciones que ya controlan gran parte de las infraestructuras que hacen posible el entorno digital pueden colonizar el mundo físico. Con un sistema público enormemente degradado, especialmente con las políticas de austeridad impuestas durante la última década, la IA se presenta como la mejor solución para optimizar los -escasos- recursos, mediante la predicción de patrones de comportamiento en ámbitos como la educación y la sanidad, entre muchos otros.

Como estas empresas son, por el momento, las únicas con capacidad para extraer masivas cantidades de datos de los usuarios y de utilizar su trabajo voluntario para alimentar a sus máquinas predictivas, la competencia para ellas es prácticamente inexistente, dándose la formación de ‘monopolios naturales’. Así, van progresivamente copando y centralizando todas las infraestructuras y servicios generando una extrema dependencia de ellas por parte, no solo de la ciudadanía, sino de otras empresas y de los estados.

¿Qué hacer?

Ahora bien, ¿que podemos hacer ante este, ya no futuro, si no presente distópico en el que nos encontramos? Las propuestas de Morozov pasan por el cambio de propiedad y estatus legal de los datos, y por la creación de infraestructuras públicas -no necesariamente estatales- que sean capaces de ofrecer una alternativa a las corporaciones privadas digitales.

Partiendo de la base de que la propiedad de los datos pase a ser de las personas que los producen es un elemento fundamental para revertir la actual situación, de este escenario surgen dos caminos bien distintos. Resumidamente, o tratar a los datos como una mercancía o como un bien común. La primera opción, la que propugnan personas como Steve Bannon (jefe de campaña de Trump y uno de los fundadores de Cambridge Analytica), desembocaría en un capitalismo digital aún más salvaje y ni siquiera lograría que los datos revirtiesen en beneficios para la gente, pues es en su agregación donde tienen más valor. La segunda opción eliminaría la posibilidad de hacer negocio con los datos para, en lugar de eso, darles usos que no busquen el lucro privado sino el beneficio comunitario. Para ello, es imprescindible la construcción de infraestructuras que estén sometidas un control democrático de la ciudadanía. Es aquí donde movimientos sociales, organizaciones civiles y partidos políticos que verdaderamente aspiren a la emancipación tienen que empezar a generar discursos y acciones para llevarlo a cabo, pues es donde el capitalismo se encuentra en mejor estado de forma.

Este es un planteamiento de macropolítica, certero e inspirador, pero también lejano y utópico si no somos capaces de pensar en qué podemos hacer aquí y ahora, en la micropolítica que está a nuestro alcance y nos acerca a ese horizonte. Lo que pretende este artículo es proponer un camino que complemente a las propuestas de Morozov. Podemos comenzar por adoptar la filosofía/ética hacker. La figura del hacker es la de la persona curiosa, crítica, activa, que se preocupa por conocer cómo funcionan las tecnologías digitales mediante las que nos dominan, y compartir ese conocimiento.

Frente al discurso religioso del tecnoutopismo, la figura del hacker es la del hereje (significa ‘el que elige’) que se atreve a pensar por sí mismo/a y con los demás, a cuestionar la fe en la tecnología para convertirlo en conocimiento crítico y a dejar de tratar a las tecnologías digitales como objetos sagrados para desmontarlos y reprogramarlos. Sin necesidad de grandes cambios legislativos ni multimillonarios desembolsos de dinero, todos/as podemos empezar ya -a nivel individual y/o colectivo- a recuperar el control sobre nuestros datos, a subvertir las infraestructuras actuales, o crear otras nuevas. Las comunidades de (auto) aprendizaje, los centros sociales y los hacklabs son los lugares y el software libre la herramienta para ello.

Estas prácticas y conocimientos son las que pueden comenzar a proporcionarnos la soberanía tecnológica que, transformada en soberanía política, eventualmente puede desembocar en cambios a gran escala que nos permitan recuperar la propiedad de nuestros datos, cambiar su estatus legal y construir infraestructuras tecnológicas públicas y democráticas que nos liberen de las plataformas Big-Tech. Así, en último término, podremos organizar colectivamente una fuerza que ponga en crisis al capital, sea cual sea su forma.

*Este autor estuvo recientemente en el Museo Nacional Centro de Arte Reina Sofía para inaugurar el ciclo ‘Seis contradicciones y el fin del presente‘ con una conferencia y un taller bajo el título de ‘El Capitalismo digital y sus descontentos’ en el que se debatieron las cuestiones que recoge este artículo.

El gobierno de Internet | La ventana | medios y comunicación | Página12

Fuente original: El gobierno de Internet | La ventana | medios y com… | Página12

Juan Pablo Darioli demanda la creación de criterios democráticos y multilaterales de gobernanza de Internet para evitar la operación de poderes que rompen con el equilibrio de la circulación de la información.

Si bien uno intenta descreer o poner en cuestión las teorías conspirativas que abordan las relaciones de dominación desde una sola arista y de manera totalizadora, en este caso todas las piezas encajan. El escándalo que une a la red social Facebook con la firma británica Cambridge Analytica evidenció con un caso concreto como actúa el desarrollo y la articulación de los saberes relacionados al poder neoliberal, en este caso la neurociencia (para abordar los incentivos motivacionales que depara el uso de las redes sociales), la psicopolítica (para la elaboración de modos de sometimiento menos invasivos y menos detectables o smart según el filósofo Byung-Chul Han autor del libro “Psicopolítica. Neoliberalismo y nuevas técnicas de poder”) y, por último, la comunicación.

Los resultados en los casos revelados son innegables: por un lado, más de 17 millones de británicos tomaron la decisión de abandonar la Unión Europea y por el otro casi 63 millones de norteamericanos llevaron a Donald Trump a la presidencia.

No hay mayor novedad en la utilización de estrategias de segmentación, análisis e intento de influenciar los comportamientos electorales ya que desde mediados del siglo pasado son corrientes las investigaciones en este sentido. Los más notorio es el nivel de fidelidad, refinamiento y alcance que les otorga a estos estudios el funcionamiento de las nuevas tecnologías, en general, y más particularmente las apps sociales, las cuales aportan una verdadera cartografía sobre los usos y consumos de cada persona en disputas político-electorales muy cerradas. La cuenta de Facebook la tenemos relacionada a un mail, el WhatsApp a un número de celular y las aplicaciones de Google nos piden acceso constante al GPS para saber todo el tiempo dónde estamos. Entrecruzar con altos grados de certeza esa información tiene un valor trascendental y puesta en manos de una empresa analista de datos a gran escala produce resultados intervencionistas poco deseables.

En el ámbito de la comunicación debemos pensar en la implicancia de estos hechos: cómo intervienen ciertos actores en el ecosistema comunicacional para lograr ventajas en el flujo informativo y evaluar la incidencia de estas prácticas en el funcionamiento de las tecnologías digitales, que apela inherentemente a la utilización de estos datos tanto en su programación como en su esquema de negocios. Vemos que el tema es más complejo que un error de seguridad de Facebook y no se soluciona con un simple pedido de disculpas de Mark Zuckerberg en el Congreso de los EE.UU.

El problema es de matriz y el dilema, ético.

Si bien es importante el problema de las fakenews y es indispensable una discusión sobre la dimensión social y cultural de los algoritmos, nos encontramos ante una necesidad mayor, que es la de reclamar la creación de criterios democráticos y multilaterales de gobernanza de internet para evitar la operación de poderes que rompen con el equilibrio de la circulación de la información.

Juan Pablo Darioli: Licenciado en Periodismo (UNR).

Espías (parte II) | El Cohete a la Luna

Fuente original: Espías (parte II) | El Cohete a la Luna

Como siempre, visitar el sitio de origen, para obtener mayor información del tema y, en este caso, para conocer el enorme trabajo periodístico de este sitio independiente argentino. El Cohete a la Luna es un sitio de investigación y análisis creado por el periodista y escritor Horacio Verbitsky, conocido por su trabajo de investigaciones de décadas. Personalmente, pienso que es un periodista de los que ya no hay muchos. A Verbitsky lo acompaña un equipo de primera, varios de los cuales colaboraron o han colaborado (como el propio Verbitsky) en el pasado con el diario argentino Página 12.

(No tengo ninguna relación comercial, laboral o personal con El Cohete a la Luna ni con ninguno de sus miembros o colaboradores, salvo de ser ávido lector del sitio).

Hace unos días, en el Cohete, publicamos un artículo con el título: Espías. Si le interesó el tema, le sugiero que me siga con esta hoja de ruta. Usela como una guía, ya que es mi hoja de ruta. Esto seguro que usted tiene una propia. Acá voy.

1)    https://www.google.com/maps/timeline?pb

En este sitio queda registrada la actividad diaria, en términos geográficos: todos los lugares en los que usted estuvo, si fue caminando, en avión, en auto, en autobús. Además, el tiempo que permaneció en cada lugar. Al finalizar, hay una forma de recolectar toda la información diaria, de manera tal que usted pueda tener una lista con la frecuencia con la que usted visita cada sitio, y el tiempo que allí permanece. Naturalmente, el lugar en donde uno duerme (por poner un ejemplo), resulta ser un sitio de los más utilizados y donde permanece la mayor cantidad de tiempo. Lo mismo sucede con el trabajo, si es que usted tiene un trabajo fijo o le dedica una buena parte de su día, ya sea una oficina, una fábrica o un colegio, escuela o universidad. La diferencia es fácilmente observable cuando se trata de los fines de semana, cuando la rutina cambia.

2)    https://myactivity.google.com/myactivity

En este sitio está registrada toda su actividad en internet, ya sea las páginas que usted visitó, así como los correos electrónicos que usted recibió y/o envió. Si me permite agregar algo, “mete miedo”. En el título de la página dice que usted es la única persona que puede visitar estos datos. Puede que sea cierto, pero… si yo soy el único que puedo visitar esta página, ¿cómo sé yo (o sabe usted) que no hay otras personas que también tienen acceso a la misma información que aparece almacenada allí?

Algo más: aparecen también listadas todas las apps que usted utilizó, ya sea (por ejemplo), WhatsApp, ESPN, Snapchat, Instagram, Twitter, los diarios que lee, las que usa para averiguar el pronóstico y/o la temperatura, los lugares que usted ‘googleó’… ¿Hace falta que siga? Sí… una cosa más: en mi teléfono celular, yo puedo ‘dictar’ una frase para que, convertida a texto, la pueda enviar. En todo caso, permítame escribir que me impactó escuchar todo lo que fui grabando en el tiempo (y que luego fue traducido). ¿Quiere fijarse usted?

3)    https://myaccount.google.com/security

Esta página le permite establecer los niveles de ‘seguridad’ con los que usted quiere (y le pide a Google) que lo proteja. Aparecen también todas las plataformas que usted usa, ya sean los teléfonos celulares (si es que tiene más de uno), su(s) computadora(s), si es que tiene más de una, su(s) laptop(s), y también las tabletas que utiliza. Están todos. Más aún: aparecen las fechas en los que usted las usó por última vez (y la primera, claro está).

4)    https://www.youtube.com/feed/history.

En este sitio usted encontrará todas las veces que utilizó los servicios de YouTube. Aparece toda su historia. Como yo lo uso poco, aparecieron muy pocos ejemplos, pero mi amiga Erica, que estaba conmigo cuando ‘jugábamos’ a ver qué encontrábamos, se sorprendió por la enorme (y exhaustiva) lista de videos que ella tenía registrados en su historia. Una vez más, mi experiencia no le sirve a usted. Lo mejor que puedo hacer, es proponerle que sea usted misma (o mismo) que lo intente por su lado. Créame: se va a sorprender.

5)    https://takeout.google.com/settings/takeout

Este sitio también es impactante. Cuando usted llega acá, Google le ofrece la alternativa para que usted misma/o recupere todos los datos que Google tiene guardado sobre usted: ¡todos! Naturalmente, si usted ha utilizado mucho los servicios de Google, la memoria que va a necesitar para recuperar todo puede llegar a ser importante. Asegúrese que tenga suficiente espacio libre en su disco duro o procúrese un pendrive (o dispositivo equivalente) donde pueda almacenar muchos Gigabytes de memoria. Igualmente es increíble verse reflejado uno mismo en la cantidad de datos que ha compartido en el último tiempo: ¡impactante! Si puedo sugerirle algo una vez más, este es un lugar que uno no debería perderse. Eso sí: tómese tiempo. Lo va a necesitar. Aparecen todos los sitios que usted visitó, sus correos electrónicos, sus contactos, sus videos en YouTube… e incluso ¡las fotos que usted tomó con su teléfono! No sé si me entiende… ¡las fotos! Parece mentira… pero no, están allí… incluso las que usted descartó o tiró a la basura. Y por supuesto, también las fotos que usted recibió. Su calendario, los libros que compró, los grupos a los cuales usted pertenece, los números de teléfono de los contactos que o bien tiene hoy o que tuvo en algún momento…. ¡la cantidad de pasos que usted fue dando día por día! ¿Sigo?

6)    Acá tengo que hacer una pausa para una observación. Facebook ofrece los mismos servicios que acabo de describir para Google. El problema está en que como yo no uso Facebook, no tengo cuenta con ellos, no puedo revisarlos, pero por lo que me mostró Erica, están incluidos todos los mensajes que usted envió (o recibió), todos los archivos que usted envió (o recibió), todos los contactos que están en su teléfono celular, todos los mensajes de audio que usted envió (o recibió), todas las veces que usted se conectó en su cuenta de Facebook, desde donde lo hizo, el tiempo que estuvo visitando su cuenta y desde qué aparato lo hizo. De la misma forma que Google, Facebook sabe todos y cada uno de los pasos que usted dio en la última década.

7)    Un dato más: Facebook guarda todas las aplicaciones que usted utilizó mientras estuvo conectada/o con su cuenta, de manera tal que puede conjeturar cuán interesada/o usted está en cuestiones políticas o si lo que más le atrae es diseño gráfico. Sabe además si usted estuvo o es soltera/o, o bien si está interesada/o en cualquier servicio que coopere para que usted pueda encontrar pareja.

8)    Por último, al menos en este primer intento de advertirle lo que sucede, el rastrillaje que ellos (y usted) pueden hacer sobre su vida en la última década incluye las aplicaciones que usted instaló (y desinstaló) durante todo este tiempo, las razones por las cuales las usó (o usa), tiene acceso a su cámara web y su micrófono, y como dije más arriba, sus contactos, correos electrónicos, su calendario, la historia de todos sus llamados (entrantes y salientes), mensajes de texto enviados y recibidos, los archivos que usted bajó usando internet, incluyendo fotos, videos, audios, música, las estaciones de radio que usted escuchó (o escucha) y por supuesto, todas las búsquedas que usted hizo a lo largo de estos últimos diez años. 

Si uno pensara que cada vez (de nuevo: sí, ¡cada vez!) que uno se conecta con cualquiera de nuestros aparatos (computadoras, laptops, tabletas, teléfonos celulares, etc.) está engrosando la información que uno entrega sobre su privacidad… ¿seguiría haciéndolo, o no? Y lo planteo de esta forma porque aunque uno quisiera evitar dejar estos rastros desde hoy, sucederían algunos eventos que me gustaría compartir con usted.

Por un lado, ¿está segura/seguro de que usted podría vivir sin estar conectada/o?

Por otro lado, si Google (por poner un ejemplo) sabe en qué lugares ha pasado usted la mayor parte de su tiempo, dónde durmió, cenó, almorzó, a qué hora puso su despertador, dónde pasa sus fines de semana, qué música escucha, a qué hora se acuesta, qué medicamentos toma, qué bebidas, etc., etc… Usted, ¿lo cambiaría todo bruscamente? Aunque usted cortase todo contacto a partir de hoy, no solo debería hacerlo, sino que además debería cambiar de vida, de identidad, porque con los datos que hemos ido dejando hasta este momento, ¿no cree que Google podría rastrearla/o y encontrarla/o sin necesidad de saber exactamente dónde se encuentra?

Cuando uno cree que todo es y ha sido gratis, ha cometido (hemos cometido) un error: el producto somos nosotros. Más aún: yo creo que saben más de nosotros que nosotros mismos.

Tanto como usted, yo tengo múltiples preguntas, pero las más importantes serían: ¿qué podrían hacer con toda esta información? ¿Qué tipo de influencia tienen sobre nosotros al saber todos estos datos? ¿Qué pueden predecir? O mejor aún: ¿cómo han usado ya todos estos datos? ¿Qué hemos hecho nosotros hasta acá, creyendo que teníamos la libertad de elegir, sin saber que desde algún otro lugar estábamos siendo elegidos por otros?

¿Cuán peligroso es esto? ¿En manos de quiénes está toda esta información? Google y Facebook dicen que solamente nosotros tenemos acceso… ¿Seguro? ¿Y Cambridge Analítica de dónde salió? Si pudo tener semejante influencia en las elecciones de un país, y nada menos que Estados Unidos, ¿qué nos queda a nosotros?

Y si uno, por la edad que tiene/tengo, decide que ya no hay nada por hacer y que no hay vuelta atrás… ¿cómo proteger a los niños? Usted, ¿qué piensa?

A %d blogueros les gusta esto: