Archivo de la categoría: Google

Los cercos del algoritmo | Medios y comunicación | Página12

Fuente original: Los cercos del algoritmo | Medios y comunicación | Página12

Como siempre, recomiendo visitar el sitio del artículo original, para obtener mayor información del tema y, en este caso, para conocer el enorme trabajo periodístico de este medio independiente argentino.

Si tiene intención de hacerse socio de Página 12, colaborando económicamente con el medio, desde la siguiente página, se pueden leer las opciones: https://www.pagina12.com.ar/apps/membresias/ (No tengo ninguna relación comercial, laboral o personal con Página 12, salvo de ser ávido lector desde hace décadas).

Roberto Samar y Javier Cantarini explican cómo Facebook y Google segmentan las opiniones que se ven en los muros y en las búsquedas de acuerdo con la ideología del titular de las cuentas. Los riesgos de un mundo de guetos.

Hace tiempo que en tu cuenta de Facebook no aparece ninguna publicación de contactos con los que supiste compartir algún tramo de tu vida. Entonces lo buscas por su nombre y te das cuenta que sus publicaciones distan mucho de tus ideas y gustos. Un fuerte impulso por ver que apoya todas las expresiones que de alguna manera crees que son perjudiciales para la sociedad te hace dar gracias a la red social más consumida en Argentina por haberlo ocultado.

Pero si hacemos el ejercicio de ver más allá de nuestras narices y gustos podemos darnos cuenta que nos vamos construyendo un cerco social y comunicacional. O que, en verdad, nos construye el algoritmo que usa Facebook de acuerdo a nuestros clics.

Un cerco que también se fortalece con los servicios de noticias a los que estamos suscriptos que dirigen la información de acuerdos a nuestras preferencias. Si simpatizas con Cambiemos te llegará una catarata de noticias vinculadas al discurso de la mano dura o de estigmatización de la pobreza, pero seguramente no te enteres del aumento de la violencia institucional que denuncia la Coordinadora Contra la Represión Policial e Institucional.

Una situación similar se da en la industria del entretenimiento como Netflix que te satura con un contenido siempre idéntico, dificultando que puedas encontrar títulos alternativos que pueden poner en tensión tu mirada motivando así el ejercicio del pensamiento crítico. O el buscador de internet más utilizado, Google, que desde 2009 arroja distintos resultados a pesar que las personas busquen la misma palabra.

El integrante de MoveOn, Eli Pariser, ejemplifica en su texto el Filtro Burbuja que, con la personalización de Google, “la consulta ‘células madre’ puede producir resultados diametralmente opuestos en el caso de que los usuarios sean científicos que apoyen la investigación o activistas que se opongan. En otras palabras, ya no existe un Google estándar”.

En los consumos culturales y de noticias, siempre existió lo que se denominó una “exposición selectiva”. Es decir, que tendemos a exponernos a contenidos que nos son afines. La particularidad del momento actual, es que los discursos y contenidos que no coinciden con nuestros puntos de vista se nos vuelven invisibles por los filtros que producen las nuevas tecnologías.

Pariser afirma que “la nueva generación de filtros de internet observa las cosas que parecen gustarte”. Y que de esta manera “tu pantalla de ordenador es cada vez más una especie de espejo unidireccional que refleja tus propios intereses, mientras los analistas de los algoritmos observan todo lo que clicas”. En un mundo globalizado y en el que internet y las redes sociales se presentaron como la democratización de la información a gran escala ¿Qué sentido tiene que los mismos contenidos circulen entre las mismas personas?

“La era de una conexión cívica con la que tanto soñaba no ha llegado. La democracia precisa de ciudadanos que vean las cosas desde el punto de vista de otros, pero en vez de eso cada vez estamos más encerrados en nuestras burbujas”, sintetiza Parisir.

Todo hace pensar que estas nuevas estructuras comunicacionales podrían profundizar las grietas ideológicas. Ahora, el desafío que se nos presenta es construir puentes, espacios de diálogo que tal vez incomoden, pero que sí puedan poner en tensión esas burbujas, especialmente a las que sostienen y alimentan discursos anti-políticos, machistas, xenófobos y estigmatizantes que nos retrotraen a los momentos más oscuros y tristes de nuestra historia.

Roberto Samar es especialista en Comunicación y culturas UNCO. Docente de la UNRN

Javier Cantarini es Periodista. Integrante de la RED PAR. Diplomado en Comunicación con Perspectiva de Género y Derechos Humanos.

No hay una conspiración para estudiar cómo eras hace diez años: ya lo sabían – Nec Otium – Diario La Información

Fuente original: No hay una conspiración para estudiar cómo eras hace diez años: ya lo sabían – Nec Otium – Diario La Informacion

Como siempre, recomiendo leer el artículo en su sitio original.

El reto #10yearschallenge ha plagado internet de fotos tal como eramos hace una década. ¿Es una estrategia para tener más datos de los usuarios?

“La próxima revolución política será por el control de los algoritmos”

Fuente original: “La próxima revolución política será por el control de los algoritmos”

Palabra de dios. Por mandato real. Es la economía, estúpido. La historia ofrece constantemente ejemplos de cómo las personas recurrimos al mito de la autoridad superior para revestir de una supuesta justicia objetiva nuestras decisiones. Para Cathy O’Neil, los algoritmos son el siguiente mito en esa lista.

O’Neil, matemática doctorada en Harvard, posdoctorada en el MIT, fue una de las primeras en señalar que nuestro nuevo emperador también está desnudo. Un algoritmo (o la celebrada Inteligencia Artificial, que “no es más que un término de marketing para nombrar a los algoritmos”) es tan machista, racista o discriminador como aquel que lo diseña. Mal programados, pueden llegar a ser Armas de Destrucción Matemática (Capitán Swing), como detalla en su libro sobre el peligro que representan para la democracia.

Defiende que existe una diferencia entre lo que la gente piensa que es un algoritmo y lo que realmente es un algoritmo. ¿Cuál es?

La gente piensa que un algoritmo es un método para tratar de llegar a una verdad objetiva. Hemos desarrollado una fe ciega en ellos porque pensamos que hay una autoridad científica detrás.

En realidad un algoritmo es algo tonto, básicamente un sistema de perfiles demográficos generado a partir del big data. Averigua si eres un cliente que paga o cuáles son tus posibilidades para comprar una casa en base a pistas que has ido dejando, como cuál es tu clase social, tu riqueza, tu raza o tu etnia.

¿Qué es un arma de destrucción matemática?

Es un algoritmo importante, secreto y destructivo. Injusto para los individuos que evalúa.

Normalmente son un sistema de puntuación. Si tienes una puntuación lo suficientemente elevada se te da una opción, pero si no la consigues se te deniega. Puede ser un puesto de trabajo o la admisión en la universidad, una tarjeta de crédito o una póliza de seguros. El algoritmo te asigna una puntuación de manera secreta, no puedes entenderla, no puedes plantear un recurso. Utiliza un método de decisión injusto.

Sin embargo, no solo es algo injusto para el individuo, sino que normalmente este sistema de decisión es algo destructivo también para la sociedad. Con los algoritmos estamos tratando de trascender el prejuicio humano, estamos tratando de poner en marcha una herramienta científica. Si fracasan, provocan que la sociedad entre un bucle destructivo, porque aumentan la desigualdad progresivamente.

Pero también puede ser algo más preciso. Puede ser un algoritmo para decidir quién accede a la libertad condicional racista, uno que determina qué barrios sufren una mayor presión policial en función de la presencia de minorías…

¿A quién le pedimos cuentas cuando un algoritmo es injusto?

Es una buena pregunta. La semana pasada salió a la luz que luz que Amazon tenía un algoritmo de selección de personal sexista. Cada vez que ocurre algo así, las empresas se muestran sorprendidas, toda la comunidad tecnológica se muestra sorprendida. En realidad es una reacción fingida, hay ejemplos de algoritmos discriminatorios por todas partes.

Si admitieran que los algoritmos son imperfectos y que potencialmente pueden ser racistas o sexistas, ilegales, entonces tendrían que abordar este problema para todos los algoritmos que están utilizando. Si hacen como si nadie supiera nada pueden seguir promulgando esta fe ciega en los algoritmos, que ellos en realidad no tienen, pero que saben que el resto del público tiene.

Por eso escribí el libro, para que la gente deje de estar intimidada por los modelos matemáticos. No hay que abandonar la automatización ni dejar de confiar en los algoritmos, pero sí exigir que rindan cuentas. Sobre todo cuando actúan en un campo en el que no hay una definición clara de qué es “éxito”. Ese es el tipo de algoritmo que me preocupa. Quien controle el algoritmo controla la definición de éxito. Los algoritmos siempre funcionan bien para la gente que los diseña, pero no sabemos si funcionan bien para la gente objetivo de esos algoritmos. Pueden ser tremendamente injustos para ellos.

¿La próxima revolución política será por el control de los algoritmos?

En cierto sentido, sí. Creo que los algoritmos reemplazarán todos los procesos burocráticos humanos porque son más baratos, más fáciles de mantener y mucho más fáciles de controlar. Así que, sí: la cuestión sobre quién tiene el control está relacionada con quién despliega ese algoritmo. Espero que nosotros tengamos un control con rendición de cuentas sobre ellos.

Pero si nos fijamos en un lugar como China, donde  hay sistemas de puntuaciones sociales que son intentos explícitos de controlar a los ciudadanos, no tengo tanta esperanza sobre que los ciudadanos chinos puedan ser los propietarios de esos algoritmos. En estos casos estamos hablando de una distopía, una sociedad de vigilancia en la que el Gobierno controla a los ciudadanos con los algoritmos, como una amenaza real. Es algo que puede pasar.

De momento el poder político no ha hecho mucho por mejorar la transparencia de los algoritmos. 

Sí, es un problema real. Los políticos piensan que desde su posición tendrán en su mano controlar los algoritmos, así que no quieren renunciar a este poder, aunque sea malo para la democracia.

Es una consideración muy seria. Como digo en el libro, Obama fue adorado por la izquierda por su uso del big data para aumentar las donaciones o mejorar la segmentación de mensajes. Pero eso fue un precedente muy peligroso: en las últimas elecciones hemos visto como la campaña de Trump logró suprimir el voto de los afroamericanos gracias a esa misma segmentación de mensajes a través de los algoritmos de Facebook.

Publicó su libro en 2016. ¿Ha cambiado algo desde entonces?

Cuando escribí el libro yo no conocía a nadie preocupado por este tema. Eso sí ha cambiado. Vengo de Barcelona, donde he visto a 300 personas, mayoritariamente jóvenes, preocupadas por este tema. Es un fenómeno emergente a nivel mundial, la gente está empezando a ver el daño, el mal que hay aquí. La mayor parte de este daño algorítmico no se ve, no es visible. Que la gente sea más consciente hace que podamos esperar que haya una demanda para que los algoritmos rindan cuentas. Espero que eso ocurra.

Deceived by design – Engañado por diseño

Fuente original (en inglés): https://cryptome.org//2018/07/deceived-by-design.pdf

Un documento de investigación científica nos revela cómo las compañías de tecnología usan patrones oscuros para desalentarnos de ejercer nuestros derechos a la privacidad.

En este informe, analizamos una muestra de la configuración de Facebook, Google y Windows 10, y mostramos cómo la configuración predeterminada y los patrones oscuros, las técnicas y las características del diseño de la interfaz destinadas a manipular a los usuarios, se utilizan para empujar a los usuarios hacia las opciones intrusivas de privacidad. Los hallazgos incluyen la configuración predeterminada de privacidad intrusiva, la redacción engañosa, dar a los usuarios una ilusión de control, ocultar las opciones que favorecen la privacidad, las opciones que se toman o se dejan y las arquitecturas de elección en las que la elección de la opción que favorece la privacidad requiere más esfuerzo por parte de los usuarios.

Facebook y Google tienen valores predeterminados intrusivos de privacidad, en los que los usuarios que desean la opción de privacidad amigable tienen que pasar por un proceso significativamente más largo. Incluso oscurecen algunos de estos ajustes para que el usuario no pueda saber que la opción más intrusiva de privacidad fue preseleccionada.

Las ventanas emergentes de Facebook, Google y Windows 10 tienen un diseño, símbolos y palabras que alejan a los usuarios de las opciones de privacidad. Las opciones están redactadas para obligar a los usuarios a tomar ciertas decisiones, mientras que la información clave es omitida o minimizada. Ninguno de ellos permite al usuario posponer libremente las decisiones.

Además, Facebook y Google amenazan a los usuarios con la pérdida de funcionalidad o la eliminación de la cuenta de usuario si el usuario no elige la opción intrusiva de privacidad. Los ajustes de GDPR de Facebook, Google y Windows 10 proporcionan a los usuarios opciones granulares con respecto a la recopilación y uso de datos personales. Al mismo tiempo, encontramos que los proveedores de servicios emplean numerosas tácticas para empujar o empujar a los consumidores a compartir la mayor cantidad de datos posible.

El 4º Poder en Red » Soberanía tecnológica para combatir al capitalismo digital

Fuente original: El 4º Poder en Red » Soberanía tecnológica para combatir al capitalismo digital

Como siempre, recomiendo visitar el sitio del artículo original, para obtener mayor información del tema. En este caso, recomiendo el trabajo que viene realizando el períódico español Público, y  a través de él, sus blogs, intentando mantenerse independiente en un ambiente de grandes grupos económicos.

19 Abr 2018

Integrante de la Comunidad CCCD y ex alumno del Máster en Comunicación, Cultura y Ciudadanía Digitales. Periodista e investigador de la URJC en el proyecto Dietética Digital. Editor del blog de Público Dietética Digital.

Uno de los capítulos del último ensayo del Comité Invisible, titulado ‘Ahora’, termina con la siguiente frase: ‘la única medida del estado de crisis del capital es el grado de organización de las fuerzas que pretenden destruirlo’. Así, la denominada crisis financiera de 2008 quizás no lo fue tanto. El 15M, precisamente una de esas fuerzas, resumió con mucha lucidez en una de sus máximas esta idea con el famoso ‘no es una crisis, es una estafa’. Desde luego lo fue para la ciudadanía, a la vista del aumento de la desigualdad que se ha generado diez años después. Para la élite fue momento de recambio. El sistema experimentó un cambio de forma. El capitalismo financiero daba paso al capitalismo digital, con la consecuente sustitución de una élite dominante por otra. Desde la década de los ’90 venía desarrollándose un tipo de capitalismo en Internet que ha pasado por diversas fases de gestación como la burbuja de las puntocom o la web 2.0. y que dio sus primeros pasos en los ámbitos de la publicidad online y el comercio electrónico.

La mutación del capitalismo se puede observar en cómo ha cambiado el ranking de las mayores empresas del mundo por capitalización bursátil. Donde antes había compañías petroleras y automovilísticas, ahora hay plataformas tecnológicas digitales. Estas empresas son a las que Eugeny Morozov* denomina plataformas Big-Tech, refiriéndose a las GAFAM (Google, Amazon, Facebook, Apple y Microsoft), principalmente, aunque también destacando algunas potencias tecnológicas emergentes en China, como Alibaba. Silicon Valley, la Meca de las GAFAM, ha sustituido a Wall Street como centro neurálgico del capital. Es el lugar desde el que se propaga al resto del mundo -occidental, al menos- la doctrina hegemónica actual, el tecnoutopismo. Es a lo que Morozov llama ‘solucionismo tecnológico’, es decir, la creencia de que las tecnologías digitales son y serán capaces de ofrecernos soluciones a todos los problemas del mundo y, por tanto, debemos depositar nuestra fe ciega en ellas, y en los nuevos amos que las dominan.

Estas empresas han alcanzado tal posición de poder, y la mantienen, mediante dos factores elementales. La extracción y acumulación masiva de datos generados por los usuarios, el Big Data; y la posesión de las infraestructuras que median, cada vez más, nuestras relaciones sociales, políticas y económicas. La venta de estos datos para insertar publicidad micro-segmentada -Google y Facebook-, la venta de software y hardware -Apple y Microsoft- y el abaratamiento de costes en el comercio electrónico -Amazon- son los más obvios. Sin embargo, los modelos de negocio de la economía digital han ido evolucionando y diversificándose más allá de la publicidad y el comercio online. Con ellos, las implicaciones del capitalismo digital han ido mucho más allá de cuestiones como la privacidad y la vigilancia masiva -como demostraron las filtraciones de Edward Snowden- y la micro-segmentación, ya no solo comercial si no electoral, como ejemplifica el caso de Cambridge Analytica.

Capitalismo digital expandido

Los algoritmos que hacen de motor de la economía digital toman muchas más decisiones de las que nos imaginamos. Cada vez más, son responsables de decidir si una persona recibe un crédito en un banco, si puede contratar un seguro, si tiene acceso a una universidad, o si es contratada por una empresa. Con el objetivo de reducir costes y maximizar la eficiencia, se emplean algoritmos capaces de procesar mucha más información que un ser humano, con la ventaja añadida de que no precisa de un salario -ni se va a quejar por ello- y otorga un aura de neutralidad e imparcialidad a la toma de decisiones. Esto último es un mito que es necesario rebatir, pues este modelo de toma de decisiones ‘objetivo’ responde a los sesgos introducidos por los humanos que los programaron. Además, la falta de transparencia alrededor de su funcionamiento evita que se pueda revisar ese proceso para evaluar si se hace correctamente. Así, los algoritmos se convierten en generadores de desigualdad, lo que la matemática Cathy O’Neill llama ‘Armas de Destrucción Matemática’.

En la expansión de la utilización de algoritmos en amplios sectores de la sociedad encontramos el modelo de negocio del futuro (y ya del presente) para las plataformas Big-Tech, el de la Inteligencia Artificial (IA). El Big Data es utilizado para alimentar estos algoritmos, desarrollando así la rama de la IA denominada ‘aprendizaje automático’. De este modo, las corporaciones que ya controlan gran parte de las infraestructuras que hacen posible el entorno digital pueden colonizar el mundo físico. Con un sistema público enormemente degradado, especialmente con las políticas de austeridad impuestas durante la última década, la IA se presenta como la mejor solución para optimizar los -escasos- recursos, mediante la predicción de patrones de comportamiento en ámbitos como la educación y la sanidad, entre muchos otros.

Como estas empresas son, por el momento, las únicas con capacidad para extraer masivas cantidades de datos de los usuarios y de utilizar su trabajo voluntario para alimentar a sus máquinas predictivas, la competencia para ellas es prácticamente inexistente, dándose la formación de ‘monopolios naturales’. Así, van progresivamente copando y centralizando todas las infraestructuras y servicios generando una extrema dependencia de ellas por parte, no solo de la ciudadanía, sino de otras empresas y de los estados.

¿Qué hacer?

Ahora bien, ¿que podemos hacer ante este, ya no futuro, si no presente distópico en el que nos encontramos? Las propuestas de Morozov pasan por el cambio de propiedad y estatus legal de los datos, y por la creación de infraestructuras públicas -no necesariamente estatales- que sean capaces de ofrecer una alternativa a las corporaciones privadas digitales.

Partiendo de la base de que la propiedad de los datos pase a ser de las personas que los producen es un elemento fundamental para revertir la actual situación, de este escenario surgen dos caminos bien distintos. Resumidamente, o tratar a los datos como una mercancía o como un bien común. La primera opción, la que propugnan personas como Steve Bannon (jefe de campaña de Trump y uno de los fundadores de Cambridge Analytica), desembocaría en un capitalismo digital aún más salvaje y ni siquiera lograría que los datos revirtiesen en beneficios para la gente, pues es en su agregación donde tienen más valor. La segunda opción eliminaría la posibilidad de hacer negocio con los datos para, en lugar de eso, darles usos que no busquen el lucro privado sino el beneficio comunitario. Para ello, es imprescindible la construcción de infraestructuras que estén sometidas un control democrático de la ciudadanía. Es aquí donde movimientos sociales, organizaciones civiles y partidos políticos que verdaderamente aspiren a la emancipación tienen que empezar a generar discursos y acciones para llevarlo a cabo, pues es donde el capitalismo se encuentra en mejor estado de forma.

Este es un planteamiento de macropolítica, certero e inspirador, pero también lejano y utópico si no somos capaces de pensar en qué podemos hacer aquí y ahora, en la micropolítica que está a nuestro alcance y nos acerca a ese horizonte. Lo que pretende este artículo es proponer un camino que complemente a las propuestas de Morozov. Podemos comenzar por adoptar la filosofía/ética hacker. La figura del hacker es la de la persona curiosa, crítica, activa, que se preocupa por conocer cómo funcionan las tecnologías digitales mediante las que nos dominan, y compartir ese conocimiento.

Frente al discurso religioso del tecnoutopismo, la figura del hacker es la del hereje (significa ‘el que elige’) que se atreve a pensar por sí mismo/a y con los demás, a cuestionar la fe en la tecnología para convertirlo en conocimiento crítico y a dejar de tratar a las tecnologías digitales como objetos sagrados para desmontarlos y reprogramarlos. Sin necesidad de grandes cambios legislativos ni multimillonarios desembolsos de dinero, todos/as podemos empezar ya -a nivel individual y/o colectivo- a recuperar el control sobre nuestros datos, a subvertir las infraestructuras actuales, o crear otras nuevas. Las comunidades de (auto) aprendizaje, los centros sociales y los hacklabs son los lugares y el software libre la herramienta para ello.

Estas prácticas y conocimientos son las que pueden comenzar a proporcionarnos la soberanía tecnológica que, transformada en soberanía política, eventualmente puede desembocar en cambios a gran escala que nos permitan recuperar la propiedad de nuestros datos, cambiar su estatus legal y construir infraestructuras tecnológicas públicas y democráticas que nos liberen de las plataformas Big-Tech. Así, en último término, podremos organizar colectivamente una fuerza que ponga en crisis al capital, sea cual sea su forma.

*Este autor estuvo recientemente en el Museo Nacional Centro de Arte Reina Sofía para inaugurar el ciclo ‘Seis contradicciones y el fin del presente‘ con una conferencia y un taller bajo el título de ‘El Capitalismo digital y sus descontentos’ en el que se debatieron las cuestiones que recoge este artículo.

El gobierno de Internet | La ventana | medios y comunicación | Página12

Fuente original: El gobierno de Internet | La ventana | medios y com… | Página12

Juan Pablo Darioli demanda la creación de criterios democráticos y multilaterales de gobernanza de Internet para evitar la operación de poderes que rompen con el equilibrio de la circulación de la información.

Si bien uno intenta descreer o poner en cuestión las teorías conspirativas que abordan las relaciones de dominación desde una sola arista y de manera totalizadora, en este caso todas las piezas encajan. El escándalo que une a la red social Facebook con la firma británica Cambridge Analytica evidenció con un caso concreto como actúa el desarrollo y la articulación de los saberes relacionados al poder neoliberal, en este caso la neurociencia (para abordar los incentivos motivacionales que depara el uso de las redes sociales), la psicopolítica (para la elaboración de modos de sometimiento menos invasivos y menos detectables o smart según el filósofo Byung-Chul Han autor del libro “Psicopolítica. Neoliberalismo y nuevas técnicas de poder”) y, por último, la comunicación.

Los resultados en los casos revelados son innegables: por un lado, más de 17 millones de británicos tomaron la decisión de abandonar la Unión Europea y por el otro casi 63 millones de norteamericanos llevaron a Donald Trump a la presidencia.

No hay mayor novedad en la utilización de estrategias de segmentación, análisis e intento de influenciar los comportamientos electorales ya que desde mediados del siglo pasado son corrientes las investigaciones en este sentido. Los más notorio es el nivel de fidelidad, refinamiento y alcance que les otorga a estos estudios el funcionamiento de las nuevas tecnologías, en general, y más particularmente las apps sociales, las cuales aportan una verdadera cartografía sobre los usos y consumos de cada persona en disputas político-electorales muy cerradas. La cuenta de Facebook la tenemos relacionada a un mail, el WhatsApp a un número de celular y las aplicaciones de Google nos piden acceso constante al GPS para saber todo el tiempo dónde estamos. Entrecruzar con altos grados de certeza esa información tiene un valor trascendental y puesta en manos de una empresa analista de datos a gran escala produce resultados intervencionistas poco deseables.

En el ámbito de la comunicación debemos pensar en la implicancia de estos hechos: cómo intervienen ciertos actores en el ecosistema comunicacional para lograr ventajas en el flujo informativo y evaluar la incidencia de estas prácticas en el funcionamiento de las tecnologías digitales, que apela inherentemente a la utilización de estos datos tanto en su programación como en su esquema de negocios. Vemos que el tema es más complejo que un error de seguridad de Facebook y no se soluciona con un simple pedido de disculpas de Mark Zuckerberg en el Congreso de los EE.UU.

El problema es de matriz y el dilema, ético.

Si bien es importante el problema de las fakenews y es indispensable una discusión sobre la dimensión social y cultural de los algoritmos, nos encontramos ante una necesidad mayor, que es la de reclamar la creación de criterios democráticos y multilaterales de gobernanza de internet para evitar la operación de poderes que rompen con el equilibrio de la circulación de la información.

Juan Pablo Darioli: Licenciado en Periodismo (UNR).

Espías (parte II) | El Cohete a la Luna

Fuente original: Espías (parte II) | El Cohete a la Luna

Como siempre, visitar el sitio de origen, para obtener mayor información del tema y, en este caso, para conocer el enorme trabajo periodístico de este sitio independiente argentino. El Cohete a la Luna es un sitio de investigación y análisis creado por el periodista y escritor Horacio Verbitsky, conocido por su trabajo de investigaciones de décadas. Personalmente, pienso que es un periodista de los que ya no hay muchos. A Verbitsky lo acompaña un equipo de primera, varios de los cuales colaboraron o han colaborado (como el propio Verbitsky) en el pasado con el diario argentino Página 12.

(No tengo ninguna relación comercial, laboral o personal con El Cohete a la Luna ni con ninguno de sus miembros o colaboradores, salvo de ser ávido lector del sitio).

Hace unos días, en el Cohete, publicamos un artículo con el título: Espías. Si le interesó el tema, le sugiero que me siga con esta hoja de ruta. Usela como una guía, ya que es mi hoja de ruta. Esto seguro que usted tiene una propia. Acá voy.

1)    https://www.google.com/maps/timeline?pb

En este sitio queda registrada la actividad diaria, en términos geográficos: todos los lugares en los que usted estuvo, si fue caminando, en avión, en auto, en autobús. Además, el tiempo que permaneció en cada lugar. Al finalizar, hay una forma de recolectar toda la información diaria, de manera tal que usted pueda tener una lista con la frecuencia con la que usted visita cada sitio, y el tiempo que allí permanece. Naturalmente, el lugar en donde uno duerme (por poner un ejemplo), resulta ser un sitio de los más utilizados y donde permanece la mayor cantidad de tiempo. Lo mismo sucede con el trabajo, si es que usted tiene un trabajo fijo o le dedica una buena parte de su día, ya sea una oficina, una fábrica o un colegio, escuela o universidad. La diferencia es fácilmente observable cuando se trata de los fines de semana, cuando la rutina cambia.

2)    https://myactivity.google.com/myactivity

En este sitio está registrada toda su actividad en internet, ya sea las páginas que usted visitó, así como los correos electrónicos que usted recibió y/o envió. Si me permite agregar algo, “mete miedo”. En el título de la página dice que usted es la única persona que puede visitar estos datos. Puede que sea cierto, pero… si yo soy el único que puedo visitar esta página, ¿cómo sé yo (o sabe usted) que no hay otras personas que también tienen acceso a la misma información que aparece almacenada allí?

Algo más: aparecen también listadas todas las apps que usted utilizó, ya sea (por ejemplo), WhatsApp, ESPN, Snapchat, Instagram, Twitter, los diarios que lee, las que usa para averiguar el pronóstico y/o la temperatura, los lugares que usted ‘googleó’… ¿Hace falta que siga? Sí… una cosa más: en mi teléfono celular, yo puedo ‘dictar’ una frase para que, convertida a texto, la pueda enviar. En todo caso, permítame escribir que me impactó escuchar todo lo que fui grabando en el tiempo (y que luego fue traducido). ¿Quiere fijarse usted?

3)    https://myaccount.google.com/security

Esta página le permite establecer los niveles de ‘seguridad’ con los que usted quiere (y le pide a Google) que lo proteja. Aparecen también todas las plataformas que usted usa, ya sean los teléfonos celulares (si es que tiene más de uno), su(s) computadora(s), si es que tiene más de una, su(s) laptop(s), y también las tabletas que utiliza. Están todos. Más aún: aparecen las fechas en los que usted las usó por última vez (y la primera, claro está).

4)    https://www.youtube.com/feed/history.

En este sitio usted encontrará todas las veces que utilizó los servicios de YouTube. Aparece toda su historia. Como yo lo uso poco, aparecieron muy pocos ejemplos, pero mi amiga Erica, que estaba conmigo cuando ‘jugábamos’ a ver qué encontrábamos, se sorprendió por la enorme (y exhaustiva) lista de videos que ella tenía registrados en su historia. Una vez más, mi experiencia no le sirve a usted. Lo mejor que puedo hacer, es proponerle que sea usted misma (o mismo) que lo intente por su lado. Créame: se va a sorprender.

5)    https://takeout.google.com/settings/takeout

Este sitio también es impactante. Cuando usted llega acá, Google le ofrece la alternativa para que usted misma/o recupere todos los datos que Google tiene guardado sobre usted: ¡todos! Naturalmente, si usted ha utilizado mucho los servicios de Google, la memoria que va a necesitar para recuperar todo puede llegar a ser importante. Asegúrese que tenga suficiente espacio libre en su disco duro o procúrese un pendrive (o dispositivo equivalente) donde pueda almacenar muchos Gigabytes de memoria. Igualmente es increíble verse reflejado uno mismo en la cantidad de datos que ha compartido en el último tiempo: ¡impactante! Si puedo sugerirle algo una vez más, este es un lugar que uno no debería perderse. Eso sí: tómese tiempo. Lo va a necesitar. Aparecen todos los sitios que usted visitó, sus correos electrónicos, sus contactos, sus videos en YouTube… e incluso ¡las fotos que usted tomó con su teléfono! No sé si me entiende… ¡las fotos! Parece mentira… pero no, están allí… incluso las que usted descartó o tiró a la basura. Y por supuesto, también las fotos que usted recibió. Su calendario, los libros que compró, los grupos a los cuales usted pertenece, los números de teléfono de los contactos que o bien tiene hoy o que tuvo en algún momento…. ¡la cantidad de pasos que usted fue dando día por día! ¿Sigo?

6)    Acá tengo que hacer una pausa para una observación. Facebook ofrece los mismos servicios que acabo de describir para Google. El problema está en que como yo no uso Facebook, no tengo cuenta con ellos, no puedo revisarlos, pero por lo que me mostró Erica, están incluidos todos los mensajes que usted envió (o recibió), todos los archivos que usted envió (o recibió), todos los contactos que están en su teléfono celular, todos los mensajes de audio que usted envió (o recibió), todas las veces que usted se conectó en su cuenta de Facebook, desde donde lo hizo, el tiempo que estuvo visitando su cuenta y desde qué aparato lo hizo. De la misma forma que Google, Facebook sabe todos y cada uno de los pasos que usted dio en la última década.

7)    Un dato más: Facebook guarda todas las aplicaciones que usted utilizó mientras estuvo conectada/o con su cuenta, de manera tal que puede conjeturar cuán interesada/o usted está en cuestiones políticas o si lo que más le atrae es diseño gráfico. Sabe además si usted estuvo o es soltera/o, o bien si está interesada/o en cualquier servicio que coopere para que usted pueda encontrar pareja.

8)    Por último, al menos en este primer intento de advertirle lo que sucede, el rastrillaje que ellos (y usted) pueden hacer sobre su vida en la última década incluye las aplicaciones que usted instaló (y desinstaló) durante todo este tiempo, las razones por las cuales las usó (o usa), tiene acceso a su cámara web y su micrófono, y como dije más arriba, sus contactos, correos electrónicos, su calendario, la historia de todos sus llamados (entrantes y salientes), mensajes de texto enviados y recibidos, los archivos que usted bajó usando internet, incluyendo fotos, videos, audios, música, las estaciones de radio que usted escuchó (o escucha) y por supuesto, todas las búsquedas que usted hizo a lo largo de estos últimos diez años. 

Si uno pensara que cada vez (de nuevo: sí, ¡cada vez!) que uno se conecta con cualquiera de nuestros aparatos (computadoras, laptops, tabletas, teléfonos celulares, etc.) está engrosando la información que uno entrega sobre su privacidad… ¿seguiría haciéndolo, o no? Y lo planteo de esta forma porque aunque uno quisiera evitar dejar estos rastros desde hoy, sucederían algunos eventos que me gustaría compartir con usted.

Por un lado, ¿está segura/seguro de que usted podría vivir sin estar conectada/o?

Por otro lado, si Google (por poner un ejemplo) sabe en qué lugares ha pasado usted la mayor parte de su tiempo, dónde durmió, cenó, almorzó, a qué hora puso su despertador, dónde pasa sus fines de semana, qué música escucha, a qué hora se acuesta, qué medicamentos toma, qué bebidas, etc., etc… Usted, ¿lo cambiaría todo bruscamente? Aunque usted cortase todo contacto a partir de hoy, no solo debería hacerlo, sino que además debería cambiar de vida, de identidad, porque con los datos que hemos ido dejando hasta este momento, ¿no cree que Google podría rastrearla/o y encontrarla/o sin necesidad de saber exactamente dónde se encuentra?

Cuando uno cree que todo es y ha sido gratis, ha cometido (hemos cometido) un error: el producto somos nosotros. Más aún: yo creo que saben más de nosotros que nosotros mismos.

Tanto como usted, yo tengo múltiples preguntas, pero las más importantes serían: ¿qué podrían hacer con toda esta información? ¿Qué tipo de influencia tienen sobre nosotros al saber todos estos datos? ¿Qué pueden predecir? O mejor aún: ¿cómo han usado ya todos estos datos? ¿Qué hemos hecho nosotros hasta acá, creyendo que teníamos la libertad de elegir, sin saber que desde algún otro lugar estábamos siendo elegidos por otros?

¿Cuán peligroso es esto? ¿En manos de quiénes está toda esta información? Google y Facebook dicen que solamente nosotros tenemos acceso… ¿Seguro? ¿Y Cambridge Analítica de dónde salió? Si pudo tener semejante influencia en las elecciones de un país, y nada menos que Estados Unidos, ¿qué nos queda a nosotros?

Y si uno, por la edad que tiene/tengo, decide que ya no hay nada por hacer y que no hay vuelta atrás… ¿cómo proteger a los niños? Usted, ¿qué piensa?

Cuando la distopía tecnológica es una realidad. ¿Cuentos chinos?

Fuente original: Cuando la distopía tecnológica es una realidad. ¿Cuentos chinos?

El estado chino ha instalado 170 millones de cámaras de videovigilancia capaces de rotar 270 grados, operar de noche e identificar a 120 personas por segundo. Y esto solo es el principio ya que para el 2020 se prevé la instalación de 600 millones de cámaras que contribuirán a través de algoritmos gestionados por inteligencias artificiales a crear una base de datos de todos los ciudadanos en la que figurarán entre otros ADN, escaneo corporal y de iris. A través de esta pondrán en marcha un sistema de “crédito social” por puntos.

De aplicaciones de crédito a aplicaciones de “crédito social”: cuando se mezcla lo publico y lo privado

Zhima Credit es una aplicación que funciona actualmente con Alipay y te permite pagar con tu móvil. Dependiendo de tus hábitos y capacidad de compra te ofrece beneficios financieros. Lo rocambolesco (y por lo que se le compara con Black Mirror) es que la app te valora dependiendo de las interacciones que tengas con tus amigos en las redes sociales. Esta app no solo se usa en China sino que Airbnb también la está promocionando entre sus consumidores.

Tu puntuación social acaba repercutiendo en tu día a día dándote ciertos beneficios o inconvenientes. Cosas como no tener que dejar deposito al alquilar un hotel o vehículo, tener prioridad en aeropuertos si tu puntuación es alta o que no puedas acceder a determinados servicios, así como que se denieguen visados para Singapur o Luxemburgo si tu puntuación es baja.

Alibaba (una entidad de Big Data con más de 500 millones de usuarios en sus plataformas online) fue elegida por el Banco Central de China en 2015, para llevar a cabo el “Sistema de Crédito Zhima”. Según  su comercial Chris Tung es debido a la calidad de sus datos que van desde el tipo de cine que ve, la música que escucha o el coche que conduce. Lo cual permite reconstruir el estilo de vida del consumidor y sus afinidades. Si bien Zhima funciona como programa, es Alibaba quien decide la cantidad de puntos que otorga a cada cliente en base a su capacidad adquisitiva, su comportamiento y “su fiabilidad” gestionada por la capacidad de cumplir el contrato económico con Alipay o su reputación en la red.

Todo este procedimiento no sería posible sin la ayuda de la empresa privada Face ++, que es la que se ocupa del reconocimiento fácil y uso de las cámaras. Face ++ tiene acceso a las bases de datos del gobierno donde figuran todas las fotos de las personas buscadas y cuando el rostro de una de sus cámaras coincide con estos datos se activa una alarma.

Las empresas privadas son contratadas por el sector público y obtienen subvenciones estatales. Así mismo, las fuerzas de seguridad pueden usar las tecnologías de dichas empresas. Las autoridades y las empresas recaban y centralizan cada vez más información y debido a la potencia de los servidores es posible guardar cada vez más datos y relacionarlos (incluidos historiales médicos, transacciones y afiliaciones a diferentes organizaciones) .

Variaciones en el concepto de privacidad y reconocimiento facial

El reconocimiento facial ya era habitual en China, donde una Inteligencia Artificial te sugiere que tomar en base a tus facciones o tu edad en un restaurante. También puedes sacar dinero exhibiendo tu rostro en algunos cajeros o probarte ropa o cosméticos de forma virtual.

Estos avances tecnológicos también tienen usos de control social como el de mostrar en paneles los rostros de los ciudadanos incívicos que se han saltado un semáforo o han ido en dirección contraria. La única forma de que tu cara desaparezca del panel es pagar una multa en comisaría.

Aunque el concepto de reconocimiento facial nos suena un poco raro en Europa recordemos que algunos móviles ya se desbloquean con tus facciones y que la red social Facebook se ofrece a reconocer a tus amigos en las fotos para que los etiquetes y nadie pregunta a donde van a parar esos datos.

Sin duda, con el desarrollo de la web semántica, las redes sociales y de plataformas de compra online nuestro concepto de `privacidad´ ha variado muchísimo y es un argumento constantemente utilizado por los creadores de Alibaba: que están haciendo lo mismo que Facebook o Google y nadie pone el grito en el cielo por ellos.

Nuevos cambios legislativos, antes impensables

La verdadera incógnita del caso chino es qué nuevo paradigma social creará este cohabitar con el control constante. Un discurso muy manido y de común consenso es que la tecnología no es buena o mala en si misma sino una herramienta que según su uso puede derivar en unas situaciones u otras.

¿Qué parámetros usará el estado chino para manejar esta distopia tecnológica? Según ellos solo accederán a la red cuando sea necesario y utilizan el mismo argumento que el resto de los estados: “Si no haces nada malo, no hay nada que temer”.

Aseguran que esta red de videovigilancia preverá y acabará con los delitos. Sin embargo, el mercado internacional tiene claro que investigará las posiciones políticas de sus ciudadanos y reforzará el poder del estado y del Partido. Una opinión que sostiene Human Right Watch que cree que buscan identificar, a través de información privada, a las personas que se desvían del pensamiento normal para tenerlas vigiladas a través de lo que llaman `policía en la nube´.

Yo siempre creí que 1984 y  Minority Report eran advertencias, no manuales de uso.

Ciencia ciudadana en la web 3.0 | Noticias de Ciencia ciudadana en Heraldo.es

Fuente original: Ciencia ciudadana en la web 3.0 | Noticias de Ciencia ciudadana en Heraldo.es

La ciencia ciudadana necesita de la web semántica para hacer visibles e indexar correctamente los mil y un proyectos que surgen constantemente.

Francisco Sanz García  10/05/2018 a las 05:00
 ¿Cómo evitar que miles de proyectos queden en el olvido o perdidos en internet?

La ciencia ciudadana tiene cada vez más impacto; es un hecho objetivo. Son numerosos los proyectos de todo tipo que cada día surgen en todo el planeta. Esta heterogeneidad se hace palpable no solo en la rama de investigación en la que los proyectos son desarrollados, sino también en metodología, duración, número de participantes, rango de actuación, nivel de documentación, grado de consecución, etc. Es ahí, en esta heterogeneidad, donde radica uno de los puntos fuertes de la ciencia ciudadana, esta se convierte en una actuación rápida y directa que surge al detectarse un problema, una pregunta, etc.

Sin embargo, aunque resulte paradójico, esta es también una de las debilidades de la ciencia ciudadana. Millares de proyectos y de conocimientos pueden quedarse en el olvido, o perdidos en la world wide web, simplemente por carecer de una herramienta potente y flexible que los haga visibles y los indexe de forma correcta.

Este problema, desde luego, no es exclusivo de la ciencia ciudadana. Atañe y es uno de los problemas intrínsecos debidos a la naturaleza de la www, y es, sin duda, uno de los retos a resolver en los siguientes años.

La W3C (World Wide Web Consortium) está impulsando la web semántica, una extensión de la world wide web. Pretende ser un estándar -denominado web 3.0- de formatos e intercambio de datos en la web. Este concepto fue concebido por Tim Berners-Lee, el padre de la www.

Con esta extensión – adoptada en 2013 por más de 4 millones de dominios, es posible indicar, de forma que los robots buscadores puedan entender, de qué estamos hablando en cada momento. Un ejemplo: podríamos indicar en una web de un proyecto de ciencia ciudadana su duración, número de participantes, rama de investigación, etc. De forma que, con una simple búsqueda, podríamos ver todos los proyectos de ciencia ciudadana que se ejecutaron en 2016 en Austria o Italia y que involucraron a entre 100 y 150 participantes.

La tarea, sin embargo, no es sencilla, ya que en primer lugar habría que definir la ontología con la que hacer el marcado de los proyectos de ciencia ciudadana. Esta ontología debería cumplir los estándares definidos en schema.org, siendo compatibles con otros que ya se están definiendo, como openscience. Además, las páginas web de proyectos de ciencia ciudadana deberían adoptar esta extensión, incluyéndola en su código.

Más aún, Google, basándose en estos estándares, está implementando los Fact Check – Verificaciones de datos. Añadiendo Claim Review – definido en schema.org – podremos verificar datos/hechos de otras páginas. Con esto queremos decir que no estamos simplemente hablando de identificar items, sino que también podremos establecer relaciones entre ellos.

Resumiendo, la web 3.0 encuentra en los proyectos de ciencia ciudadana el lugar natural donde ser implementada, y la ciencia ciudadana necesita de la web semántica para poner en ella un orden (descentralizado). Es una ardua tarea, que, sin duda, merece la pena.

Francisco Sanz García Instituto de Biocomputación Físca de los Sistemas Complejos (Universidad de Zaragoza)

Esta sección se realiza en colaboración con el Observatorio de la Ciencia Ciudadana en España, coordinado por la Fundación Ibercivis

Experto en nuevas tecnologías: “El capitalismo digital es una privatización por la puerta de atrás” – RT

Fuente original: Experto en nuevas tecnologías: “El capitalismo digital es una privatización por la puerta de atrás” – RT

 El investigador y escritor Evgeny Morozov denuncia que las políticas de austeridad de los gobiernos llevadas a cabo durante la crisis han hecho que las empresas tecnológicas hayan logrado penetrar allí donde antes no habían podido.
Evgeny Morozov, investigador y experto en las implicaciones sociales y políticas de las nuevas tecnologías y uno de los mayores críticos sobre Cambridge Analytica, advierte de la nueva ola privatizadora que está suponiendo el capitalismo digital.

Para Morozov, la tecnología no cambia en muchos casos las dinámicas básicas sobre las que se asienta el orden social, sino que las hace mucho más complejas. Lo que podemos hacer, según su punto de vista, es replantearnos el modo en el que usamos la tecnología para no ser usados por aquellos de quienes dependen las plataformas tecnológicas.

El investigador desecha la visión optimista del capitalismo digital que dice que el futuro depende de nosotros y que el uso de las nuevas tecnologías puede ayudar a defendernos un poco mejor. Y desgrana cuál ha sido el desarrollo de las compañías tecnológicas en las últimas dos décadas desde la aparición de servicios gratuitos financiados por la publicidad de las empresas. Esa práctica poco a poco ha ido generando una gran cantidad de datos de aquellas personas que utilizan estos servicios, sobre todo en las redes sociales, lo que ha ido creando una customización de la publicidad a la que estamos expuestos.

Pero este modelo, afirma, también ha tenido consecuencias negativas, como se ha visto recientemente con las manipulaciones políticas del escándalo de Cambridge Analytica. En su opinión, las plataformas tecnológicas se están convirtiendo en extractoras de nuestros datos, que es como funcionan compañías como Google. Lo que ha ocurrido, relata, es que las mismas compañías que han estado recopilando estos datos están comenzando a utilizarlos de una forma diferente para manipularnos.

Así, nos pone un ejemplo: las verificaciones de Google para descartarnos como robots. Antes tenías que leer y teclear unas letras, y ahora te pide que reconozcas imágenes. Esas respuestas de todos los usuarios son utilizadas por Google para desarrollar tecnología de reconocimiento de imágenes y objetos, logrando que la gente haga ese trabajo para ellos, pero gratis.

Introduciéndose en lo que queda del Estado del Bienestar

Poco a poco, estas empresas están adquiriendo la posibilidad de entrar en terrenos donde antes no tenían la posibilidad de acceder. Pone otro ejemplo, el del Sistema Nacional de Salud del Reino Unido, donde Google ha tenido acceso a todos los historiales de los pacientes, lo que le ha permitido analizarlos para desarrollar sistemas de predicción. Así, ahora tienen acceso a unos datos que aumentan su valor como empresa a la hora de ofrecer otros productos.

Este tipo de servicio es ofrecido tan solo por unas pocas compañías de EE.UU. y China, que te venden que incorporando todos tus datos a sus servicios puedes funcionar de una forma mucho más eficiente. Pero en realidad lo que están haciendo es recopilando toda la información sobre ti.

Lo que se ha producido durante la última década en la que han tenido lugar los recortes presupuestarios por la crisis económica internacional, es que las Administraciones Públicas para poder ofrecer un sistema básico de servicios han sido y son proclives a utilizar los servicios de estas empresas, que consideran más eficientes, aunque les hayan tenido que entregar nuestros datos.

Otro caso más expuesto por Morozov es la protección contra ‘hackers’ que Google y otras empresas proponen, creando y ofreciendo sus propios productos para vendernos que nos deben proteger de los fallos de sus otros productos. “La centralización del acceso a la inteligencia artificial en manos de estas compañías está creando una situación nada alentadora (…) Es una privatización por la puerta de atrás”, concluye.

Así, una de las consecuencias del capitalismo digital es que en lo que quedaba del Estado del Bienestar también está penetrando el capitalismo. “Está entrando en áreas muy importantes”, subraya. 

Un sector de la economía que sigue creciendo

Morozov afirma que hay un sector de la economía que sigue creciendo, tanto en tamaño como en capitalización de mercado: el de la industria tecnológica, que es precisamente la que fomenta el uso de los datos.

Relata que Amazon, Google, Apple, Microsoft y Facebook han crecido en el último año cerca de 1,3 billones de dólares. Y podemos ver lo mismo en China.

Hay empresas que ni siquiera cotizan, como Uber, Airbnb o Volunteer. Pero cada una de ellas tiene un valor de entre 20.000 y 60.000 millones de dólares. El capital de estas empresas proviene de fondos de pensiones, entre otros de este tipo, que piensan que estas compañías pueden ser muy lucrativas. De esta manera, según explica el investigador, construyen un modelo y lo escalan a 200 países y, mientras, destruyen las empresas locales. Es precisamente lo que hace Uber con los taxis en países como España. El modelo es muy sencillo.

“Para que Uber consiga retorno para sus inversores (inversores como el Gobierno de Arabia Saudí o Goldman & Sachs) debe asegurarse de que pueda destruir a la competencia local”, afirma. Y han tenido bastante éxito y tienen unas técnicas “bastante ruines”, dice el investigador. Se pueden permitir perder dinero hasta que acaben con la competencia. Pueden hacerlo porque atraen capital de esos grandes inversores institucionales.

Otro ejemplo es el de la empresa japonesa SoftBank, un gran fondo que aumentó gracias al dinero barato durante la crisis económica, que involucra a otras empresas en la financiación de sus compras. SoftBank tiene una deuda enorme, según cuenta Morozov. Toma dinero, lo gasta y vuelve a tomar dinero prestado, debido al bajo interés del mercado, y así llega a dominar la industria, acaba con sus competidores y domina el mercado. Después puede recuperar lo perdido.

Con el alquiler ha sucedido lo mismo. Hemos asistido a cómo barrios enteros han subido de precio y cómo aumentan los alquileres de corta estancia. Se trata del fenómeno Airbnb. Esta compañía está financiada por fondos soberanos, como los de China y Singapur, descubre Morozov, que más o menos es cómo funcionan los fondos de pensiones.

Más allá de Silicon Valley

Por otro lado, explica que para entender esta financiarización tecnológica hay que seguir el dinero más allá de Silicon Valley. “Se está creando una burbuja que hasta que estalle va a seguir creciendo y creciendo”, vaticina el escritor.

La ausencia de crítica a lo que está sucediendo lo asocia a la paradoja del desprecio europeo hacia Donald Trump, ya que la mayor parte de los políticos europeos creen que estas empresas, mayoritariamente estadounidenses, son aliadas y pueden resolver el problema del desempleo o de los cuidados. Hay muchos políticos que fomentan la idea de que la asociación con ellas es la elección natural en nuestras sociedades, como Macron o Renzi, que son “los mejores amigos de las empresas tecnológicas”, opina.

Sin embargo, el hecho de que la ciudadanía no lo perciba así, como una crisis, le perturba muchísimo: “Tenemos que tomar esta crisis y utilizarla como una oportunidad de ofrecer los servicios del Estado del Bienestar de una forma mucho más descentralizada”, aconseja. De esta manera, se trataría de aprovechar algunas de las estructuras que han aparecido con plataformas como Uber o Airbnb y darles la vuelta para que beneficie a los ciudadanos y no solo a los inversores.

Europa deberá elegir entre tecnología de EE.UU. o de China

El gigante asiático también está en la carrera de las empresas tecnológicas. Morozov pone el ejemplo de la empresa china Alibaba, que ha comprometido 10.000 millones de dólares en los próximos años para desarrollar inteligencia artificial. China tiene comprometidos 125.000 millones de dólares para el sector hasta 2030.

Además, el investigador afirma que tenemos dos grandes gigantes tecnológicos, que son EE.UU. y China. Esta última es casi autosuficiente en términos tecnológicos y tiene muchos más datos que los norteamericanos, mientras que Europa casi no aparece en este mapa. “En los próximos años Europa tendrá que elegir entre tecnología estadounidense o china”, afirma.

Por otro lado, opina que este tema tiene que ser politizado por los partidos políticos. Deben trabajar sobre cómo se financia la infraestructura y sobre cómo tener una estrategia nacional sobre inteligencia artificial. “¿Qué tipo de régimen de propiedad de datos quieren?”, se pregunta.

La alternativa: democratización del acceso a datos

Evgeny Morozov apuesta por que nuestros datos no solo puedan ser propiedad de empresas como Facebook, Google o Amazon. Una alternativa sería que pudieran ser de propiedad colectiva y que esas empresas tuvieran que pagar por ellos como hacemos los ciudadanos como individuos.

El experto piensa que una solución puede ser la democratización del acceso a los datos. “Si no lo hacemos, podemos dañar la confianza que las personas tienen en las Administraciones Públicas”, explica. En caso contrario, ¿cómo sería la política en un mundo en que un pequeño número de empresas controlan todos los servicios?, se pregunta.

También cree que tenemos un “capitalismo superelevado”, que hay cierto consumo, ciertas libertades… pero que si no realizamos ningún cambio drástico, en el sentido de descentralizar las estructuras clave, “vamos a tener problemas”. Sin embargo, deja claro que no se refiere a la renacionalización de estos servicios, asegurando que ese concepto hoy en día no se puede barajar.

Según el escritor, se está delegando poder en las empresas y deberíamos ser capaces de conectar lo digital con lo político. En este sentido, considera que el espacio clave para la libertad política a partir de ahora debe reconsiderar la versión tecnocrática. “Estamos viendo una gestión puramente tecnocrática de las fuerzas políticas”, explica Morozov, que insta a ir más allá de la pura crítica moralista humanitaria. ¿Quién las financia? ¿Para qué? ¿Desde dónde?, deberían ser, en su opinión, algunas de las preguntas imprescindibles.

El investigador no considera que el problema sea ahora la protección de nuestros datos personales, sino encontrar “dinero, ganas y esfuerzo” para hacer algo con toda esa información. “Deben ser útiles para construir un proyecto común, que se puedan aprovechar no solo por las empresas para su propio beneficio”, sostiene. Así, el escritor plantea utilizar esos datos para que tengan un servicio público sin comprometer la privacidad de las personas.

¿Quién es Evgeny Morozov?

La aparición en la escena internacional del bielorruso Evgeny Morozov supuso un soplo de aire fresco en un campo que desde hace mucho tiempo se ha caracterizado por una falta de autocrítica y una autoconcepción un tanto ‘naif’. Conocido por su punto de vista escéptico sobre la idea de que Internet está ayudando a democratizar regímenes autoritarios, afirma que igualmente se puede utilizar para aumentar la represión y la vigilancia de los disidentes.

Nacido en 1984, este investigador y escritor estudia las implicaciones políticas y sociales de la tecnología. Su primer libro ‘Net desilusion. The dark side of the Internet freedom’ (‘El desengaño de Internet. Los mitos de la libertad en la red’, en español), de 2011, supuso una revolución en la forma en que se percibía el fenómeno de Internet. En 2013 volvió a sorprender con su segundo libro: ‘To save everything, click here’ (‘La locura del solucionismo tecnológico’ en español), donde rompía con el mito de que había algo inherentemente liberador en las nuevas tecnologías.

***Las declaraciones recogidas en este artículo han sido realizadas en una conferencia llamada ‘Capitalismo digital y sus descontentos’ enmarcada en una serie de conferencias organizada por el Museo Nacional de Arte Contemporáneo Reina Sofía de Madrid que lleva el título de ‘Seis contradicciones y el fin del presente’.

Nuria López

A %d blogueros les gusta esto: