Archivo de la categoría: Facebook

Los cercos del algoritmo | Medios y comunicación | Página12

Fuente original: Los cercos del algoritmo | Medios y comunicación | Página12

Como siempre, recomiendo visitar el sitio del artículo original, para obtener mayor información del tema y, en este caso, para conocer el enorme trabajo periodístico de este medio independiente argentino.

Si tiene intención de hacerse socio de Página 12, colaborando económicamente con el medio, desde la siguiente página, se pueden leer las opciones: https://www.pagina12.com.ar/apps/membresias/ (No tengo ninguna relación comercial, laboral o personal con Página 12, salvo de ser ávido lector desde hace décadas).

Roberto Samar y Javier Cantarini explican cómo Facebook y Google segmentan las opiniones que se ven en los muros y en las búsquedas de acuerdo con la ideología del titular de las cuentas. Los riesgos de un mundo de guetos.

Hace tiempo que en tu cuenta de Facebook no aparece ninguna publicación de contactos con los que supiste compartir algún tramo de tu vida. Entonces lo buscas por su nombre y te das cuenta que sus publicaciones distan mucho de tus ideas y gustos. Un fuerte impulso por ver que apoya todas las expresiones que de alguna manera crees que son perjudiciales para la sociedad te hace dar gracias a la red social más consumida en Argentina por haberlo ocultado.

Pero si hacemos el ejercicio de ver más allá de nuestras narices y gustos podemos darnos cuenta que nos vamos construyendo un cerco social y comunicacional. O que, en verdad, nos construye el algoritmo que usa Facebook de acuerdo a nuestros clics.

Un cerco que también se fortalece con los servicios de noticias a los que estamos suscriptos que dirigen la información de acuerdos a nuestras preferencias. Si simpatizas con Cambiemos te llegará una catarata de noticias vinculadas al discurso de la mano dura o de estigmatización de la pobreza, pero seguramente no te enteres del aumento de la violencia institucional que denuncia la Coordinadora Contra la Represión Policial e Institucional.

Una situación similar se da en la industria del entretenimiento como Netflix que te satura con un contenido siempre idéntico, dificultando que puedas encontrar títulos alternativos que pueden poner en tensión tu mirada motivando así el ejercicio del pensamiento crítico. O el buscador de internet más utilizado, Google, que desde 2009 arroja distintos resultados a pesar que las personas busquen la misma palabra.

El integrante de MoveOn, Eli Pariser, ejemplifica en su texto el Filtro Burbuja que, con la personalización de Google, “la consulta ‘células madre’ puede producir resultados diametralmente opuestos en el caso de que los usuarios sean científicos que apoyen la investigación o activistas que se opongan. En otras palabras, ya no existe un Google estándar”.

En los consumos culturales y de noticias, siempre existió lo que se denominó una “exposición selectiva”. Es decir, que tendemos a exponernos a contenidos que nos son afines. La particularidad del momento actual, es que los discursos y contenidos que no coinciden con nuestros puntos de vista se nos vuelven invisibles por los filtros que producen las nuevas tecnologías.

Pariser afirma que “la nueva generación de filtros de internet observa las cosas que parecen gustarte”. Y que de esta manera “tu pantalla de ordenador es cada vez más una especie de espejo unidireccional que refleja tus propios intereses, mientras los analistas de los algoritmos observan todo lo que clicas”. En un mundo globalizado y en el que internet y las redes sociales se presentaron como la democratización de la información a gran escala ¿Qué sentido tiene que los mismos contenidos circulen entre las mismas personas?

“La era de una conexión cívica con la que tanto soñaba no ha llegado. La democracia precisa de ciudadanos que vean las cosas desde el punto de vista de otros, pero en vez de eso cada vez estamos más encerrados en nuestras burbujas”, sintetiza Parisir.

Todo hace pensar que estas nuevas estructuras comunicacionales podrían profundizar las grietas ideológicas. Ahora, el desafío que se nos presenta es construir puentes, espacios de diálogo que tal vez incomoden, pero que sí puedan poner en tensión esas burbujas, especialmente a las que sostienen y alimentan discursos anti-políticos, machistas, xenófobos y estigmatizantes que nos retrotraen a los momentos más oscuros y tristes de nuestra historia.

Roberto Samar es especialista en Comunicación y culturas UNCO. Docente de la UNRN

Javier Cantarini es Periodista. Integrante de la RED PAR. Diplomado en Comunicación con Perspectiva de Género y Derechos Humanos.

Richard Stallman: Facebook es un monstruo de vigilancia que se alimenta de nuestros datos

En una entrevista en el canal de noticias RT con Richard Stallman, programador, activista de software libre e instigador del proyecto GNU en 1983, sugirió que “Facebook es un monstruo de vigilancia” que se alimenta nuestros datos personales.

Según Richard Stallman, no hay duda al respecto. Facebook es un gran “motor de monitoreo” al que temer, porque la compañía tiene una gran cantidad de datos sobre cada persona que interactúa con sus plataformas, incluso si solo fue una vez.

La recopilación de datos personales es hoy en día la principal actividad de las redes sociales, ya que les permite categorizar a sus usuarios y ofrecerles los servicios que puedan necesitar.

Facebook solo debe servir para conectar a las personas una sola vez

En los últimos años, se han expresado preocupaciones sobre la seguridad de estos datos y la privacidad de los usuarios cuando la cantidad de escándalos a los que están vinculados los nombres de estas empresas ha aumentado significativamente, incluido Facebook. .

Para Stallman, la cosa está muy clara, una plataforma como Facebook no debería existir, porque no es muy útil para el mundo, sino que se convierte en una amenaza diaria para la seguridad de aquellos que usarlo.

Richard Stallman ha analizado los servicios ofrecidos por Facebook y dijo en la entrevista que lo único que él cree puede ser un poco útil en la plataforma es que puede ponerse en contacto con muchas personas, aparte de eso, el resto no importa, dice.

Desde el punto de vista de Richard, este tipo de plataformas deberían, en tiempos normales, simplemente servir para conectarse con las personas que lo deseen y una vez hecho esto “no debe seguir usándolas para comunicarse con su destinatario”.

Ya que esto lo puede hacer a través de otro sistema de comunicación de su elección, en este caso más seguro.

Habló sobre el hecho de que cuanto más tiempo permaneces en Facebook, más se te alienta a proporcionar más y más datos sobre ti mismo y más acabas siendo la mercancía que Facebook y su gente venden.

“Usted ve, el modelo de negocio de Facebook es presionar a las personas para que continúen comunicándose a través de Facebook y le den información personal a Facebook.

Eso es lo que hace de Facebook un monstruo de vigilancia. Facebook no tiene usuarios, pero de hecho, Facebook usa personas.

Yo no soy uno de ellos. Nunca he tenido una cuenta de Facebook y nunca lo haré. Facebook incluso está espiando a personas que no tienen una cuenta “, dijo.

La recopilación y venta de datos ya esta fuera de control

¿Por qué debería preocuparse la gente por los datos que las redes sociales recopilan sobre ellos?

Cuando RT le hizo esta pregunta, Stallman respondió que:

“Facebook personaliza a las personas y esta información se utiliza para manipularlos y para saber exactamente lo que quieren saber o no”.

Stallman fue un paso más allá al afirmar que gracias a este dominio sobre los datos, Facebook se utiliza para cometer discriminación racial en las ofertas de empleo y vivienda, y por lo tanto puede dañar a la población de muchas maneras.

Además, continúa, el gobierno de los EE. UU, a su discreción, puede decidir recopilar todos estos datos en cualquier momento y aprender mucho más sobre las personas.

Lo que él ha tratado de explicar es que ahora hay “intermediarios de datos”, ya que existen corredores de bolsa en Wall Street para animar las operaciones del mercado de valores.

Por ejemplo, las grandes compañías de datos como Google y Facebook, cada una con una gran cantidad de datos sobre personas, las venden a través de intermediarios de datos. Este proceso permite a los corredores estudiar los datos que poseen para conocer las identidades reales de las personas.

Cuando estas entidades toman posesión de estos datos, dice, están al tanto de sus actividades en Facebook, en Google y en Twitter, su registro de viaje de Uber, etc.

Y finalmente, juntan todo para sacar conclusiones.

Para Stallman, la situación ha llegado a un punto crítico y es probable que las cosas no mejoren, porque se supone que los que compran estos datos no conocen esa información sobre las personas.

Fuente y entrevista completa: https://www.rt.com

No hay una conspiración para estudiar cómo eras hace diez años: ya lo sabían – Nec Otium – Diario La Información

Fuente original: No hay una conspiración para estudiar cómo eras hace diez años: ya lo sabían – Nec Otium – Diario La Informacion

Como siempre, recomiendo leer el artículo en su sitio original.

El reto #10yearschallenge ha plagado internet de fotos tal como eramos hace una década. ¿Es una estrategia para tener más datos de los usuarios?

No puedes convencer a un terraplanista y eso debería preocuparte | Ciencia | EL PAÍS

Fuente original: No puedes convencer a un terraplanista y eso debería preocuparte | Ciencia | EL PAÍS

Como siempre, recomiendo visitar el sitio del artículo original, para obtener mayor información del tema.

Negar que la Tierra es esférica es el caso más extremo de un fenómeno que define esta época: recelar de los datos, ensalzar la subjetividad, rechazar lo que nos contradice y creer falsedades propagadas en redes.

Hay gente que cree que la Tierra no es una esfera achatada por los polos, sino un disco. Que la Tierra es plana. No es analfabetismo: estudiaron el Sistema Solar y sus planetas en el colegio, pero en los últimos años han decidido que todo eso de “la bola” es una gigantesca manipulación. Solo el 66% de los jóvenes entre 18 y 24 años de EE UU está plenamente seguro de que vivimos en un planeta esférico (el 76% entre 25 y 34 años). Es un fenómeno global, también presente en España, al que cuesta asomarse sin bromear. Pero al observar los mecanismos psicológicos, sociales y culturales que les llevan a convencerse de esta gigantesca conspiración se descubre una metáfora perfecta que resume los problemas más representativos de esta época. Aunque parezca medieval, es muy actual.

Rechazo de la ciencia y los expertos, narraciones maniqueas que explican lo complejo en tiempos de incertidumbre, entronización de la opinión propia por encima de todo, desprecio hacia los argumentos que la contradigan, difusión de falsedades gracias a los algoritmos de las redes… Está todo ahí. “Es el caso más extremo, el más puro”, resume Josep Lobera, especialista en la sociología de los fenómenos pseudocientíficos. Cada flaqueza o actitud de este colectivo está presente de algún modo en muchos de los movimientos políticos, sociales y anticiencia que han irrumpido en nuestros días.

“Nace de la desconfianza en el conocimiento experto y de una mala manera de entender el escepticismo”, afirma Susana Martínez-Conde, directora del laboratorio de Neurociencia Integrada de la Universidad Estatal de Nueva York. Los estudios sobre terraplanistas y otras teorías de la conspiración indican que ellos creen ser quienes están actuando con lógica y razonando de forma científica. En muchos casos, terminan atrapados en la conspiración tras intentar desmontarla. “Es absurdo. Voy a desmentir que la Tierra es plana”, cuenta Mark Sargent, uno de los más reconocidos terraplanistas en el documental que retrata al colectivo a la perfección, La Tierra es plana (Netflix). Y acabó “hundiéndose, como en un pozo de alquitrán”. La mayoría de terraplanistas no han sido convencidos, se han convencido al verse incapaces de demostrar que bajo sus pies hay una bola de 510 millones de kilómetros cuadrados.

“¡Investígalo por ti mismo!”, se animan unos a otros, según recoge la investigadora Asheley Landrum, de la Universidad Texas Tech, que presentó hace dos semanas el resultado de sus investigaciones sobre los terraplanistas en la Asociación Estadounidense para el Avance de la Ciencia. La primera diapositiva de su conferencia es una imagen de Copérnico, padre de la idea de que la Tierra orbita alrededor del Sol, reconociendo que estaba equivocado tras pasar cinco horas viendo vídeos terraplanistas en YouTube. Porque según Landrum y su equipo, que estudia estos fenómenos en el proyecto Creencias Alternativas, YouTube es la clave. Todos los terraplanistas se hacen terraplanistas viendo a otros terraplanistas en YouTube. Y una vez forman parte de esa comunidad es casi imposible convencerles de su error, porque se activan mecanismos psicológicos muy poderosos, como el pensamiento motivado: solo acepto como válidos los datos que me reafirman y el resto son manipulaciones de los conspiradores. Como en otros movimientos, si la ciencia me desdice, es que la ciencia está comprada.

YouTube parece ser la amalgama de la comunidad de la Tierra plana”, concluyen en su trabajo más reciente, en el que señalan a esta plataforma de vídeos como el origen de las vocaciones conspiranoicas. El equipo de Landrum entrevistó a una treintena de asistentes a la primera Conferencia Internacional de la Tierra Plana y todos describían YouTube como “una fuente fiable de evidencias” y de los proveedores más populares para “noticias imparciales” frente a los medios manipulados. Se habían hecho terraplanistas viendo vídeos en esa plataforma en los tres años previos y muchos entrevistados describen estar viendo piezas sobre otras conspiraciones (del 11-S, por ejemplo) y terminar atrapados con la historia de la Tierra plana gracias a las recomendaciones de YouTube.

Muchos especialistas han denunciado cómo el algoritmo de recomendaciones de YouTube termina convirtiéndose en una espiral descendente hacia contenidos cada vez más extremistas, manipuladores y tóxicos. Y en este caso no es una excepción. Como defienden los terraplanistas, YouTube se ha convertido en el mejor caldo de cultivo para versiones “alternativas” de la realidad, donde se desarrollan mensajes alocados y provocadores al margen de la “ciencia y los científicos convencionales”. Sobre cualquier tema, desde la cura del cáncer hasta el feminismo, pasando por la astronomía, lo habitual es encontrar los mensajes más controvertidos entre los primeros resultados de la búsqueda. Lógicamente, estos mensajes tienen derecho a subirse a la red, pero los algoritmos los están promocionando por encima de contenidos relevantes. “Un usuario individual de YouTube, por ejemplo, sin respeto por la verdad, el rigor o la coherencia, en algunos casos puede llegar a una audiencia comparable” a la de los grandes medios, critica Alex Olshansky, del equipo de Landrum.

Irreductibles

“Solo confío en lo que ven mis ojos”, repiten una y otra vez los terraplanistas. Aunque como dice esta especialista en percepción, es bastante común que nuestros propios sentidos sean los primeros en engañarnos, como muestran todas las ilusiones ópticas. “Ellos sacan las matemáticas y nosotros decimos: ‘Mira”, dice el terraplanista Sargent en el documental para explicar su éxito. “No necesitas fórmulas para entender dónde vives”, resume este hombre que había pasado por todas las conspiraciones antes de llegar a esta viendo vídeos en la red.

“Como la gente que niega el cambio climático, no los vas a convencer con datos, hay que buscar la forma de despertar las emociones de la gente”, explica la neurocientífica Martínez-Conde. Y añade: “Nuestro cableado neural responde a las emociones más que a los datos. Ese problema ha contribuido a dar lugar a los populismos y especialmente con el fenómeno de las redes sociales que favorece que la desinformación se expanda de manera peligrosa”.

Un reportaje recién publicado en The Verge sobre los moderadores de contenidos de Facebook mostraba que muchos de estos trabajadores precarios estaban cayendo atrapados en las conspiraciones que tenían que controlar. “Me dijeron que es un lugar donde los vídeos de conspiraciones y los memes que ven cada día los llevan gradualmente a abrazar ideas extrañas”, describe el periodista Casey Newton. Uno de los moderadores del centro que visitó promueve entre sus compañeros la idea de que la Tierra es plana, otro cuestiona el Holocausto y otro no cree que el 11-S fuera un ataque terrorista.

Esto no debería sorprender: son muchos los estudios que demuestran cómo la simple exposición a mensajes sobre conspiraciones provoca en la gente una paulatina pérdida de confianza en las instituciones, la política o la ciencia. Con consecuencias tangibles: por ejemplo, la creencia en conspiraciones está vinculada a actitudes racistas o un menor uso de protección frente al sida. Todos los terraplanistas creen en otras conspiraciones y llegaron a esa cosmovisión paranoica a través de otras teorías similares. Es característica la predisposición a creer en distintas teorías de la conspiración a la vez, incluso contradictorias entre sí: las mismas personas podían creer a la vez que Bin Laden no está realmente muerto o que ya estaba muerto cuando llegaron los militares estadounidenses a su vivienda.

YouTube es la clave. Todos los terraplanistas se convierten viendo vídeos que en muchos casos el algoritmo les ha recomendado cuando veían otras conspiraciones

Por ejemplo, buena parte de los terraplanistas son a su vez antivacunas. Lobera, que estudia a este colectivo en España, admite que esta cosmovisión conspirativa “es uno de los factores decisivos”, aunque no el más importante. “Hay puertas de entrada al mundo de las pseudociencias y una conexión entre estas creencias”, explica el sociólogo.

“En la medida en que el pensamiento conspirativo está generalizado, comienza a plantear un problema para el mantenimiento de una esfera pública racional en la que las discusiones y los debates políticos se basan en evidencias, en lugar de traficar con sospechas de que un grupo manipula los hechos desde las sombras para impulsar una agenda oculta”, asegura Olshansky en su trabajo. En este sentido, los terraplanistas, por sus creencias extremas, son como el reflejo de la sociedad en los espejos deformantes del callejón del Gato. Llegados al punto en que hay mucha gente que acepta su mensaje con naturalidad, eso indica que existe un deterioro real de las condiciones en las que se produce el debate público.

Pero estas creencias no surgen de la nada y existen condiciones sociales que influyen de forma determinante. Por ejemplo, se sabe que las personas que se sienten impotentes o desfavorecidas tienen más probabilidades de apoyarlas (como minorías raciales marginadas) y que están correlacionadas con el pesimismo ante el futuro, la baja satisfacción con la vida y la escasa confianza interpersonal. “Hay que entender estos movimientos dentro del contexto socioeconómico en el que nos encontramos, están aumentando las disparidades sociales entre quienes tienen más privilegios y más carencias. Y esto hace que aumente la desconfianza hacia gobiernos y expertos”, explica Martínez-Conde.

Hay condiciones sociales que influyen de forma determinante: se sabe que las personas que se sienten impotentes o desfavorecidas tienen más probabilidades de creer en conspiraciones

“Vivimos en tiempos de incertidumbre y a nivel neural la incertidumbre nos hace sentir incómodos”, señala la neurocientífica. Estas disonancias cognitivas obligan a crear un relato propio de buenos y malos que explique de forma simplista los fenómenos complejos de la actualidad. Y que les coloque en el papel heroico de luchadores por la verdad ocultada: las creencias conspirativas siempre han estado asociadas a cierto narcisismo colectivo (“los demás son los borregos”). Además, las personas con tendencia a ver patrones y significados ocultos en la realidad tienen mayor tendencia a creer en conspiraciones y fenómenos paranormales. “Son más dados a ese tipo de ilusiones causales. Como ver caras en las nubes, pero llevado al extremo: ver caras en una tostada y darle significado real”, explicaba Helena Matute, investigadora de Deusto, sobre su trabajo con lo paranormal.

A partir de ese poso, nos encontramos con mecanismos psicológicos como el sesgo de proporcionalidad (si algo extraordinario ha ocurrido, algo extraordinario debe haberlo causado) y el de intencionalidad: hay una mano detrás de todo. “Este deseo de narraciones ordenadas que ofrezcan certeza y visiones simplificadas del mundo puede brindar comodidad y la sensación de que la vida es más manejable”, resume Landrum en su trabajo. Así conseguirían sortear los altibajos de la vida, apostando por una realidad lisa y llana. Como la Tierra, según quieren creer.

Deceived by design – Engañado por diseño

Fuente original (en inglés): https://cryptome.org//2018/07/deceived-by-design.pdf

Un documento de investigación científica nos revela cómo las compañías de tecnología usan patrones oscuros para desalentarnos de ejercer nuestros derechos a la privacidad.

En este informe, analizamos una muestra de la configuración de Facebook, Google y Windows 10, y mostramos cómo la configuración predeterminada y los patrones oscuros, las técnicas y las características del diseño de la interfaz destinadas a manipular a los usuarios, se utilizan para empujar a los usuarios hacia las opciones intrusivas de privacidad. Los hallazgos incluyen la configuración predeterminada de privacidad intrusiva, la redacción engañosa, dar a los usuarios una ilusión de control, ocultar las opciones que favorecen la privacidad, las opciones que se toman o se dejan y las arquitecturas de elección en las que la elección de la opción que favorece la privacidad requiere más esfuerzo por parte de los usuarios.

Facebook y Google tienen valores predeterminados intrusivos de privacidad, en los que los usuarios que desean la opción de privacidad amigable tienen que pasar por un proceso significativamente más largo. Incluso oscurecen algunos de estos ajustes para que el usuario no pueda saber que la opción más intrusiva de privacidad fue preseleccionada.

Las ventanas emergentes de Facebook, Google y Windows 10 tienen un diseño, símbolos y palabras que alejan a los usuarios de las opciones de privacidad. Las opciones están redactadas para obligar a los usuarios a tomar ciertas decisiones, mientras que la información clave es omitida o minimizada. Ninguno de ellos permite al usuario posponer libremente las decisiones.

Además, Facebook y Google amenazan a los usuarios con la pérdida de funcionalidad o la eliminación de la cuenta de usuario si el usuario no elige la opción intrusiva de privacidad. Los ajustes de GDPR de Facebook, Google y Windows 10 proporcionan a los usuarios opciones granulares con respecto a la recopilación y uso de datos personales. Al mismo tiempo, encontramos que los proveedores de servicios emplean numerosas tácticas para empujar o empujar a los consumidores a compartir la mayor cantidad de datos posible.

El 4º Poder en Red » Soberanía tecnológica para combatir al capitalismo digital

Fuente original: El 4º Poder en Red » Soberanía tecnológica para combatir al capitalismo digital

Como siempre, recomiendo visitar el sitio del artículo original, para obtener mayor información del tema. En este caso, recomiendo el trabajo que viene realizando el períódico español Público, y  a través de él, sus blogs, intentando mantenerse independiente en un ambiente de grandes grupos económicos.

19 Abr 2018

Integrante de la Comunidad CCCD y ex alumno del Máster en Comunicación, Cultura y Ciudadanía Digitales. Periodista e investigador de la URJC en el proyecto Dietética Digital. Editor del blog de Público Dietética Digital.

Uno de los capítulos del último ensayo del Comité Invisible, titulado ‘Ahora’, termina con la siguiente frase: ‘la única medida del estado de crisis del capital es el grado de organización de las fuerzas que pretenden destruirlo’. Así, la denominada crisis financiera de 2008 quizás no lo fue tanto. El 15M, precisamente una de esas fuerzas, resumió con mucha lucidez en una de sus máximas esta idea con el famoso ‘no es una crisis, es una estafa’. Desde luego lo fue para la ciudadanía, a la vista del aumento de la desigualdad que se ha generado diez años después. Para la élite fue momento de recambio. El sistema experimentó un cambio de forma. El capitalismo financiero daba paso al capitalismo digital, con la consecuente sustitución de una élite dominante por otra. Desde la década de los ’90 venía desarrollándose un tipo de capitalismo en Internet que ha pasado por diversas fases de gestación como la burbuja de las puntocom o la web 2.0. y que dio sus primeros pasos en los ámbitos de la publicidad online y el comercio electrónico.

La mutación del capitalismo se puede observar en cómo ha cambiado el ranking de las mayores empresas del mundo por capitalización bursátil. Donde antes había compañías petroleras y automovilísticas, ahora hay plataformas tecnológicas digitales. Estas empresas son a las que Eugeny Morozov* denomina plataformas Big-Tech, refiriéndose a las GAFAM (Google, Amazon, Facebook, Apple y Microsoft), principalmente, aunque también destacando algunas potencias tecnológicas emergentes en China, como Alibaba. Silicon Valley, la Meca de las GAFAM, ha sustituido a Wall Street como centro neurálgico del capital. Es el lugar desde el que se propaga al resto del mundo -occidental, al menos- la doctrina hegemónica actual, el tecnoutopismo. Es a lo que Morozov llama ‘solucionismo tecnológico’, es decir, la creencia de que las tecnologías digitales son y serán capaces de ofrecernos soluciones a todos los problemas del mundo y, por tanto, debemos depositar nuestra fe ciega en ellas, y en los nuevos amos que las dominan.

Estas empresas han alcanzado tal posición de poder, y la mantienen, mediante dos factores elementales. La extracción y acumulación masiva de datos generados por los usuarios, el Big Data; y la posesión de las infraestructuras que median, cada vez más, nuestras relaciones sociales, políticas y económicas. La venta de estos datos para insertar publicidad micro-segmentada -Google y Facebook-, la venta de software y hardware -Apple y Microsoft- y el abaratamiento de costes en el comercio electrónico -Amazon- son los más obvios. Sin embargo, los modelos de negocio de la economía digital han ido evolucionando y diversificándose más allá de la publicidad y el comercio online. Con ellos, las implicaciones del capitalismo digital han ido mucho más allá de cuestiones como la privacidad y la vigilancia masiva -como demostraron las filtraciones de Edward Snowden- y la micro-segmentación, ya no solo comercial si no electoral, como ejemplifica el caso de Cambridge Analytica.

Capitalismo digital expandido

Los algoritmos que hacen de motor de la economía digital toman muchas más decisiones de las que nos imaginamos. Cada vez más, son responsables de decidir si una persona recibe un crédito en un banco, si puede contratar un seguro, si tiene acceso a una universidad, o si es contratada por una empresa. Con el objetivo de reducir costes y maximizar la eficiencia, se emplean algoritmos capaces de procesar mucha más información que un ser humano, con la ventaja añadida de que no precisa de un salario -ni se va a quejar por ello- y otorga un aura de neutralidad e imparcialidad a la toma de decisiones. Esto último es un mito que es necesario rebatir, pues este modelo de toma de decisiones ‘objetivo’ responde a los sesgos introducidos por los humanos que los programaron. Además, la falta de transparencia alrededor de su funcionamiento evita que se pueda revisar ese proceso para evaluar si se hace correctamente. Así, los algoritmos se convierten en generadores de desigualdad, lo que la matemática Cathy O’Neill llama ‘Armas de Destrucción Matemática’.

En la expansión de la utilización de algoritmos en amplios sectores de la sociedad encontramos el modelo de negocio del futuro (y ya del presente) para las plataformas Big-Tech, el de la Inteligencia Artificial (IA). El Big Data es utilizado para alimentar estos algoritmos, desarrollando así la rama de la IA denominada ‘aprendizaje automático’. De este modo, las corporaciones que ya controlan gran parte de las infraestructuras que hacen posible el entorno digital pueden colonizar el mundo físico. Con un sistema público enormemente degradado, especialmente con las políticas de austeridad impuestas durante la última década, la IA se presenta como la mejor solución para optimizar los -escasos- recursos, mediante la predicción de patrones de comportamiento en ámbitos como la educación y la sanidad, entre muchos otros.

Como estas empresas son, por el momento, las únicas con capacidad para extraer masivas cantidades de datos de los usuarios y de utilizar su trabajo voluntario para alimentar a sus máquinas predictivas, la competencia para ellas es prácticamente inexistente, dándose la formación de ‘monopolios naturales’. Así, van progresivamente copando y centralizando todas las infraestructuras y servicios generando una extrema dependencia de ellas por parte, no solo de la ciudadanía, sino de otras empresas y de los estados.

¿Qué hacer?

Ahora bien, ¿que podemos hacer ante este, ya no futuro, si no presente distópico en el que nos encontramos? Las propuestas de Morozov pasan por el cambio de propiedad y estatus legal de los datos, y por la creación de infraestructuras públicas -no necesariamente estatales- que sean capaces de ofrecer una alternativa a las corporaciones privadas digitales.

Partiendo de la base de que la propiedad de los datos pase a ser de las personas que los producen es un elemento fundamental para revertir la actual situación, de este escenario surgen dos caminos bien distintos. Resumidamente, o tratar a los datos como una mercancía o como un bien común. La primera opción, la que propugnan personas como Steve Bannon (jefe de campaña de Trump y uno de los fundadores de Cambridge Analytica), desembocaría en un capitalismo digital aún más salvaje y ni siquiera lograría que los datos revirtiesen en beneficios para la gente, pues es en su agregación donde tienen más valor. La segunda opción eliminaría la posibilidad de hacer negocio con los datos para, en lugar de eso, darles usos que no busquen el lucro privado sino el beneficio comunitario. Para ello, es imprescindible la construcción de infraestructuras que estén sometidas un control democrático de la ciudadanía. Es aquí donde movimientos sociales, organizaciones civiles y partidos políticos que verdaderamente aspiren a la emancipación tienen que empezar a generar discursos y acciones para llevarlo a cabo, pues es donde el capitalismo se encuentra en mejor estado de forma.

Este es un planteamiento de macropolítica, certero e inspirador, pero también lejano y utópico si no somos capaces de pensar en qué podemos hacer aquí y ahora, en la micropolítica que está a nuestro alcance y nos acerca a ese horizonte. Lo que pretende este artículo es proponer un camino que complemente a las propuestas de Morozov. Podemos comenzar por adoptar la filosofía/ética hacker. La figura del hacker es la de la persona curiosa, crítica, activa, que se preocupa por conocer cómo funcionan las tecnologías digitales mediante las que nos dominan, y compartir ese conocimiento.

Frente al discurso religioso del tecnoutopismo, la figura del hacker es la del hereje (significa ‘el que elige’) que se atreve a pensar por sí mismo/a y con los demás, a cuestionar la fe en la tecnología para convertirlo en conocimiento crítico y a dejar de tratar a las tecnologías digitales como objetos sagrados para desmontarlos y reprogramarlos. Sin necesidad de grandes cambios legislativos ni multimillonarios desembolsos de dinero, todos/as podemos empezar ya -a nivel individual y/o colectivo- a recuperar el control sobre nuestros datos, a subvertir las infraestructuras actuales, o crear otras nuevas. Las comunidades de (auto) aprendizaje, los centros sociales y los hacklabs son los lugares y el software libre la herramienta para ello.

Estas prácticas y conocimientos son las que pueden comenzar a proporcionarnos la soberanía tecnológica que, transformada en soberanía política, eventualmente puede desembocar en cambios a gran escala que nos permitan recuperar la propiedad de nuestros datos, cambiar su estatus legal y construir infraestructuras tecnológicas públicas y democráticas que nos liberen de las plataformas Big-Tech. Así, en último término, podremos organizar colectivamente una fuerza que ponga en crisis al capital, sea cual sea su forma.

*Este autor estuvo recientemente en el Museo Nacional Centro de Arte Reina Sofía para inaugurar el ciclo ‘Seis contradicciones y el fin del presente‘ con una conferencia y un taller bajo el título de ‘El Capitalismo digital y sus descontentos’ en el que se debatieron las cuestiones que recoge este artículo.

El gobierno de Internet | La ventana | medios y comunicación | Página12

Fuente original: El gobierno de Internet | La ventana | medios y com… | Página12

Juan Pablo Darioli demanda la creación de criterios democráticos y multilaterales de gobernanza de Internet para evitar la operación de poderes que rompen con el equilibrio de la circulación de la información.

Si bien uno intenta descreer o poner en cuestión las teorías conspirativas que abordan las relaciones de dominación desde una sola arista y de manera totalizadora, en este caso todas las piezas encajan. El escándalo que une a la red social Facebook con la firma británica Cambridge Analytica evidenció con un caso concreto como actúa el desarrollo y la articulación de los saberes relacionados al poder neoliberal, en este caso la neurociencia (para abordar los incentivos motivacionales que depara el uso de las redes sociales), la psicopolítica (para la elaboración de modos de sometimiento menos invasivos y menos detectables o smart según el filósofo Byung-Chul Han autor del libro “Psicopolítica. Neoliberalismo y nuevas técnicas de poder”) y, por último, la comunicación.

Los resultados en los casos revelados son innegables: por un lado, más de 17 millones de británicos tomaron la decisión de abandonar la Unión Europea y por el otro casi 63 millones de norteamericanos llevaron a Donald Trump a la presidencia.

No hay mayor novedad en la utilización de estrategias de segmentación, análisis e intento de influenciar los comportamientos electorales ya que desde mediados del siglo pasado son corrientes las investigaciones en este sentido. Los más notorio es el nivel de fidelidad, refinamiento y alcance que les otorga a estos estudios el funcionamiento de las nuevas tecnologías, en general, y más particularmente las apps sociales, las cuales aportan una verdadera cartografía sobre los usos y consumos de cada persona en disputas político-electorales muy cerradas. La cuenta de Facebook la tenemos relacionada a un mail, el WhatsApp a un número de celular y las aplicaciones de Google nos piden acceso constante al GPS para saber todo el tiempo dónde estamos. Entrecruzar con altos grados de certeza esa información tiene un valor trascendental y puesta en manos de una empresa analista de datos a gran escala produce resultados intervencionistas poco deseables.

En el ámbito de la comunicación debemos pensar en la implicancia de estos hechos: cómo intervienen ciertos actores en el ecosistema comunicacional para lograr ventajas en el flujo informativo y evaluar la incidencia de estas prácticas en el funcionamiento de las tecnologías digitales, que apela inherentemente a la utilización de estos datos tanto en su programación como en su esquema de negocios. Vemos que el tema es más complejo que un error de seguridad de Facebook y no se soluciona con un simple pedido de disculpas de Mark Zuckerberg en el Congreso de los EE.UU.

El problema es de matriz y el dilema, ético.

Si bien es importante el problema de las fakenews y es indispensable una discusión sobre la dimensión social y cultural de los algoritmos, nos encontramos ante una necesidad mayor, que es la de reclamar la creación de criterios democráticos y multilaterales de gobernanza de internet para evitar la operación de poderes que rompen con el equilibrio de la circulación de la información.

Juan Pablo Darioli: Licenciado en Periodismo (UNR).

A %d blogueros les gusta esto: