Archivo de la categoría: Redes sociales

Los cercos del algoritmo | Medios y comunicación | Página12

Fuente original: Los cercos del algoritmo | Medios y comunicación | Página12

Como siempre, recomiendo visitar el sitio del artículo original, para obtener mayor información del tema y, en este caso, para conocer el enorme trabajo periodístico de este medio independiente argentino.

Si tiene intención de hacerse socio de Página 12, colaborando económicamente con el medio, desde la siguiente página, se pueden leer las opciones: https://www.pagina12.com.ar/apps/membresias/ (No tengo ninguna relación comercial, laboral o personal con Página 12, salvo de ser ávido lector desde hace décadas).

Roberto Samar y Javier Cantarini explican cómo Facebook y Google segmentan las opiniones que se ven en los muros y en las búsquedas de acuerdo con la ideología del titular de las cuentas. Los riesgos de un mundo de guetos.

Hace tiempo que en tu cuenta de Facebook no aparece ninguna publicación de contactos con los que supiste compartir algún tramo de tu vida. Entonces lo buscas por su nombre y te das cuenta que sus publicaciones distan mucho de tus ideas y gustos. Un fuerte impulso por ver que apoya todas las expresiones que de alguna manera crees que son perjudiciales para la sociedad te hace dar gracias a la red social más consumida en Argentina por haberlo ocultado.

Pero si hacemos el ejercicio de ver más allá de nuestras narices y gustos podemos darnos cuenta que nos vamos construyendo un cerco social y comunicacional. O que, en verdad, nos construye el algoritmo que usa Facebook de acuerdo a nuestros clics.

Un cerco que también se fortalece con los servicios de noticias a los que estamos suscriptos que dirigen la información de acuerdos a nuestras preferencias. Si simpatizas con Cambiemos te llegará una catarata de noticias vinculadas al discurso de la mano dura o de estigmatización de la pobreza, pero seguramente no te enteres del aumento de la violencia institucional que denuncia la Coordinadora Contra la Represión Policial e Institucional.

Una situación similar se da en la industria del entretenimiento como Netflix que te satura con un contenido siempre idéntico, dificultando que puedas encontrar títulos alternativos que pueden poner en tensión tu mirada motivando así el ejercicio del pensamiento crítico. O el buscador de internet más utilizado, Google, que desde 2009 arroja distintos resultados a pesar que las personas busquen la misma palabra.

El integrante de MoveOn, Eli Pariser, ejemplifica en su texto el Filtro Burbuja que, con la personalización de Google, “la consulta ‘células madre’ puede producir resultados diametralmente opuestos en el caso de que los usuarios sean científicos que apoyen la investigación o activistas que se opongan. En otras palabras, ya no existe un Google estándar”.

En los consumos culturales y de noticias, siempre existió lo que se denominó una “exposición selectiva”. Es decir, que tendemos a exponernos a contenidos que nos son afines. La particularidad del momento actual, es que los discursos y contenidos que no coinciden con nuestros puntos de vista se nos vuelven invisibles por los filtros que producen las nuevas tecnologías.

Pariser afirma que “la nueva generación de filtros de internet observa las cosas que parecen gustarte”. Y que de esta manera “tu pantalla de ordenador es cada vez más una especie de espejo unidireccional que refleja tus propios intereses, mientras los analistas de los algoritmos observan todo lo que clicas”. En un mundo globalizado y en el que internet y las redes sociales se presentaron como la democratización de la información a gran escala ¿Qué sentido tiene que los mismos contenidos circulen entre las mismas personas?

“La era de una conexión cívica con la que tanto soñaba no ha llegado. La democracia precisa de ciudadanos que vean las cosas desde el punto de vista de otros, pero en vez de eso cada vez estamos más encerrados en nuestras burbujas”, sintetiza Parisir.

Todo hace pensar que estas nuevas estructuras comunicacionales podrían profundizar las grietas ideológicas. Ahora, el desafío que se nos presenta es construir puentes, espacios de diálogo que tal vez incomoden, pero que sí puedan poner en tensión esas burbujas, especialmente a las que sostienen y alimentan discursos anti-políticos, machistas, xenófobos y estigmatizantes que nos retrotraen a los momentos más oscuros y tristes de nuestra historia.

Roberto Samar es especialista en Comunicación y culturas UNCO. Docente de la UNRN

Javier Cantarini es Periodista. Integrante de la RED PAR. Diplomado en Comunicación con Perspectiva de Género y Derechos Humanos.

Richard Stallman: Facebook es un monstruo de vigilancia que se alimenta de nuestros datos

En una entrevista en el canal de noticias RT con Richard Stallman, programador, activista de software libre e instigador del proyecto GNU en 1983, sugirió que “Facebook es un monstruo de vigilancia” que se alimenta nuestros datos personales.

Según Richard Stallman, no hay duda al respecto. Facebook es un gran “motor de monitoreo” al que temer, porque la compañía tiene una gran cantidad de datos sobre cada persona que interactúa con sus plataformas, incluso si solo fue una vez.

La recopilación de datos personales es hoy en día la principal actividad de las redes sociales, ya que les permite categorizar a sus usuarios y ofrecerles los servicios que puedan necesitar.

Facebook solo debe servir para conectar a las personas una sola vez

En los últimos años, se han expresado preocupaciones sobre la seguridad de estos datos y la privacidad de los usuarios cuando la cantidad de escándalos a los que están vinculados los nombres de estas empresas ha aumentado significativamente, incluido Facebook. .

Para Stallman, la cosa está muy clara, una plataforma como Facebook no debería existir, porque no es muy útil para el mundo, sino que se convierte en una amenaza diaria para la seguridad de aquellos que usarlo.

Richard Stallman ha analizado los servicios ofrecidos por Facebook y dijo en la entrevista que lo único que él cree puede ser un poco útil en la plataforma es que puede ponerse en contacto con muchas personas, aparte de eso, el resto no importa, dice.

Desde el punto de vista de Richard, este tipo de plataformas deberían, en tiempos normales, simplemente servir para conectarse con las personas que lo deseen y una vez hecho esto “no debe seguir usándolas para comunicarse con su destinatario”.

Ya que esto lo puede hacer a través de otro sistema de comunicación de su elección, en este caso más seguro.

Habló sobre el hecho de que cuanto más tiempo permaneces en Facebook, más se te alienta a proporcionar más y más datos sobre ti mismo y más acabas siendo la mercancía que Facebook y su gente venden.

“Usted ve, el modelo de negocio de Facebook es presionar a las personas para que continúen comunicándose a través de Facebook y le den información personal a Facebook.

Eso es lo que hace de Facebook un monstruo de vigilancia. Facebook no tiene usuarios, pero de hecho, Facebook usa personas.

Yo no soy uno de ellos. Nunca he tenido una cuenta de Facebook y nunca lo haré. Facebook incluso está espiando a personas que no tienen una cuenta “, dijo.

La recopilación y venta de datos ya esta fuera de control

¿Por qué debería preocuparse la gente por los datos que las redes sociales recopilan sobre ellos?

Cuando RT le hizo esta pregunta, Stallman respondió que:

“Facebook personaliza a las personas y esta información se utiliza para manipularlos y para saber exactamente lo que quieren saber o no”.

Stallman fue un paso más allá al afirmar que gracias a este dominio sobre los datos, Facebook se utiliza para cometer discriminación racial en las ofertas de empleo y vivienda, y por lo tanto puede dañar a la población de muchas maneras.

Además, continúa, el gobierno de los EE. UU, a su discreción, puede decidir recopilar todos estos datos en cualquier momento y aprender mucho más sobre las personas.

Lo que él ha tratado de explicar es que ahora hay “intermediarios de datos”, ya que existen corredores de bolsa en Wall Street para animar las operaciones del mercado de valores.

Por ejemplo, las grandes compañías de datos como Google y Facebook, cada una con una gran cantidad de datos sobre personas, las venden a través de intermediarios de datos. Este proceso permite a los corredores estudiar los datos que poseen para conocer las identidades reales de las personas.

Cuando estas entidades toman posesión de estos datos, dice, están al tanto de sus actividades en Facebook, en Google y en Twitter, su registro de viaje de Uber, etc.

Y finalmente, juntan todo para sacar conclusiones.

Para Stallman, la situación ha llegado a un punto crítico y es probable que las cosas no mejoren, porque se supone que los que compran estos datos no conocen esa información sobre las personas.

Fuente y entrevista completa: https://www.rt.com

No hay una conspiración para estudiar cómo eras hace diez años: ya lo sabían – Nec Otium – Diario La Información

Fuente original: No hay una conspiración para estudiar cómo eras hace diez años: ya lo sabían – Nec Otium – Diario La Informacion

Como siempre, recomiendo leer el artículo en su sitio original.

El reto #10yearschallenge ha plagado internet de fotos tal como eramos hace una década. ¿Es una estrategia para tener más datos de los usuarios?

No puedes convencer a un terraplanista y eso debería preocuparte | Ciencia | EL PAÍS

Fuente original: No puedes convencer a un terraplanista y eso debería preocuparte | Ciencia | EL PAÍS

Como siempre, recomiendo visitar el sitio del artículo original, para obtener mayor información del tema.

Negar que la Tierra es esférica es el caso más extremo de un fenómeno que define esta época: recelar de los datos, ensalzar la subjetividad, rechazar lo que nos contradice y creer falsedades propagadas en redes.

Hay gente que cree que la Tierra no es una esfera achatada por los polos, sino un disco. Que la Tierra es plana. No es analfabetismo: estudiaron el Sistema Solar y sus planetas en el colegio, pero en los últimos años han decidido que todo eso de «la bola» es una gigantesca manipulación. Solo el 66% de los jóvenes entre 18 y 24 años de EE UU está plenamente seguro de que vivimos en un planeta esférico (el 76% entre 25 y 34 años). Es un fenómeno global, también presente en España, al que cuesta asomarse sin bromear. Pero al observar los mecanismos psicológicos, sociales y culturales que les llevan a convencerse de esta gigantesca conspiración se descubre una metáfora perfecta que resume los problemas más representativos de esta época. Aunque parezca medieval, es muy actual.

Rechazo de la ciencia y los expertos, narraciones maniqueas que explican lo complejo en tiempos de incertidumbre, entronización de la opinión propia por encima de todo, desprecio hacia los argumentos que la contradigan, difusión de falsedades gracias a los algoritmos de las redes… Está todo ahí. «Es el caso más extremo, el más puro», resume Josep Lobera, especialista en la sociología de los fenómenos pseudocientíficos. Cada flaqueza o actitud de este colectivo está presente de algún modo en muchos de los movimientos políticos, sociales y anticiencia que han irrumpido en nuestros días.

«Nace de la desconfianza en el conocimiento experto y de una mala manera de entender el escepticismo», afirma Susana Martínez-Conde, directora del laboratorio de Neurociencia Integrada de la Universidad Estatal de Nueva York. Los estudios sobre terraplanistas y otras teorías de la conspiración indican que ellos creen ser quienes están actuando con lógica y razonando de forma científica. En muchos casos, terminan atrapados en la conspiración tras intentar desmontarla. «Es absurdo. Voy a desmentir que la Tierra es plana», cuenta Mark Sargent, uno de los más reconocidos terraplanistas en el documental que retrata al colectivo a la perfección, La Tierra es plana (Netflix). Y acabó «hundiéndose, como en un pozo de alquitrán». La mayoría de terraplanistas no han sido convencidos, se han convencido al verse incapaces de demostrar que bajo sus pies hay una bola de 510 millones de kilómetros cuadrados.

«¡Investígalo por ti mismo!», se animan unos a otros, según recoge la investigadora Asheley Landrum, de la Universidad Texas Tech, que presentó hace dos semanas el resultado de sus investigaciones sobre los terraplanistas en la Asociación Estadounidense para el Avance de la Ciencia. La primera diapositiva de su conferencia es una imagen de Copérnico, padre de la idea de que la Tierra orbita alrededor del Sol, reconociendo que estaba equivocado tras pasar cinco horas viendo vídeos terraplanistas en YouTube. Porque según Landrum y su equipo, que estudia estos fenómenos en el proyecto Creencias Alternativas, YouTube es la clave. Todos los terraplanistas se hacen terraplanistas viendo a otros terraplanistas en YouTube. Y una vez forman parte de esa comunidad es casi imposible convencerles de su error, porque se activan mecanismos psicológicos muy poderosos, como el pensamiento motivado: solo acepto como válidos los datos que me reafirman y el resto son manipulaciones de los conspiradores. Como en otros movimientos, si la ciencia me desdice, es que la ciencia está comprada.

YouTube parece ser la amalgama de la comunidad de la Tierra plana», concluyen en su trabajo más reciente, en el que señalan a esta plataforma de vídeos como el origen de las vocaciones conspiranoicas. El equipo de Landrum entrevistó a una treintena de asistentes a la primera Conferencia Internacional de la Tierra Plana y todos describían YouTube como «una fuente fiable de evidencias» y de los proveedores más populares para «noticias imparciales» frente a los medios manipulados. Se habían hecho terraplanistas viendo vídeos en esa plataforma en los tres años previos y muchos entrevistados describen estar viendo piezas sobre otras conspiraciones (del 11-S, por ejemplo) y terminar atrapados con la historia de la Tierra plana gracias a las recomendaciones de YouTube.

Muchos especialistas han denunciado cómo el algoritmo de recomendaciones de YouTube termina convirtiéndose en una espiral descendente hacia contenidos cada vez más extremistas, manipuladores y tóxicos. Y en este caso no es una excepción. Como defienden los terraplanistas, YouTube se ha convertido en el mejor caldo de cultivo para versiones «alternativas» de la realidad, donde se desarrollan mensajes alocados y provocadores al margen de la «ciencia y los científicos convencionales». Sobre cualquier tema, desde la cura del cáncer hasta el feminismo, pasando por la astronomía, lo habitual es encontrar los mensajes más controvertidos entre los primeros resultados de la búsqueda. Lógicamente, estos mensajes tienen derecho a subirse a la red, pero los algoritmos los están promocionando por encima de contenidos relevantes. «Un usuario individual de YouTube, por ejemplo, sin respeto por la verdad, el rigor o la coherencia, en algunos casos puede llegar a una audiencia comparable» a la de los grandes medios, critica Alex Olshansky, del equipo de Landrum.

Irreductibles

«Solo confío en lo que ven mis ojos», repiten una y otra vez los terraplanistas. Aunque como dice esta especialista en percepción, es bastante común que nuestros propios sentidos sean los primeros en engañarnos, como muestran todas las ilusiones ópticas. «Ellos sacan las matemáticas y nosotros decimos: ‘Mira», dice el terraplanista Sargent en el documental para explicar su éxito. «No necesitas fórmulas para entender dónde vives», resume este hombre que había pasado por todas las conspiraciones antes de llegar a esta viendo vídeos en la red.

«Como la gente que niega el cambio climático, no los vas a convencer con datos, hay que buscar la forma de despertar las emociones de la gente», explica la neurocientífica Martínez-Conde. Y añade: «Nuestro cableado neural responde a las emociones más que a los datos. Ese problema ha contribuido a dar lugar a los populismos y especialmente con el fenómeno de las redes sociales que favorece que la desinformación se expanda de manera peligrosa».

Un reportaje recién publicado en The Verge sobre los moderadores de contenidos de Facebook mostraba que muchos de estos trabajadores precarios estaban cayendo atrapados en las conspiraciones que tenían que controlar. «Me dijeron que es un lugar donde los vídeos de conspiraciones y los memes que ven cada día los llevan gradualmente a abrazar ideas extrañas», describe el periodista Casey Newton. Uno de los moderadores del centro que visitó promueve entre sus compañeros la idea de que la Tierra es plana, otro cuestiona el Holocausto y otro no cree que el 11-S fuera un ataque terrorista.

Esto no debería sorprender: son muchos los estudios que demuestran cómo la simple exposición a mensajes sobre conspiraciones provoca en la gente una paulatina pérdida de confianza en las instituciones, la política o la ciencia. Con consecuencias tangibles: por ejemplo, la creencia en conspiraciones está vinculada a actitudes racistas o un menor uso de protección frente al sida. Todos los terraplanistas creen en otras conspiraciones y llegaron a esa cosmovisión paranoica a través de otras teorías similares. Es característica la predisposición a creer en distintas teorías de la conspiración a la vez, incluso contradictorias entre sí: las mismas personas podían creer a la vez que Bin Laden no está realmente muerto o que ya estaba muerto cuando llegaron los militares estadounidenses a su vivienda.

YouTube es la clave. Todos los terraplanistas se convierten viendo vídeos que en muchos casos el algoritmo les ha recomendado cuando veían otras conspiraciones

Por ejemplo, buena parte de los terraplanistas son a su vez antivacunas. Lobera, que estudia a este colectivo en España, admite que esta cosmovisión conspirativa «es uno de los factores decisivos», aunque no el más importante. «Hay puertas de entrada al mundo de las pseudociencias y una conexión entre estas creencias», explica el sociólogo.

«En la medida en que el pensamiento conspirativo está generalizado, comienza a plantear un problema para el mantenimiento de una esfera pública racional en la que las discusiones y los debates políticos se basan en evidencias, en lugar de traficar con sospechas de que un grupo manipula los hechos desde las sombras para impulsar una agenda oculta», asegura Olshansky en su trabajo. En este sentido, los terraplanistas, por sus creencias extremas, son como el reflejo de la sociedad en los espejos deformantes del callejón del Gato. Llegados al punto en que hay mucha gente que acepta su mensaje con naturalidad, eso indica que existe un deterioro real de las condiciones en las que se produce el debate público.

Pero estas creencias no surgen de la nada y existen condiciones sociales que influyen de forma determinante. Por ejemplo, se sabe que las personas que se sienten impotentes o desfavorecidas tienen más probabilidades de apoyarlas (como minorías raciales marginadas) y que están correlacionadas con el pesimismo ante el futuro, la baja satisfacción con la vida y la escasa confianza interpersonal. «Hay que entender estos movimientos dentro del contexto socioeconómico en el que nos encontramos, están aumentando las disparidades sociales entre quienes tienen más privilegios y más carencias. Y esto hace que aumente la desconfianza hacia gobiernos y expertos», explica Martínez-Conde.

Hay condiciones sociales que influyen de forma determinante: se sabe que las personas que se sienten impotentes o desfavorecidas tienen más probabilidades de creer en conspiraciones

«Vivimos en tiempos de incertidumbre y a nivel neural la incertidumbre nos hace sentir incómodos», señala la neurocientífica. Estas disonancias cognitivas obligan a crear un relato propio de buenos y malos que explique de forma simplista los fenómenos complejos de la actualidad. Y que les coloque en el papel heroico de luchadores por la verdad ocultada: las creencias conspirativas siempre han estado asociadas a cierto narcisismo colectivo («los demás son los borregos»). Además, las personas con tendencia a ver patrones y significados ocultos en la realidad tienen mayor tendencia a creer en conspiraciones y fenómenos paranormales. «Son más dados a ese tipo de ilusiones causales. Como ver caras en las nubes, pero llevado al extremo: ver caras en una tostada y darle significado real», explicaba Helena Matute, investigadora de Deusto, sobre su trabajo con lo paranormal.

A partir de ese poso, nos encontramos con mecanismos psicológicos como el sesgo de proporcionalidad (si algo extraordinario ha ocurrido, algo extraordinario debe haberlo causado) y el de intencionalidad: hay una mano detrás de todo. «Este deseo de narraciones ordenadas que ofrezcan certeza y visiones simplificadas del mundo puede brindar comodidad y la sensación de que la vida es más manejable», resume Landrum en su trabajo. Así conseguirían sortear los altibajos de la vida, apostando por una realidad lisa y llana. Como la Tierra, según quieren creer.

Dolina sobre Macri: «Es infausto lo que estamos viviendo». – YouTube

Plataforma Solid

En octubre del 2018 Tim Berners-Lee, el creador de la Web, hizo otro aporte a la comunidad de Internet. Ese aporte se llama Solid. Básicamente y explicado a las apuradas, la propuesta es separar los datos de las aplicaciones, dando al usuario la decisión de elegir dónde quiere que sus datos se almacenen y quiénes acceden a ellos. Asimismo, si alguna aplicación lo bloquea, no bloquea sus datos, que se pueden seguir usando desde otra aplicación.
No tuve más noticias de esto desde entonces, pero la idea promete.

¿Qué es Solid?
Solid es un nuevo y emocionante proyecto dirigido por el Prof. Tim Berners-Lee, inventor de la World Wide Web, que tiene lugar en el MIT. El objetivo del proyecto es cambiar radicalmente la forma en que funcionan las aplicaciones web en la actualidad, lo que se traduce en una verdadera propiedad de los datos y en una mayor privacidad.

¿Qué ofrece Solid?
Sólido (derivado de «datos sociales vinculados») es un conjunto propuesto de convenciones y herramientas para crear aplicaciones sociales descentralizadas basadas en principios de Datos vinculados. Solid es modular y extensible y se basa tanto como sea posible en los estándares y protocolos existentes de W3C.

De un vistazo, esto es lo que ofrece Solid…

Verdadera propiedad de los datos:
Los usuarios deben tener la libertad de elegir dónde residen sus datos y quién puede acceder a ellos. Al desacoplar el contenido de la aplicación, los usuarios ahora pueden hacerlo.

Diseño modular:
Debido a que las aplicaciones están desconectadas de los datos que producen, los usuarios podrán evitar el bloqueo del proveedor, cambiando sin problemas entre las aplicaciones y los servidores de almacenamiento de datos personales, sin perder ningún dato o conexión social.

Reutilizando datos existentes:
Los desarrolladores podrán innovar fácilmente creando nuevas aplicaciones o mejorando las aplicaciones actuales, mientras reutilizan los datos existentes creados por otras aplicaciones.

¿Qué está pasando ahora?:
El éxito del proyecto Solid ha llevado a nuevos desarrollos interesantes para ayudarlo a obtener una amplia adopción mundial.

Inrupt:
Nos complace observar que una nueva empresa, Inrupt Inc., pondrá su propio esfuerzo en la tecnología de código abierto Solid y en el movimiento Solid.
Inrupt está construyendo un ecosistema comercial para impulsar el éxito de Solid y proteger la integridad de la siguiente fase de la web. Su misión es restaurar la propiedad legítima de los datos a cada usuario de la web y desencadenar una nueva ola de innovación: para desarrolladores, para negocios, para todos.

Lea la carta abierta de Tim a la comunidad sobre Solid and Inrupt.

Sitio de la comunidad de Solid:
El mejor recurso para todas las cosas Solid es ahora el sitio de la comunidad Solid, con el apoyo de Inrupt.
Allí encontrará actualizaciones regulares de la comunidad, una gran cantidad de recursos y documentación para desarrolladores, e información general sobre cómo funciona Solid.
https://solid.mit.edu/

«La próxima revolución política será por el control de los algoritmos»

Fuente original: «La próxima revolución política será por el control de los algoritmos»

Palabra de dios. Por mandato real. Es la economía, estúpido. La historia ofrece constantemente ejemplos de cómo las personas recurrimos al mito de la autoridad superior para revestir de una supuesta justicia objetiva nuestras decisiones. Para Cathy O’Neil, los algoritmos son el siguiente mito en esa lista.

O’Neil, matemática doctorada en Harvard, posdoctorada en el MIT, fue una de las primeras en señalar que nuestro nuevo emperador también está desnudo. Un algoritmo (o la celebrada Inteligencia Artificial, que «no es más que un término de marketing para nombrar a los algoritmos») es tan machista, racista o discriminador como aquel que lo diseña. Mal programados, pueden llegar a ser Armas de Destrucción Matemática (Capitán Swing), como detalla en su libro sobre el peligro que representan para la democracia.

Defiende que existe una diferencia entre lo que la gente piensa que es un algoritmo y lo que realmente es un algoritmo. ¿Cuál es?

La gente piensa que un algoritmo es un método para tratar de llegar a una verdad objetiva. Hemos desarrollado una fe ciega en ellos porque pensamos que hay una autoridad científica detrás.

En realidad un algoritmo es algo tonto, básicamente un sistema de perfiles demográficos generado a partir del big data. Averigua si eres un cliente que paga o cuáles son tus posibilidades para comprar una casa en base a pistas que has ido dejando, como cuál es tu clase social, tu riqueza, tu raza o tu etnia.

¿Qué es un arma de destrucción matemática?

Es un algoritmo importante, secreto y destructivo. Injusto para los individuos que evalúa.

Normalmente son un sistema de puntuación. Si tienes una puntuación lo suficientemente elevada se te da una opción, pero si no la consigues se te deniega. Puede ser un puesto de trabajo o la admisión en la universidad, una tarjeta de crédito o una póliza de seguros. El algoritmo te asigna una puntuación de manera secreta, no puedes entenderla, no puedes plantear un recurso. Utiliza un método de decisión injusto.

Sin embargo, no solo es algo injusto para el individuo, sino que normalmente este sistema de decisión es algo destructivo también para la sociedad. Con los algoritmos estamos tratando de trascender el prejuicio humano, estamos tratando de poner en marcha una herramienta científica. Si fracasan, provocan que la sociedad entre un bucle destructivo, porque aumentan la desigualdad progresivamente.

Pero también puede ser algo más preciso. Puede ser un algoritmo para decidir quién accede a la libertad condicional racista, uno que determina qué barrios sufren una mayor presión policial en función de la presencia de minorías…

¿A quién le pedimos cuentas cuando un algoritmo es injusto?

Es una buena pregunta. La semana pasada salió a la luz que luz que Amazon tenía un algoritmo de selección de personal sexista. Cada vez que ocurre algo así, las empresas se muestran sorprendidas, toda la comunidad tecnológica se muestra sorprendida. En realidad es una reacción fingida, hay ejemplos de algoritmos discriminatorios por todas partes.

Si admitieran que los algoritmos son imperfectos y que potencialmente pueden ser racistas o sexistas, ilegales, entonces tendrían que abordar este problema para todos los algoritmos que están utilizando. Si hacen como si nadie supiera nada pueden seguir promulgando esta fe ciega en los algoritmos, que ellos en realidad no tienen, pero que saben que el resto del público tiene.

Por eso escribí el libro, para que la gente deje de estar intimidada por los modelos matemáticos. No hay que abandonar la automatización ni dejar de confiar en los algoritmos, pero sí exigir que rindan cuentas. Sobre todo cuando actúan en un campo en el que no hay una definición clara de qué es «éxito». Ese es el tipo de algoritmo que me preocupa. Quien controle el algoritmo controla la definición de éxito. Los algoritmos siempre funcionan bien para la gente que los diseña, pero no sabemos si funcionan bien para la gente objetivo de esos algoritmos. Pueden ser tremendamente injustos para ellos.

¿La próxima revolución política será por el control de los algoritmos?

En cierto sentido, sí. Creo que los algoritmos reemplazarán todos los procesos burocráticos humanos porque son más baratos, más fáciles de mantener y mucho más fáciles de controlar. Así que, sí: la cuestión sobre quién tiene el control está relacionada con quién despliega ese algoritmo. Espero que nosotros tengamos un control con rendición de cuentas sobre ellos.

Pero si nos fijamos en un lugar como China, donde  hay sistemas de puntuaciones sociales que son intentos explícitos de controlar a los ciudadanos, no tengo tanta esperanza sobre que los ciudadanos chinos puedan ser los propietarios de esos algoritmos. En estos casos estamos hablando de una distopía, una sociedad de vigilancia en la que el Gobierno controla a los ciudadanos con los algoritmos, como una amenaza real. Es algo que puede pasar.

De momento el poder político no ha hecho mucho por mejorar la transparencia de los algoritmos. 

Sí, es un problema real. Los políticos piensan que desde su posición tendrán en su mano controlar los algoritmos, así que no quieren renunciar a este poder, aunque sea malo para la democracia.

Es una consideración muy seria. Como digo en el libro, Obama fue adorado por la izquierda por su uso del big data para aumentar las donaciones o mejorar la segmentación de mensajes. Pero eso fue un precedente muy peligroso: en las últimas elecciones hemos visto como la campaña de Trump logró suprimir el voto de los afroamericanos gracias a esa misma segmentación de mensajes a través de los algoritmos de Facebook.

Publicó su libro en 2016. ¿Ha cambiado algo desde entonces?

Cuando escribí el libro yo no conocía a nadie preocupado por este tema. Eso sí ha cambiado. Vengo de Barcelona, donde he visto a 300 personas, mayoritariamente jóvenes, preocupadas por este tema. Es un fenómeno emergente a nivel mundial, la gente está empezando a ver el daño, el mal que hay aquí. La mayor parte de este daño algorítmico no se ve, no es visible. Que la gente sea más consciente hace que podamos esperar que haya una demanda para que los algoritmos rindan cuentas. Espero que eso ocurra.

El tuiteador que lo justifica todo – Socompa

Fuente original: El tuiteador que lo justifica todo – Socompa

Vida y opiniones del caballero Yamil Santoro.

El tuiteador que lo justifica todo

Salió a defender la bala que mató a Ismael Ramírez en el Chaco. Ya había hecho algo parecido cuando el caso Maldonado. Es algo así como el Fernando Iglesias de YouTube, un desaforado que vive la represión con una sonrisa.

La experiencia macrista permitió corroborar que la derecha gobernante tiene quien la corra hacia extremos más conservadores aún. Lo cual a veces significa que la crítica por presunta tibieza la esgriman quienes ofician de voceros del pensamiento más retrógrado, aquellos que exponen ideas que no sería dable escuchar de labios de funcionarios más o menos correctos. Es el caso de Yamil Santoro.

En su cuenta de Twitter se presenta como abogado y liberal, fundador de un partido llamado Mejorar, que se integró a Cambiemos. Es, además, profesor en la UBA y en la Escuela Superior de Economía y Administración de Empresas (Eseade), un think-tank neoliberal nacido durante la dictadura. Hasta fines de mayo de este año, Santoro se desempeñó como asesor del gobierno porteño, pero optó por dejar su cargo para dedicarse a la defensa de Uber, la aplicación que salió a competir con los taxistas y cuyos choferes se exponen a la violencia de los émulos de Rolando Rivas que admiran a Baby Etchecopar. Antes fue secretario de la juventud del PRO, o sea, la cabeza de la gloriosa JM, si es que así se puede hablar de Juventud Macrista. Se desconoce si la rama juvenil tiene destinado un cántico sobre algún aborrecido político estatista con cuyos huesos hacer una escalera de la cual bajará María Julia antiplanera.

Santoro vendría ser como un Fernando Iglesias sin banca de diputado, pero con capacidad argumentativa similar, y sin tanta presencia mediática. Si el Gobierno precisa una defensa mediática desembozada, que apele a recursos que superan los límites de una respuesta institucional para satisfacer los oídos del núcleo duro de votantes de Cambiemos, allí están Iglesias y Santoro. El primero, se sabe, aun no se percató que es legislador nacional y sigue con una prédica que no se condice con su rol. El segundo es un producto de Internet. Allí está su canal de YouTube para probarlo.

En los videos de ese canal, Santoro realiza propuestas que lo asemejan a Omar Obaca, el candidato presidencial apócrifo de la campaña de 2015.  Los videos de Santoro hacen dudar: no se sabe si son verdaderos o una ficción como la de Obaca. Por caso, Santoro propuso eliminar los feriados para producir más. Se presenta como “Youtuber político” y responde de camisa y corbata, con tiradores, con más pinta de broker que de otra cosa. Sólo le falta un habano en la mano. En uno de esos videos propone reformar el artículo 97 de la Ley de Educación Nacional, que no permite divulgar los datos de cada institución educativa. Santoro quiere saber “si la guita de nuestros impuestos está generando resultados” y habla de “cepo informativo” respecto de las escuelas. Propone que “los padres sepan adónde están mandando sus hijos” y que esto “no es estigmatizante”. Pero propuesto del modo en que lo hace suena al “¿Sabe usted dónde están sus hijos en este momento?” de los militares. Los extremos se tocarían, pues, en el caso de un amante de la libertad individual y una dictadura.

El canal de Santoro permite ver sus intervenciones en varios de los más serios programas de debate político de la TV, como Intratables y El diario de Mariana. Pero, como hombre de Internet, su lugar en el mundo on line es Twitter.  Y allí dejó esta pieza antológica, el martes 4 de septiembre, tras conocerse la muerte por arma de fuego del menor Ismael Ramírez en el Chaco:

“Desde ya es lamentable cualquier muerte en cualquier contexto. Pero una persona abatida mientras trata de robarle a otro sea de forma individual o en banda, en la calle en un atraco o en un saqueo, es alcanzada por la cobertura de la legítima defensa. El Derecho banca al defensor”.

Cuando se afirma que hay voceros oficiosos que dicen lo que los funcionarios no se animan o no pueden para no romper cierto equilibrio, es factible citar esta afirmación de Santoro como ejemplo.  El caso Maldonado es otro antecedente. El 8 de agosto de 2017, una semana después de la desaparición del joven de 28 años, Santoro tuiteó algo digno de la derecha que pedía sangre en 1975: “Si los terroristas del sur del país mantienen su posición beligerante es deber de la Democracia ponerlos en su lugar y a Derecho”.

El balazo que mató a Ismael Ramírez puede soslayarse, según Santoro, porque se violó el derecho de propiedad, y la legítima defensa permitiría responder con la máxima dureza.  Le llovieron las críticas y quiso salir a aclarar en una nota en Perfil, en la que afirmó que “la legítima defensa lejos está de justificar una muerte sino que define si el accionar de quien se defiende está dentro o fuera de la ley”. Todo indica que el chico asesinado pasaba por el lugar al momento de los disturbios, por lo tanto, no haría falta considerar la legítima defensa ni su exceso, sino el delito de homicidio, doloso o culposo.

En el fragor de la polémica le recodaron que, en aras de defender el emprendedurismo, él había contado cómo utilizaba la web para bajar música y vender CDs made in home sweet home. Ergo, violentaba la propiedad intelectual y era pasible que, arma en mano, lo fueran a buscar de alguna discográfica.

Los esfuerzos de Santoro por tratar de aclarar que no dijo lo que la mayoría interpretó tiene su corolario en la nueva aventura política que encara. Va de suplente de Alejandro Fargosi en las elecciones al Consejo de la Magistratura, en representación de los abogados. Fargosi, ex consejero, suele dar sus puntos de vista en Twitter, como su suplente y es uno de los más enconados defensores del policía Luis Chocobar, que se abusó de la legítima defensa al matar a un ladrón, en un fallo que ya tuvo confirmación en instancias de apelación y va camino de juicio. No se puede afirmar que haya divergencias ideológicas profundas en esa lista.

Deceived by design – Engañado por diseño

Fuente original (en inglés): https://cryptome.org//2018/07/deceived-by-design.pdf

Un documento de investigación científica nos revela cómo las compañías de tecnología usan patrones oscuros para desalentarnos de ejercer nuestros derechos a la privacidad.

En este informe, analizamos una muestra de la configuración de Facebook, Google y Windows 10, y mostramos cómo la configuración predeterminada y los patrones oscuros, las técnicas y las características del diseño de la interfaz destinadas a manipular a los usuarios, se utilizan para empujar a los usuarios hacia las opciones intrusivas de privacidad. Los hallazgos incluyen la configuración predeterminada de privacidad intrusiva, la redacción engañosa, dar a los usuarios una ilusión de control, ocultar las opciones que favorecen la privacidad, las opciones que se toman o se dejan y las arquitecturas de elección en las que la elección de la opción que favorece la privacidad requiere más esfuerzo por parte de los usuarios.

Facebook y Google tienen valores predeterminados intrusivos de privacidad, en los que los usuarios que desean la opción de privacidad amigable tienen que pasar por un proceso significativamente más largo. Incluso oscurecen algunos de estos ajustes para que el usuario no pueda saber que la opción más intrusiva de privacidad fue preseleccionada.

Las ventanas emergentes de Facebook, Google y Windows 10 tienen un diseño, símbolos y palabras que alejan a los usuarios de las opciones de privacidad. Las opciones están redactadas para obligar a los usuarios a tomar ciertas decisiones, mientras que la información clave es omitida o minimizada. Ninguno de ellos permite al usuario posponer libremente las decisiones.

Además, Facebook y Google amenazan a los usuarios con la pérdida de funcionalidad o la eliminación de la cuenta de usuario si el usuario no elige la opción intrusiva de privacidad. Los ajustes de GDPR de Facebook, Google y Windows 10 proporcionan a los usuarios opciones granulares con respecto a la recopilación y uso de datos personales. Al mismo tiempo, encontramos que los proveedores de servicios emplean numerosas tácticas para empujar o empujar a los consumidores a compartir la mayor cantidad de datos posible.

El 4º Poder en Red » Soberanía tecnológica para combatir al capitalismo digital

Fuente original: El 4º Poder en Red » Soberanía tecnológica para combatir al capitalismo digital

Como siempre, recomiendo visitar el sitio del artículo original, para obtener mayor información del tema. En este caso, recomiendo el trabajo que viene realizando el períódico español Público, y  a través de él, sus blogs, intentando mantenerse independiente en un ambiente de grandes grupos económicos.

19 Abr 2018

Integrante de la Comunidad CCCD y ex alumno del Máster en Comunicación, Cultura y Ciudadanía Digitales. Periodista e investigador de la URJC en el proyecto Dietética Digital. Editor del blog de Público Dietética Digital.

Uno de los capítulos del último ensayo del Comité Invisible, titulado ‘Ahora’, termina con la siguiente frase: ‘la única medida del estado de crisis del capital es el grado de organización de las fuerzas que pretenden destruirlo’. Así, la denominada crisis financiera de 2008 quizás no lo fue tanto. El 15M, precisamente una de esas fuerzas, resumió con mucha lucidez en una de sus máximas esta idea con el famoso ‘no es una crisis, es una estafa’. Desde luego lo fue para la ciudadanía, a la vista del aumento de la desigualdad que se ha generado diez años después. Para la élite fue momento de recambio. El sistema experimentó un cambio de forma. El capitalismo financiero daba paso al capitalismo digital, con la consecuente sustitución de una élite dominante por otra. Desde la década de los ’90 venía desarrollándose un tipo de capitalismo en Internet que ha pasado por diversas fases de gestación como la burbuja de las puntocom o la web 2.0. y que dio sus primeros pasos en los ámbitos de la publicidad online y el comercio electrónico.

La mutación del capitalismo se puede observar en cómo ha cambiado el ranking de las mayores empresas del mundo por capitalización bursátil. Donde antes había compañías petroleras y automovilísticas, ahora hay plataformas tecnológicas digitales. Estas empresas son a las que Eugeny Morozov* denomina plataformas Big-Tech, refiriéndose a las GAFAM (Google, Amazon, Facebook, Apple y Microsoft), principalmente, aunque también destacando algunas potencias tecnológicas emergentes en China, como Alibaba. Silicon Valley, la Meca de las GAFAM, ha sustituido a Wall Street como centro neurálgico del capital. Es el lugar desde el que se propaga al resto del mundo -occidental, al menos- la doctrina hegemónica actual, el tecnoutopismo. Es a lo que Morozov llama ‘solucionismo tecnológico’, es decir, la creencia de que las tecnologías digitales son y serán capaces de ofrecernos soluciones a todos los problemas del mundo y, por tanto, debemos depositar nuestra fe ciega en ellas, y en los nuevos amos que las dominan.

Estas empresas han alcanzado tal posición de poder, y la mantienen, mediante dos factores elementales. La extracción y acumulación masiva de datos generados por los usuarios, el Big Data; y la posesión de las infraestructuras que median, cada vez más, nuestras relaciones sociales, políticas y económicas. La venta de estos datos para insertar publicidad micro-segmentada -Google y Facebook-, la venta de software y hardware -Apple y Microsoft- y el abaratamiento de costes en el comercio electrónico -Amazon- son los más obvios. Sin embargo, los modelos de negocio de la economía digital han ido evolucionando y diversificándose más allá de la publicidad y el comercio online. Con ellos, las implicaciones del capitalismo digital han ido mucho más allá de cuestiones como la privacidad y la vigilancia masiva -como demostraron las filtraciones de Edward Snowden- y la micro-segmentación, ya no solo comercial si no electoral, como ejemplifica el caso de Cambridge Analytica.

Capitalismo digital expandido

Los algoritmos que hacen de motor de la economía digital toman muchas más decisiones de las que nos imaginamos. Cada vez más, son responsables de decidir si una persona recibe un crédito en un banco, si puede contratar un seguro, si tiene acceso a una universidad, o si es contratada por una empresa. Con el objetivo de reducir costes y maximizar la eficiencia, se emplean algoritmos capaces de procesar mucha más información que un ser humano, con la ventaja añadida de que no precisa de un salario -ni se va a quejar por ello- y otorga un aura de neutralidad e imparcialidad a la toma de decisiones. Esto último es un mito que es necesario rebatir, pues este modelo de toma de decisiones ‘objetivo’ responde a los sesgos introducidos por los humanos que los programaron. Además, la falta de transparencia alrededor de su funcionamiento evita que se pueda revisar ese proceso para evaluar si se hace correctamente. Así, los algoritmos se convierten en generadores de desigualdad, lo que la matemática Cathy O’Neill llama ‘Armas de Destrucción Matemática’.

En la expansión de la utilización de algoritmos en amplios sectores de la sociedad encontramos el modelo de negocio del futuro (y ya del presente) para las plataformas Big-Tech, el de la Inteligencia Artificial (IA). El Big Data es utilizado para alimentar estos algoritmos, desarrollando así la rama de la IA denominada ‘aprendizaje automático’. De este modo, las corporaciones que ya controlan gran parte de las infraestructuras que hacen posible el entorno digital pueden colonizar el mundo físico. Con un sistema público enormemente degradado, especialmente con las políticas de austeridad impuestas durante la última década, la IA se presenta como la mejor solución para optimizar los -escasos- recursos, mediante la predicción de patrones de comportamiento en ámbitos como la educación y la sanidad, entre muchos otros.

Como estas empresas son, por el momento, las únicas con capacidad para extraer masivas cantidades de datos de los usuarios y de utilizar su trabajo voluntario para alimentar a sus máquinas predictivas, la competencia para ellas es prácticamente inexistente, dándose la formación de ‘monopolios naturales’. Así, van progresivamente copando y centralizando todas las infraestructuras y servicios generando una extrema dependencia de ellas por parte, no solo de la ciudadanía, sino de otras empresas y de los estados.

¿Qué hacer?

Ahora bien, ¿que podemos hacer ante este, ya no futuro, si no presente distópico en el que nos encontramos? Las propuestas de Morozov pasan por el cambio de propiedad y estatus legal de los datos, y por la creación de infraestructuras públicas -no necesariamente estatales- que sean capaces de ofrecer una alternativa a las corporaciones privadas digitales.

Partiendo de la base de que la propiedad de los datos pase a ser de las personas que los producen es un elemento fundamental para revertir la actual situación, de este escenario surgen dos caminos bien distintos. Resumidamente, o tratar a los datos como una mercancía o como un bien común. La primera opción, la que propugnan personas como Steve Bannon (jefe de campaña de Trump y uno de los fundadores de Cambridge Analytica), desembocaría en un capitalismo digital aún más salvaje y ni siquiera lograría que los datos revirtiesen en beneficios para la gente, pues es en su agregación donde tienen más valor. La segunda opción eliminaría la posibilidad de hacer negocio con los datos para, en lugar de eso, darles usos que no busquen el lucro privado sino el beneficio comunitario. Para ello, es imprescindible la construcción de infraestructuras que estén sometidas un control democrático de la ciudadanía. Es aquí donde movimientos sociales, organizaciones civiles y partidos políticos que verdaderamente aspiren a la emancipación tienen que empezar a generar discursos y acciones para llevarlo a cabo, pues es donde el capitalismo se encuentra en mejor estado de forma.

Este es un planteamiento de macropolítica, certero e inspirador, pero también lejano y utópico si no somos capaces de pensar en qué podemos hacer aquí y ahora, en la micropolítica que está a nuestro alcance y nos acerca a ese horizonte. Lo que pretende este artículo es proponer un camino que complemente a las propuestas de Morozov. Podemos comenzar por adoptar la filosofía/ética hacker. La figura del hacker es la de la persona curiosa, crítica, activa, que se preocupa por conocer cómo funcionan las tecnologías digitales mediante las que nos dominan, y compartir ese conocimiento.

Frente al discurso religioso del tecnoutopismo, la figura del hacker es la del hereje (significa ‘el que elige’) que se atreve a pensar por sí mismo/a y con los demás, a cuestionar la fe en la tecnología para convertirlo en conocimiento crítico y a dejar de tratar a las tecnologías digitales como objetos sagrados para desmontarlos y reprogramarlos. Sin necesidad de grandes cambios legislativos ni multimillonarios desembolsos de dinero, todos/as podemos empezar ya -a nivel individual y/o colectivo- a recuperar el control sobre nuestros datos, a subvertir las infraestructuras actuales, o crear otras nuevas. Las comunidades de (auto) aprendizaje, los centros sociales y los hacklabs son los lugares y el software libre la herramienta para ello.

Estas prácticas y conocimientos son las que pueden comenzar a proporcionarnos la soberanía tecnológica que, transformada en soberanía política, eventualmente puede desembocar en cambios a gran escala que nos permitan recuperar la propiedad de nuestros datos, cambiar su estatus legal y construir infraestructuras tecnológicas públicas y democráticas que nos liberen de las plataformas Big-Tech. Así, en último término, podremos organizar colectivamente una fuerza que ponga en crisis al capital, sea cual sea su forma.

*Este autor estuvo recientemente en el Museo Nacional Centro de Arte Reina Sofía para inaugurar el ciclo ‘Seis contradicciones y el fin del presente‘ con una conferencia y un taller bajo el título de ‘El Capitalismo digital y sus descontentos’ en el que se debatieron las cuestiones que recoge este artículo.