Archivo de la categoría: Youtube

Los cercos del algoritmo | Medios y comunicación | Página12

Fuente original: Los cercos del algoritmo | Medios y comunicación | Página12

Como siempre, recomiendo visitar el sitio del artículo original, para obtener mayor información del tema y, en este caso, para conocer el enorme trabajo periodístico de este medio independiente argentino.

Si tiene intención de hacerse socio de Página 12, colaborando económicamente con el medio, desde la siguiente página, se pueden leer las opciones: https://www.pagina12.com.ar/apps/membresias/ (No tengo ninguna relación comercial, laboral o personal con Página 12, salvo de ser ávido lector desde hace décadas).

Roberto Samar y Javier Cantarini explican cómo Facebook y Google segmentan las opiniones que se ven en los muros y en las búsquedas de acuerdo con la ideología del titular de las cuentas. Los riesgos de un mundo de guetos.

Hace tiempo que en tu cuenta de Facebook no aparece ninguna publicación de contactos con los que supiste compartir algún tramo de tu vida. Entonces lo buscas por su nombre y te das cuenta que sus publicaciones distan mucho de tus ideas y gustos. Un fuerte impulso por ver que apoya todas las expresiones que de alguna manera crees que son perjudiciales para la sociedad te hace dar gracias a la red social más consumida en Argentina por haberlo ocultado.

Pero si hacemos el ejercicio de ver más allá de nuestras narices y gustos podemos darnos cuenta que nos vamos construyendo un cerco social y comunicacional. O que, en verdad, nos construye el algoritmo que usa Facebook de acuerdo a nuestros clics.

Un cerco que también se fortalece con los servicios de noticias a los que estamos suscriptos que dirigen la información de acuerdos a nuestras preferencias. Si simpatizas con Cambiemos te llegará una catarata de noticias vinculadas al discurso de la mano dura o de estigmatización de la pobreza, pero seguramente no te enteres del aumento de la violencia institucional que denuncia la Coordinadora Contra la Represión Policial e Institucional.

Una situación similar se da en la industria del entretenimiento como Netflix que te satura con un contenido siempre idéntico, dificultando que puedas encontrar títulos alternativos que pueden poner en tensión tu mirada motivando así el ejercicio del pensamiento crítico. O el buscador de internet más utilizado, Google, que desde 2009 arroja distintos resultados a pesar que las personas busquen la misma palabra.

El integrante de MoveOn, Eli Pariser, ejemplifica en su texto el Filtro Burbuja que, con la personalización de Google, “la consulta ‘células madre’ puede producir resultados diametralmente opuestos en el caso de que los usuarios sean científicos que apoyen la investigación o activistas que se opongan. En otras palabras, ya no existe un Google estándar”.

En los consumos culturales y de noticias, siempre existió lo que se denominó una “exposición selectiva”. Es decir, que tendemos a exponernos a contenidos que nos son afines. La particularidad del momento actual, es que los discursos y contenidos que no coinciden con nuestros puntos de vista se nos vuelven invisibles por los filtros que producen las nuevas tecnologías.

Pariser afirma que “la nueva generación de filtros de internet observa las cosas que parecen gustarte”. Y que de esta manera “tu pantalla de ordenador es cada vez más una especie de espejo unidireccional que refleja tus propios intereses, mientras los analistas de los algoritmos observan todo lo que clicas”. En un mundo globalizado y en el que internet y las redes sociales se presentaron como la democratización de la información a gran escala ¿Qué sentido tiene que los mismos contenidos circulen entre las mismas personas?

“La era de una conexión cívica con la que tanto soñaba no ha llegado. La democracia precisa de ciudadanos que vean las cosas desde el punto de vista de otros, pero en vez de eso cada vez estamos más encerrados en nuestras burbujas”, sintetiza Parisir.

Todo hace pensar que estas nuevas estructuras comunicacionales podrían profundizar las grietas ideológicas. Ahora, el desafío que se nos presenta es construir puentes, espacios de diálogo que tal vez incomoden, pero que sí puedan poner en tensión esas burbujas, especialmente a las que sostienen y alimentan discursos anti-políticos, machistas, xenófobos y estigmatizantes que nos retrotraen a los momentos más oscuros y tristes de nuestra historia.

Roberto Samar es especialista en Comunicación y culturas UNCO. Docente de la UNRN

Javier Cantarini es Periodista. Integrante de la RED PAR. Diplomado en Comunicación con Perspectiva de Género y Derechos Humanos.

No puedes convencer a un terraplanista y eso debería preocuparte | Ciencia | EL PAÍS

Fuente original: No puedes convencer a un terraplanista y eso debería preocuparte | Ciencia | EL PAÍS

Como siempre, recomiendo visitar el sitio del artículo original, para obtener mayor información del tema.

Negar que la Tierra es esférica es el caso más extremo de un fenómeno que define esta época: recelar de los datos, ensalzar la subjetividad, rechazar lo que nos contradice y creer falsedades propagadas en redes.

Hay gente que cree que la Tierra no es una esfera achatada por los polos, sino un disco. Que la Tierra es plana. No es analfabetismo: estudiaron el Sistema Solar y sus planetas en el colegio, pero en los últimos años han decidido que todo eso de “la bola” es una gigantesca manipulación. Solo el 66% de los jóvenes entre 18 y 24 años de EE UU está plenamente seguro de que vivimos en un planeta esférico (el 76% entre 25 y 34 años). Es un fenómeno global, también presente en España, al que cuesta asomarse sin bromear. Pero al observar los mecanismos psicológicos, sociales y culturales que les llevan a convencerse de esta gigantesca conspiración se descubre una metáfora perfecta que resume los problemas más representativos de esta época. Aunque parezca medieval, es muy actual.

Rechazo de la ciencia y los expertos, narraciones maniqueas que explican lo complejo en tiempos de incertidumbre, entronización de la opinión propia por encima de todo, desprecio hacia los argumentos que la contradigan, difusión de falsedades gracias a los algoritmos de las redes… Está todo ahí. “Es el caso más extremo, el más puro”, resume Josep Lobera, especialista en la sociología de los fenómenos pseudocientíficos. Cada flaqueza o actitud de este colectivo está presente de algún modo en muchos de los movimientos políticos, sociales y anticiencia que han irrumpido en nuestros días.

“Nace de la desconfianza en el conocimiento experto y de una mala manera de entender el escepticismo”, afirma Susana Martínez-Conde, directora del laboratorio de Neurociencia Integrada de la Universidad Estatal de Nueva York. Los estudios sobre terraplanistas y otras teorías de la conspiración indican que ellos creen ser quienes están actuando con lógica y razonando de forma científica. En muchos casos, terminan atrapados en la conspiración tras intentar desmontarla. “Es absurdo. Voy a desmentir que la Tierra es plana”, cuenta Mark Sargent, uno de los más reconocidos terraplanistas en el documental que retrata al colectivo a la perfección, La Tierra es plana (Netflix). Y acabó “hundiéndose, como en un pozo de alquitrán”. La mayoría de terraplanistas no han sido convencidos, se han convencido al verse incapaces de demostrar que bajo sus pies hay una bola de 510 millones de kilómetros cuadrados.

“¡Investígalo por ti mismo!”, se animan unos a otros, según recoge la investigadora Asheley Landrum, de la Universidad Texas Tech, que presentó hace dos semanas el resultado de sus investigaciones sobre los terraplanistas en la Asociación Estadounidense para el Avance de la Ciencia. La primera diapositiva de su conferencia es una imagen de Copérnico, padre de la idea de que la Tierra orbita alrededor del Sol, reconociendo que estaba equivocado tras pasar cinco horas viendo vídeos terraplanistas en YouTube. Porque según Landrum y su equipo, que estudia estos fenómenos en el proyecto Creencias Alternativas, YouTube es la clave. Todos los terraplanistas se hacen terraplanistas viendo a otros terraplanistas en YouTube. Y una vez forman parte de esa comunidad es casi imposible convencerles de su error, porque se activan mecanismos psicológicos muy poderosos, como el pensamiento motivado: solo acepto como válidos los datos que me reafirman y el resto son manipulaciones de los conspiradores. Como en otros movimientos, si la ciencia me desdice, es que la ciencia está comprada.

YouTube parece ser la amalgama de la comunidad de la Tierra plana”, concluyen en su trabajo más reciente, en el que señalan a esta plataforma de vídeos como el origen de las vocaciones conspiranoicas. El equipo de Landrum entrevistó a una treintena de asistentes a la primera Conferencia Internacional de la Tierra Plana y todos describían YouTube como “una fuente fiable de evidencias” y de los proveedores más populares para “noticias imparciales” frente a los medios manipulados. Se habían hecho terraplanistas viendo vídeos en esa plataforma en los tres años previos y muchos entrevistados describen estar viendo piezas sobre otras conspiraciones (del 11-S, por ejemplo) y terminar atrapados con la historia de la Tierra plana gracias a las recomendaciones de YouTube.

Muchos especialistas han denunciado cómo el algoritmo de recomendaciones de YouTube termina convirtiéndose en una espiral descendente hacia contenidos cada vez más extremistas, manipuladores y tóxicos. Y en este caso no es una excepción. Como defienden los terraplanistas, YouTube se ha convertido en el mejor caldo de cultivo para versiones “alternativas” de la realidad, donde se desarrollan mensajes alocados y provocadores al margen de la “ciencia y los científicos convencionales”. Sobre cualquier tema, desde la cura del cáncer hasta el feminismo, pasando por la astronomía, lo habitual es encontrar los mensajes más controvertidos entre los primeros resultados de la búsqueda. Lógicamente, estos mensajes tienen derecho a subirse a la red, pero los algoritmos los están promocionando por encima de contenidos relevantes. “Un usuario individual de YouTube, por ejemplo, sin respeto por la verdad, el rigor o la coherencia, en algunos casos puede llegar a una audiencia comparable” a la de los grandes medios, critica Alex Olshansky, del equipo de Landrum.

Irreductibles

“Solo confío en lo que ven mis ojos”, repiten una y otra vez los terraplanistas. Aunque como dice esta especialista en percepción, es bastante común que nuestros propios sentidos sean los primeros en engañarnos, como muestran todas las ilusiones ópticas. “Ellos sacan las matemáticas y nosotros decimos: ‘Mira”, dice el terraplanista Sargent en el documental para explicar su éxito. “No necesitas fórmulas para entender dónde vives”, resume este hombre que había pasado por todas las conspiraciones antes de llegar a esta viendo vídeos en la red.

“Como la gente que niega el cambio climático, no los vas a convencer con datos, hay que buscar la forma de despertar las emociones de la gente”, explica la neurocientífica Martínez-Conde. Y añade: “Nuestro cableado neural responde a las emociones más que a los datos. Ese problema ha contribuido a dar lugar a los populismos y especialmente con el fenómeno de las redes sociales que favorece que la desinformación se expanda de manera peligrosa”.

Un reportaje recién publicado en The Verge sobre los moderadores de contenidos de Facebook mostraba que muchos de estos trabajadores precarios estaban cayendo atrapados en las conspiraciones que tenían que controlar. “Me dijeron que es un lugar donde los vídeos de conspiraciones y los memes que ven cada día los llevan gradualmente a abrazar ideas extrañas”, describe el periodista Casey Newton. Uno de los moderadores del centro que visitó promueve entre sus compañeros la idea de que la Tierra es plana, otro cuestiona el Holocausto y otro no cree que el 11-S fuera un ataque terrorista.

Esto no debería sorprender: son muchos los estudios que demuestran cómo la simple exposición a mensajes sobre conspiraciones provoca en la gente una paulatina pérdida de confianza en las instituciones, la política o la ciencia. Con consecuencias tangibles: por ejemplo, la creencia en conspiraciones está vinculada a actitudes racistas o un menor uso de protección frente al sida. Todos los terraplanistas creen en otras conspiraciones y llegaron a esa cosmovisión paranoica a través de otras teorías similares. Es característica la predisposición a creer en distintas teorías de la conspiración a la vez, incluso contradictorias entre sí: las mismas personas podían creer a la vez que Bin Laden no está realmente muerto o que ya estaba muerto cuando llegaron los militares estadounidenses a su vivienda.

YouTube es la clave. Todos los terraplanistas se convierten viendo vídeos que en muchos casos el algoritmo les ha recomendado cuando veían otras conspiraciones

Por ejemplo, buena parte de los terraplanistas son a su vez antivacunas. Lobera, que estudia a este colectivo en España, admite que esta cosmovisión conspirativa “es uno de los factores decisivos”, aunque no el más importante. “Hay puertas de entrada al mundo de las pseudociencias y una conexión entre estas creencias”, explica el sociólogo.

“En la medida en que el pensamiento conspirativo está generalizado, comienza a plantear un problema para el mantenimiento de una esfera pública racional en la que las discusiones y los debates políticos se basan en evidencias, en lugar de traficar con sospechas de que un grupo manipula los hechos desde las sombras para impulsar una agenda oculta”, asegura Olshansky en su trabajo. En este sentido, los terraplanistas, por sus creencias extremas, son como el reflejo de la sociedad en los espejos deformantes del callejón del Gato. Llegados al punto en que hay mucha gente que acepta su mensaje con naturalidad, eso indica que existe un deterioro real de las condiciones en las que se produce el debate público.

Pero estas creencias no surgen de la nada y existen condiciones sociales que influyen de forma determinante. Por ejemplo, se sabe que las personas que se sienten impotentes o desfavorecidas tienen más probabilidades de apoyarlas (como minorías raciales marginadas) y que están correlacionadas con el pesimismo ante el futuro, la baja satisfacción con la vida y la escasa confianza interpersonal. “Hay que entender estos movimientos dentro del contexto socioeconómico en el que nos encontramos, están aumentando las disparidades sociales entre quienes tienen más privilegios y más carencias. Y esto hace que aumente la desconfianza hacia gobiernos y expertos”, explica Martínez-Conde.

Hay condiciones sociales que influyen de forma determinante: se sabe que las personas que se sienten impotentes o desfavorecidas tienen más probabilidades de creer en conspiraciones

“Vivimos en tiempos de incertidumbre y a nivel neural la incertidumbre nos hace sentir incómodos”, señala la neurocientífica. Estas disonancias cognitivas obligan a crear un relato propio de buenos y malos que explique de forma simplista los fenómenos complejos de la actualidad. Y que les coloque en el papel heroico de luchadores por la verdad ocultada: las creencias conspirativas siempre han estado asociadas a cierto narcisismo colectivo (“los demás son los borregos”). Además, las personas con tendencia a ver patrones y significados ocultos en la realidad tienen mayor tendencia a creer en conspiraciones y fenómenos paranormales. “Son más dados a ese tipo de ilusiones causales. Como ver caras en las nubes, pero llevado al extremo: ver caras en una tostada y darle significado real”, explicaba Helena Matute, investigadora de Deusto, sobre su trabajo con lo paranormal.

A partir de ese poso, nos encontramos con mecanismos psicológicos como el sesgo de proporcionalidad (si algo extraordinario ha ocurrido, algo extraordinario debe haberlo causado) y el de intencionalidad: hay una mano detrás de todo. “Este deseo de narraciones ordenadas que ofrezcan certeza y visiones simplificadas del mundo puede brindar comodidad y la sensación de que la vida es más manejable”, resume Landrum en su trabajo. Así conseguirían sortear los altibajos de la vida, apostando por una realidad lisa y llana. Como la Tierra, según quieren creer.

Dolina sobre Macri: “Es infausto lo que estamos viviendo”. – YouTube

El 4º Poder en Red » Soberanía tecnológica para combatir al capitalismo digital

Fuente original: El 4º Poder en Red » Soberanía tecnológica para combatir al capitalismo digital

Como siempre, recomiendo visitar el sitio del artículo original, para obtener mayor información del tema. En este caso, recomiendo el trabajo que viene realizando el períódico español Público, y  a través de él, sus blogs, intentando mantenerse independiente en un ambiente de grandes grupos económicos.

19 Abr 2018

Integrante de la Comunidad CCCD y ex alumno del Máster en Comunicación, Cultura y Ciudadanía Digitales. Periodista e investigador de la URJC en el proyecto Dietética Digital. Editor del blog de Público Dietética Digital.

Uno de los capítulos del último ensayo del Comité Invisible, titulado ‘Ahora’, termina con la siguiente frase: ‘la única medida del estado de crisis del capital es el grado de organización de las fuerzas que pretenden destruirlo’. Así, la denominada crisis financiera de 2008 quizás no lo fue tanto. El 15M, precisamente una de esas fuerzas, resumió con mucha lucidez en una de sus máximas esta idea con el famoso ‘no es una crisis, es una estafa’. Desde luego lo fue para la ciudadanía, a la vista del aumento de la desigualdad que se ha generado diez años después. Para la élite fue momento de recambio. El sistema experimentó un cambio de forma. El capitalismo financiero daba paso al capitalismo digital, con la consecuente sustitución de una élite dominante por otra. Desde la década de los ’90 venía desarrollándose un tipo de capitalismo en Internet que ha pasado por diversas fases de gestación como la burbuja de las puntocom o la web 2.0. y que dio sus primeros pasos en los ámbitos de la publicidad online y el comercio electrónico.

La mutación del capitalismo se puede observar en cómo ha cambiado el ranking de las mayores empresas del mundo por capitalización bursátil. Donde antes había compañías petroleras y automovilísticas, ahora hay plataformas tecnológicas digitales. Estas empresas son a las que Eugeny Morozov* denomina plataformas Big-Tech, refiriéndose a las GAFAM (Google, Amazon, Facebook, Apple y Microsoft), principalmente, aunque también destacando algunas potencias tecnológicas emergentes en China, como Alibaba. Silicon Valley, la Meca de las GAFAM, ha sustituido a Wall Street como centro neurálgico del capital. Es el lugar desde el que se propaga al resto del mundo -occidental, al menos- la doctrina hegemónica actual, el tecnoutopismo. Es a lo que Morozov llama ‘solucionismo tecnológico’, es decir, la creencia de que las tecnologías digitales son y serán capaces de ofrecernos soluciones a todos los problemas del mundo y, por tanto, debemos depositar nuestra fe ciega en ellas, y en los nuevos amos que las dominan.

Estas empresas han alcanzado tal posición de poder, y la mantienen, mediante dos factores elementales. La extracción y acumulación masiva de datos generados por los usuarios, el Big Data; y la posesión de las infraestructuras que median, cada vez más, nuestras relaciones sociales, políticas y económicas. La venta de estos datos para insertar publicidad micro-segmentada -Google y Facebook-, la venta de software y hardware -Apple y Microsoft- y el abaratamiento de costes en el comercio electrónico -Amazon- son los más obvios. Sin embargo, los modelos de negocio de la economía digital han ido evolucionando y diversificándose más allá de la publicidad y el comercio online. Con ellos, las implicaciones del capitalismo digital han ido mucho más allá de cuestiones como la privacidad y la vigilancia masiva -como demostraron las filtraciones de Edward Snowden- y la micro-segmentación, ya no solo comercial si no electoral, como ejemplifica el caso de Cambridge Analytica.

Capitalismo digital expandido

Los algoritmos que hacen de motor de la economía digital toman muchas más decisiones de las que nos imaginamos. Cada vez más, son responsables de decidir si una persona recibe un crédito en un banco, si puede contratar un seguro, si tiene acceso a una universidad, o si es contratada por una empresa. Con el objetivo de reducir costes y maximizar la eficiencia, se emplean algoritmos capaces de procesar mucha más información que un ser humano, con la ventaja añadida de que no precisa de un salario -ni se va a quejar por ello- y otorga un aura de neutralidad e imparcialidad a la toma de decisiones. Esto último es un mito que es necesario rebatir, pues este modelo de toma de decisiones ‘objetivo’ responde a los sesgos introducidos por los humanos que los programaron. Además, la falta de transparencia alrededor de su funcionamiento evita que se pueda revisar ese proceso para evaluar si se hace correctamente. Así, los algoritmos se convierten en generadores de desigualdad, lo que la matemática Cathy O’Neill llama ‘Armas de Destrucción Matemática’.

En la expansión de la utilización de algoritmos en amplios sectores de la sociedad encontramos el modelo de negocio del futuro (y ya del presente) para las plataformas Big-Tech, el de la Inteligencia Artificial (IA). El Big Data es utilizado para alimentar estos algoritmos, desarrollando así la rama de la IA denominada ‘aprendizaje automático’. De este modo, las corporaciones que ya controlan gran parte de las infraestructuras que hacen posible el entorno digital pueden colonizar el mundo físico. Con un sistema público enormemente degradado, especialmente con las políticas de austeridad impuestas durante la última década, la IA se presenta como la mejor solución para optimizar los -escasos- recursos, mediante la predicción de patrones de comportamiento en ámbitos como la educación y la sanidad, entre muchos otros.

Como estas empresas son, por el momento, las únicas con capacidad para extraer masivas cantidades de datos de los usuarios y de utilizar su trabajo voluntario para alimentar a sus máquinas predictivas, la competencia para ellas es prácticamente inexistente, dándose la formación de ‘monopolios naturales’. Así, van progresivamente copando y centralizando todas las infraestructuras y servicios generando una extrema dependencia de ellas por parte, no solo de la ciudadanía, sino de otras empresas y de los estados.

¿Qué hacer?

Ahora bien, ¿que podemos hacer ante este, ya no futuro, si no presente distópico en el que nos encontramos? Las propuestas de Morozov pasan por el cambio de propiedad y estatus legal de los datos, y por la creación de infraestructuras públicas -no necesariamente estatales- que sean capaces de ofrecer una alternativa a las corporaciones privadas digitales.

Partiendo de la base de que la propiedad de los datos pase a ser de las personas que los producen es un elemento fundamental para revertir la actual situación, de este escenario surgen dos caminos bien distintos. Resumidamente, o tratar a los datos como una mercancía o como un bien común. La primera opción, la que propugnan personas como Steve Bannon (jefe de campaña de Trump y uno de los fundadores de Cambridge Analytica), desembocaría en un capitalismo digital aún más salvaje y ni siquiera lograría que los datos revirtiesen en beneficios para la gente, pues es en su agregación donde tienen más valor. La segunda opción eliminaría la posibilidad de hacer negocio con los datos para, en lugar de eso, darles usos que no busquen el lucro privado sino el beneficio comunitario. Para ello, es imprescindible la construcción de infraestructuras que estén sometidas un control democrático de la ciudadanía. Es aquí donde movimientos sociales, organizaciones civiles y partidos políticos que verdaderamente aspiren a la emancipación tienen que empezar a generar discursos y acciones para llevarlo a cabo, pues es donde el capitalismo se encuentra en mejor estado de forma.

Este es un planteamiento de macropolítica, certero e inspirador, pero también lejano y utópico si no somos capaces de pensar en qué podemos hacer aquí y ahora, en la micropolítica que está a nuestro alcance y nos acerca a ese horizonte. Lo que pretende este artículo es proponer un camino que complemente a las propuestas de Morozov. Podemos comenzar por adoptar la filosofía/ética hacker. La figura del hacker es la de la persona curiosa, crítica, activa, que se preocupa por conocer cómo funcionan las tecnologías digitales mediante las que nos dominan, y compartir ese conocimiento.

Frente al discurso religioso del tecnoutopismo, la figura del hacker es la del hereje (significa ‘el que elige’) que se atreve a pensar por sí mismo/a y con los demás, a cuestionar la fe en la tecnología para convertirlo en conocimiento crítico y a dejar de tratar a las tecnologías digitales como objetos sagrados para desmontarlos y reprogramarlos. Sin necesidad de grandes cambios legislativos ni multimillonarios desembolsos de dinero, todos/as podemos empezar ya -a nivel individual y/o colectivo- a recuperar el control sobre nuestros datos, a subvertir las infraestructuras actuales, o crear otras nuevas. Las comunidades de (auto) aprendizaje, los centros sociales y los hacklabs son los lugares y el software libre la herramienta para ello.

Estas prácticas y conocimientos son las que pueden comenzar a proporcionarnos la soberanía tecnológica que, transformada en soberanía política, eventualmente puede desembocar en cambios a gran escala que nos permitan recuperar la propiedad de nuestros datos, cambiar su estatus legal y construir infraestructuras tecnológicas públicas y democráticas que nos liberen de las plataformas Big-Tech. Así, en último término, podremos organizar colectivamente una fuerza que ponga en crisis al capital, sea cual sea su forma.

*Este autor estuvo recientemente en el Museo Nacional Centro de Arte Reina Sofía para inaugurar el ciclo ‘Seis contradicciones y el fin del presente‘ con una conferencia y un taller bajo el título de ‘El Capitalismo digital y sus descontentos’ en el que se debatieron las cuestiones que recoge este artículo.

Limpiar lo falso o limitar a la prensa | Página12

El debate que se abre en Francia con el proyecto de ley de Macron.
La eficacia real del combate a las noticias falsas (fake news) por parte de un Estado está en tela de juicio. Puede que con el pretexto de limpiar la información sucia se termine estrechando la libertad de expresión.

PáginaI12 En Francia

Desde París

Víctima directa de las fake news justo antes de las elecciones presidenciales de 2017, el presidente francés, Emmanuel Macron, emprendió una cruzada contra las fake news que tanta confusión sembraron en las democracias del mundo. El proyecto de ley sobre “la fiabilidad de la confianza de la información” será presentado ante la Asamblea Nacional durante los próximos días. El texto va mucho más allá de la ley de 1882 bajo cuyos lineamientos se regulaba el derecho de la prensa y donde ya existía le figura de “noticia falsa”. Se trata ahora de crear una nueva legislación. Según revela el diario Libération que adelantó parte del proyecto de ley, el Ministerio francés de Cultura explicó que “nuestro tema no consiste en definir lo qué es una noticia falsa. El verdadero tema es el universo, los tubos, los canales de difusión de las falsas noticias”.

El texto preparado por el Ejecutivo francés apunta a dos blancos: el campo “digital en general” (las redes sociales como Facebook, los portales de video YouTube) así como “los medios bajo influencia de un Estado”. Este capítulo se dirige específicamente, aunque sin mencionarlo, a los medios financiados por Moscú como RT (Russia Today) y Sputnik. En Versalles, en presencia del presidente ruso Vladimir Putin, el jefe del Estado francés acusó a RT y Sputnik de ser “órganos bajo influencia y de propaganda”.

La pugna entre Macron y estos dos medios rusos ha sido virulenta. Comenzó con una entrevista difundida por Sputnik con el diputado opositor Nicolas Dhuicq (Los Republicanos) en la cual éste insinuaba que Emmanuel Macron era homosexual y que estaba, además, respaldado por un supuesto “lobby gay”. Luego siguió con una serie de incidentes repetidos que enfrentó a los dos órganos de prensa rusos con el entonces candidato a la presidencia.

La confrontación continuó incluso después de su elección cuando la directora de Russia Today, Xenia Fedorova, acusó al mandatario francés de “poner las bases de un peligroso precedente que amenaza a la vez la libertad de expresión y el periodismo en su conjunto”.

El otro capítulo que inspiró la reacción de Macron fue la publicación de los llamados MacronLeaks a través del portal de Julian Assange, WikiLeaks, y cuya propagación pasó también por RT Y Sputnik. Miles de correos electrónicos del equipo de campaña de Macron y facturas fueron puestos en la plaza pública a principios de mayo, justo antes de la segunda vuelta de las elecciones presidenciales.

El precedente de las manipulaciones a que dio lugar el voto a favor del Brexit en Gran Bretaña y, más tarde, la elección de Donald Trump y el referendo autonomista en Cataluña terminaron por diseñar esta polémica iniciativa de Francia. Si bien existe un consenso en torno al principio de frenar la contaminación de las fake news, la iniciativa francesa dio lugar a muchas críticas, sobre todo, como lo resalta el vespertino Le Monde, porque “mezcla situaciones muy diferentes” (Brexit, Trump, referendo catalán, elección francesa). Además, dejar que un Estado sea el actor que determina lo que es verdad o mentira no constituye en ningún caso una garantía de imparcialidad. Ya existe una censura programada en las redes sociales que excluye a los medios que están contra el sistema como si fueran ellos los arquitectos de las fake news cuando en realidad es el sistema mismo.

El Ministerio francés de Cultura alega que estudió todos los casos y analizó las leyes que ya existen en Alemania y Gran Bretaña. La ley obligará a los mastodontes como Facebook, YouTube o Twitter a cooperar (la cooperación ya existe en lo que atañe la pedopornografía o el terrorismo), a respetar nuevas obligaciones al tiempo que pondrá en manos del poder judicial la posibilidad de intervenir para frenar la difusión de las fake news. Por otra parte, se autoriza al Consejo Superior del Audiovisual a “suspender” los acuerdos de retransmisión de un medio bajo influencia extranjera”. Los ciudadanos contarán también con un útil legislativo que les permitirá recurrir a las autoridades para que “cese la difusión masiva y artificial de una falsa información”. Las plataformas de redes sociales estarán, por ejemplo, obligadas de revelar la identidad de los contenidos auspiciados.

La intención de la ley consiste en evitar que se reproduzca lo que ocurrió en los Estados Unidos con Facebook y Twitter. En ambos casos se detectaron cientos de miles de cuentas y publicidades activadas por sectores prorrusos. Samidh Chakrabarti, responsable del compromiso cívico en el seno de Facebook reconoció hace unos días que “las redes sociales pueden ser un peligro para la democracia”. Lo son, y de dos maneras. No sólo por la difusión de mentiras sino también por los algoritmos que, luego de todo lo que ocurrió, filtran la información. Muchos medios digitales, opositores al sistema de destrucción global en el que vivimos pero atentos a la verdad, se han visto filtrados, o sea, censurados en su difusión. No son fake news sino anti sistema, lo que no es lo mismo. La eficacia real de estas medidas está en tela de juicio. No hay dudas de que las fake news embarran los debates democráticos y perjudican a la sociedad, pero su influencia efectiva aún no ha sido cuantificada con suficiente certeza y rigor. Puede que con el pretexto de limpiar la información sucia se termine estrechando la libertad de expresión.

efebbro@pagina12.com.ar

A través de Limpiar lo falso o limitar a la prensa | El debate … | Página12

La batalla por México – ¡Ahí vienen los rusos! Mitología de la ‘intervención rusa’ en México

¡Ahí vienen los rusos! Por favor, señores, les pido un poco de seriedad.

La Guerra Fría terminó hace tres décadas, Vladímir Putin es uno de los líderes más capitalistas del mundo y a mí nadie me dice qué decir u opinar.

Andan muy asustados los periodistas del régimen.

Después de tantos años de ser los únicos que dictan la agenda del debate nacional… de recibir tantos millones de dólares de gobiernos corruptos… de manipular y torcer las noticias a favor del poder y el dinero… ven que ya se les está acabando el negocio.

Imagínate… un humilde profesor de la UNAM con una videocolumna semanal de dos minutitos, ¡que ni siquiera sale en la televisión!, hoy hace temblar a Televisa, a Radio Fórmula y a todos los medios del sistema.

No es ninguna coincidencia que quienes más promueven la mitología de la supuesta ‘intervención rusa’ en México son precisamente empleados de Televisa, el brazo de propaganda y de manipulación mediática del Gobierno mexicano.

YouTube para niños genera polémica por sus problemas de vulnerabilidad.

JANINA MARCANO FERMÍN
Vida Ciencia Tecnología
El Mercurio

Videos sexuales y violentos que se detectaron hace unas semanas en YouTube Kids dejaron al descubierto que las empresas tecnológicas no pueden controlar totalmente el contenido que ofrecen.

Spider-Man orina sobre Blancanieves; Elsa, personaje principal de la película Frozen, baila en un tubo de pole dance, y Mickey Mouse llora acostado sobre su sangre después de ser atropellado por un auto.

Escenas como las anteriores son las que aparecieron en cientos de videos que estuvieron disponibles en YouTube Kids, la aplicación de contenido infantil de YouTube, y que ahora tienen a la empresa envuelta en una polémica por visualización de imágenes sexuales y violentas.

A través del hashtag #Elsagate, en alusión al personaje de Frozen, las denuncias por la aparición de estos videos que recreaban historias para adultos con personajes infantiles -que sumaban millones de reproducciones-, se empezaron a agrupar y hasta ayer seguían sumando comentarios en Twitter.

Ya sea por error o debido a una situación intencionada de hackers , el incidente expuso lo delicado de confiar en los algoritmos que validan los contenidos en estas plataformas.

El ingeniero electrónico y académico de la U. Andrés Bello (UNAB), Miguel Gutiérrez, explica que, muchas veces, los videos son filtrados según el texto que contengan, por lo que aquellos que estén etiquetados con nombres de personajes de Disney, por ejemplo, podrían subirse automáticamente, ya que el sistema los considera de tipo infantil.

“No existen algoritmos perfectos. Seguramente una aplicación podría reconocer imágenes de contenido sexual explícito. El problema es que al ser dibujos animados, quizá no está dentro de los patrones de reconocimiento que ellos manejan como pornografía”, explica Gutiérrez.

La académica de la U. de Chile e investigadora del Núcleo Milenio de la Web Semántica, Bárbara Poblete, opina que siempre habrá formas de atacar los algoritmos. Por eso, dice, no tiene permitido a sus hijos acceder a YouTube Kids mientras estén solos. “El sistema trabaja a través de machine learning, por lo que el algoritmo aprende ciertas características, pero una vez que las personas descubren cómo funciona, agregan esas características a sus propios videos”, explica. Aunque Google, empresa dueña de YouTube, eliminó todo el contenido denunciado, que vuelvan a aparecer, dice Poblete, es solo una cosa de tiempo. “Para esto no hay solución. La única forma de controlar por completo el contenido sería a través de miles de editores humanos que fiscalicen las imágenes, pero para una plataforma tan grande sería muy difícil”.

YouTube Kids está disponible en el país desde 2015. Aunque Google Chile no maneja cifras de los usuarios a nivel nacional, Alejandra Bonati, gerenta de Comunicaciones de la empresa, indica que la aplicación tiene 11 millones de usuarios activos semanalmente en el mundo y que Latinoamérica es la segunda región con más televidentes.

Según explica, los videos sí pasan por un proceso de revisión humana, además de la combinación del filtrado algorítmico y feedback del usuario, quienes pueden denunciar contenido inapropiado.

“Hay ocasiones en que los videos que se suben hacen un uso indebido de contenido, ya sea por ser inapropiado para un público amplio o por el uso de material que no le pertenece al creador. Nosotros trabajamos constantemente para regular este contenido y hacer de la plataforma un lugar seguro”, acota sobre el incidente.

Conocer quiénes están detrás de estos videos es difícil. Todo dependerá, opina Gutiérrez, de qué tan débil sea el algoritmo de YouTube Kids. De allí, explica, se podría definir si se trata de hackers que estudian el modelo de categorización de la aplicación para luego corromperlo o si se trata de usuarios comunes que, debido a un algoritmo con filtros poco potentes, abren canales y suben contenido inapropiado que no es detectado como tal.

Origen: http://www.economiaynegocios.cl/noticias/noticias.asp?id=419260

A %d blogueros les gusta esto: