Archivo de la categoría: Internet

Deceived by design – Engañado por diseño

Fuente original (en inglés): https://cryptome.org//2018/07/deceived-by-design.pdf

Un documento de investigación científica nos revela cómo las compañías de tecnología usan patrones oscuros para desalentarnos de ejercer nuestros derechos a la privacidad.

En este informe, analizamos una muestra de la configuración de Facebook, Google y Windows 10, y mostramos cómo la configuración predeterminada y los patrones oscuros, las técnicas y las características del diseño de la interfaz destinadas a manipular a los usuarios, se utilizan para empujar a los usuarios hacia las opciones intrusivas de privacidad. Los hallazgos incluyen la configuración predeterminada de privacidad intrusiva, la redacción engañosa, dar a los usuarios una ilusión de control, ocultar las opciones que favorecen la privacidad, las opciones que se toman o se dejan y las arquitecturas de elección en las que la elección de la opción que favorece la privacidad requiere más esfuerzo por parte de los usuarios.

Facebook y Google tienen valores predeterminados intrusivos de privacidad, en los que los usuarios que desean la opción de privacidad amigable tienen que pasar por un proceso significativamente más largo. Incluso oscurecen algunos de estos ajustes para que el usuario no pueda saber que la opción más intrusiva de privacidad fue preseleccionada.

Las ventanas emergentes de Facebook, Google y Windows 10 tienen un diseño, símbolos y palabras que alejan a los usuarios de las opciones de privacidad. Las opciones están redactadas para obligar a los usuarios a tomar ciertas decisiones, mientras que la información clave es omitida o minimizada. Ninguno de ellos permite al usuario posponer libremente las decisiones.

Además, Facebook y Google amenazan a los usuarios con la pérdida de funcionalidad o la eliminación de la cuenta de usuario si el usuario no elige la opción intrusiva de privacidad. Los ajustes de GDPR de Facebook, Google y Windows 10 proporcionan a los usuarios opciones granulares con respecto a la recopilación y uso de datos personales. Al mismo tiempo, encontramos que los proveedores de servicios emplean numerosas tácticas para empujar o empujar a los consumidores a compartir la mayor cantidad de datos posible.

Anuncios

El 4º Poder en Red » Soberanía tecnológica para combatir al capitalismo digital

Fuente original: El 4º Poder en Red » Soberanía tecnológica para combatir al capitalismo digital

19 Abr 2018

Integrante de la Comunidad CCCD y ex alumno del Máster en Comunicación, Cultura y Ciudadanía Digitales. Periodista e investigador de la URJC en el proyecto Dietética Digital. Editor del blog de Público Dietética Digital.

Uno de los capítulos del último ensayo del Comité Invisible, titulado ‘Ahora’, termina con la siguiente frase: ‘la única medida del estado de crisis del capital es el grado de organización de las fuerzas que pretenden destruirlo’. Así, la denominada crisis financiera de 2008 quizás no lo fue tanto. El 15M, precisamente una de esas fuerzas, resumió con mucha lucidez en una de sus máximas esta idea con el famoso ‘no es una crisis, es una estafa’. Desde luego lo fue para la ciudadanía, a la vista del aumento de la desigualdad que se ha generado diez años después. Para la élite fue momento de recambio. El sistema experimentó un cambio de forma. El capitalismo financiero daba paso al capitalismo digital, con la consecuente sustitución de una élite dominante por otra. Desde la década de los ’90 venía desarrollándose un tipo de capitalismo en Internet que ha pasado por diversas fases de gestación como la burbuja de las puntocom o la web 2.0. y que dio sus primeros pasos en los ámbitos de la publicidad online y el comercio electrónico.

La mutación del capitalismo se puede observar en cómo ha cambiado el ranking de las mayores empresas del mundo por capitalización bursátil. Donde antes había compañías petroleras y automovilísticas, ahora hay plataformas tecnológicas digitales. Estas empresas son a las que Eugeny Morozov* denomina plataformas Big-Tech, refiriéndose a las GAFAM (Google, Amazon, Facebook, Apple y Microsoft), principalmente, aunque también destacando algunas potencias tecnológicas emergentes en China, como Alibaba. Silicon Valley, la Meca de las GAFAM, ha sustituido a Wall Street como centro neurálgico del capital. Es el lugar desde el que se propaga al resto del mundo -occidental, al menos- la doctrina hegemónica actual, el tecnoutopismo. Es a lo que Morozov llama ‘solucionismo tecnológico’, es decir, la creencia de que las tecnologías digitales son y serán capaces de ofrecernos soluciones a todos los problemas del mundo y, por tanto, debemos depositar nuestra fe ciega en ellas, y en los nuevos amos que las dominan.

Estas empresas han alcanzado tal posición de poder, y la mantienen, mediante dos factores elementales. La extracción y acumulación masiva de datos generados por los usuarios, el Big Data; y la posesión de las infraestructuras que median, cada vez más, nuestras relaciones sociales, políticas y económicas. La venta de estos datos para insertar publicidad micro-segmentada -Google y Facebook-, la venta de software y hardware -Apple y Microsoft- y el abaratamiento de costes en el comercio electrónico -Amazon- son los más obvios. Sin embargo, los modelos de negocio de la economía digital han ido evolucionando y diversificándose más allá de la publicidad y el comercio online. Con ellos, las implicaciones del capitalismo digital han ido mucho más allá de cuestiones como la privacidad y la vigilancia masiva -como demostraron las filtraciones de Edward Snowden- y la micro-segmentación, ya no solo comercial si no electoral, como ejemplifica el caso de Cambridge Analytica.

Capitalismo digital expandido

Los algoritmos que hacen de motor de la economía digital toman muchas más decisiones de las que nos imaginamos. Cada vez más, son responsables de decidir si una persona recibe un crédito en un banco, si puede contratar un seguro, si tiene acceso a una universidad, o si es contratada por una empresa. Con el objetivo de reducir costes y maximizar la eficiencia, se emplean algoritmos capaces de procesar mucha más información que un ser humano, con la ventaja añadida de que no precisa de un salario -ni se va a quejar por ello- y otorga un aura de neutralidad e imparcialidad a la toma de decisiones. Esto último es un mito que es necesario rebatir, pues este modelo de toma de decisiones ‘objetivo’ responde a los sesgos introducidos por los humanos que los programaron. Además, la falta de transparencia alrededor de su funcionamiento evita que se pueda revisar ese proceso para evaluar si se hace correctamente. Así, los algoritmos se convierten en generadores de desigualdad, lo que la matemática Cathy O’Neill llama ‘Armas de Destrucción Matemática’.

En la expansión de la utilización de algoritmos en amplios sectores de la sociedad encontramos el modelo de negocio del futuro (y ya del presente) para las plataformas Big-Tech, el de la Inteligencia Artificial (IA). El Big Data es utilizado para alimentar estos algoritmos, desarrollando así la rama de la IA denominada ‘aprendizaje automático’. De este modo, las corporaciones que ya controlan gran parte de las infraestructuras que hacen posible el entorno digital pueden colonizar el mundo físico. Con un sistema público enormemente degradado, especialmente con las políticas de austeridad impuestas durante la última década, la IA se presenta como la mejor solución para optimizar los -escasos- recursos, mediante la predicción de patrones de comportamiento en ámbitos como la educación y la sanidad, entre muchos otros.

Como estas empresas son, por el momento, las únicas con capacidad para extraer masivas cantidades de datos de los usuarios y de utilizar su trabajo voluntario para alimentar a sus máquinas predictivas, la competencia para ellas es prácticamente inexistente, dándose la formación de ‘monopolios naturales’. Así, van progresivamente copando y centralizando todas las infraestructuras y servicios generando una extrema dependencia de ellas por parte, no solo de la ciudadanía, sino de otras empresas y de los estados.

¿Qué hacer?

Ahora bien, ¿que podemos hacer ante este, ya no futuro, si no presente distópico en el que nos encontramos? Las propuestas de Morozov pasan por el cambio de propiedad y estatus legal de los datos, y por la creación de infraestructuras públicas -no necesariamente estatales- que sean capaces de ofrecer una alternativa a las corporaciones privadas digitales.

Partiendo de la base de que la propiedad de los datos pase a ser de las personas que los producen es un elemento fundamental para revertir la actual situación, de este escenario surgen dos caminos bien distintos. Resumidamente, o tratar a los datos como una mercancía o como un bien común. La primera opción, la que propugnan personas como Steve Bannon (jefe de campaña de Trump y uno de los fundadores de Cambridge Analytica), desembocaría en un capitalismo digital aún más salvaje y ni siquiera lograría que los datos revirtiesen en beneficios para la gente, pues es en su agregación donde tienen más valor. La segunda opción eliminaría la posibilidad de hacer negocio con los datos para, en lugar de eso, darles usos que no busquen el lucro privado sino el beneficio comunitario. Para ello, es imprescindible la construcción de infraestructuras que estén sometidas un control democrático de la ciudadanía. Es aquí donde movimientos sociales, organizaciones civiles y partidos políticos que verdaderamente aspiren a la emancipación tienen que empezar a generar discursos y acciones para llevarlo a cabo, pues es donde el capitalismo se encuentra en mejor estado de forma.

Este es un planteamiento de macropolítica, certero e inspirador, pero también lejano y utópico si no somos capaces de pensar en qué podemos hacer aquí y ahora, en la micropolítica que está a nuestro alcance y nos acerca a ese horizonte. Lo que pretende este artículo es proponer un camino que complemente a las propuestas de Morozov. Podemos comenzar por adoptar la filosofía/ética hacker. La figura del hacker es la de la persona curiosa, crítica, activa, que se preocupa por conocer cómo funcionan las tecnologías digitales mediante las que nos dominan, y compartir ese conocimiento.

Frente al discurso religioso del tecnoutopismo, la figura del hacker es la del hereje (significa ‘el que elige’) que se atreve a pensar por sí mismo/a y con los demás, a cuestionar la fe en la tecnología para convertirlo en conocimiento crítico y a dejar de tratar a las tecnologías digitales como objetos sagrados para desmontarlos y reprogramarlos. Sin necesidad de grandes cambios legislativos ni multimillonarios desembolsos de dinero, todos/as podemos empezar ya -a nivel individual y/o colectivo- a recuperar el control sobre nuestros datos, a subvertir las infraestructuras actuales, o crear otras nuevas. Las comunidades de (auto) aprendizaje, los centros sociales y los hacklabs son los lugares y el software libre la herramienta para ello.

Estas prácticas y conocimientos son las que pueden comenzar a proporcionarnos la soberanía tecnológica que, transformada en soberanía política, eventualmente puede desembocar en cambios a gran escala que nos permitan recuperar la propiedad de nuestros datos, cambiar su estatus legal y construir infraestructuras tecnológicas públicas y democráticas que nos liberen de las plataformas Big-Tech. Así, en último término, podremos organizar colectivamente una fuerza que ponga en crisis al capital, sea cual sea su forma.

*Este autor estuvo recientemente en el Museo Nacional Centro de Arte Reina Sofía para inaugurar el ciclo ‘Seis contradicciones y el fin del presente‘ con una conferencia y un taller bajo el título de ‘El Capitalismo digital y sus descontentos’ en el que se debatieron las cuestiones que recoge este artículo.

López Obrador fue investigado por la Inteligencia de EE.UU. desde 2006: WikiLeaks – RT

Fuente original: López Obrador fue investigado por la Inteligencia de EE.UU. desde 2006: WikiLeaks – RT

Publicado: 13 jul 2018

Los cables revelan que el Gobierno estadounidense solicitó información sobre el hoy presidente electo. Una relación de dudas que dará hoy un giro con la visita del secretario de Estado, Mike Pompeo, a las oficinas del presidente electo de México.

Una serie de cables diplomáticos clasificados, dados a conocer por WikiLeaks, revelaron que el hoy presidente electo de México, Andrés Manuel López Obrador, fue investigado por el Gobierno de Estados Unidos desde 2006.

Un asunto que se vuelve relevante a unas horas de que López Obrador reciba en sus oficinas a Mike Pompeo, secretario de Estado de EE.UU., lo cual marcará un giro en la fría relación que había tenido AMLO frente al Gobierno estadounidense.

La organización fundada por Julian Assange recordó este episodio en una serie de tuits publicados tras el triunfo de López Obrador en las elecciones presidenciales mexicanas, en los cuales, se detalla el tipo de información solicitada por el Gobierno norteamericano, incluyendo a la secretaria de Estado, Hillary Clinton.

La división de la izquierda

En el cable PRD/MEXICAN LEFT (C-AL9-02542), la administración del entonces presidente Barack Obama requirió en diciembre de 2009 información sobre qué tan profunda era la división de los partidos de izquierda de cara a las elecciones presidenciales de 2012.

Esto luego de que López Obrador rompiera con Jesús Ortega, líder de Los Chuchos, corriente al interior del PRD que provocó la salida de López Obrador del partido. El cable también pregunta por la relación de AMLO con el entonces jefe de Gobierno de la Ciudad de México, Marcelo Ebrard, y otros políticos como el hoy senador Alejandro Encinas y Juan Ramón de la Fuente, exrector de la Universidad Nacional Autónoma de México (UNAM).

“¿Cuál es la relación entre los miembros del PRD, Andres Manuel López Obrador (AMLO), Marcelo Ebrard, Jesús Ortega, Alejandro Encinas y Juan Ramon De La Fuente?”, señala el documento.

“¿En qué medida están funcionando estos individuos juntos o entre otros? ¿Cuánto apoyo tienen ellos dentro del PRD y entre los pequeños partidos de izquierda (PT y Convergencia)? ¿Cuál es la percepción entre los miembros de ‘rank-and-file’ [ordena y archiva, término militar utilizado para clasificar información] de AMLO y Ebrard? ¿Qué otros grupos –sindicatos, movimientos sociales, etcétera– consideran entre sus partidarios?”, añade la solicitud de información realizada desde Washington.

Pero este es tan sólo un ejemplo del seguimiento que el Gobierno de EE.UU. dio a López Obrador con el paso de los años, ya que en las búsquedas de WikiLeaks, el nombre de presidente electo mexicano aparece en al menos 181 cables de la Inteligencia estadounidense y 4.658 correos internos de la agencia de Inteligencia Stratfor, desde 2006.

AMLO, el “presidente sombra”

En otro de ellos, titulado THE MAKING OF THE SHADOW PRESIDENT? (¿La fabricación de un presidente sombra?), la Inteligencia estadounidense analiza la personalidad de López Obrador y sus intenciones de declararse como “presidente legítimo” tras desconocer las elecciones presidenciales de 2006 y acusar un fraude electoral en la controvertida victoria de Felipe Calderón.

“Varios importantes observadores políticos mexicanos estuvieron de acuerdo en que la evolución del estancamiento político actual continuaría, en buena medida, en función de la personalidad de Andrés Manuel López Obrador (AMLO). Creían que su manera de pensar era tan rígida y autocomplaciente, que nunca sería capaz de admitir la derrota”, señala el documento.

“Al mismo tiempo, su poderoso carisma aseguraba que no le faltaría un núcleo de seguidores dispuestos a seguirlo ‘hasta las últimas consecuencias’. Sospechaban –y recientes informes de prensa corroboran cada vez más– que planeaba institucionalizar su movimiento de protesta luego de que el Tribunal Electoral validara a Felipe Calderón como presidente, tal vez estableciendo un ‘gobierno en la sombra’ que buscaría instigar a Calderón en todo momento. La importancia de este movimiento bien puede depender de cómo el PRD responda al desafío planteado por las tácticas de AMLO y si prevalecen los pragmáticos o los partidarios de AMLO”, añade el documento.

El viernes 13 de julio de 2018, López Obrador se reunirá por primera vez con altos funcionarios del Gobierno de EE.UU. tras haber obtenido un contundente triunfo en las elecciones presidenciales de México.

Manuel Hernández Borbolla

Big Data y periodismo en Latinoamérica (II)

Fuente original: Big Data y periodismo en Latinoamérica (II)

2018-06-20 13:56:02 / web@radiorebelde.icrt.cu / Laura Barrera Jerez

Big data y periodismo en Latinoamérica

Es evidente la marcada influencia de estilos europeos y norteamericanos, en el periodismo de datos latinoamericano, los cuales generalmente se enriquecen con iniciativas regionales.

Además, se destacan experiencias similares del uso del big data en otros sectores: “A partir de la complementación de las economías latinoamericanas, el uso apropiado del big data puede aumentar las interrelaciones y la cohesión en toda la región, sobre todo, por su vinculación a una perspectiva proactiva de la gestión de la comunicación basada en la escucha activa de los públicos”, refiere el Latin American Communication Monitor 2016 – 2017. Tendencias en comunicación estratégica: big data, automatización, engagement, influencers, coaching y competencias.

Organismos regionales como la Comisión Económica para América Latina y el Caribe (CEPAL) le han dado gran valor a este tópico. Es por ello que desde marzo de 2017 lanzaron el proyecto Big Data: Grandes datos para la economía digital en América Latina y el Caribe, con financiamiento de la Cuenta para el Desarrollo de las Naciones Unidas, y que, según sus propios objetivos, busca mejorar las capacidades nacionales para la medición de la economía digital y el diseño de políticas basadas en evidencia, a través del big data y su combinación con estadísticas tradicionales.

Big data y periodismo en Latinoamérica

A pesar de tales avances y perspectivas en sectores como el económico, las conclusiones del LCM 2016-2017 plantearon que en el área de la investigación académica en relaciones públicas y gestión de la comunicación apenas se ha comenzado a reconocer la importancia y potencial del big data, pese al salto cualitativo que supone para la profesión. Debido a esto, Latinoamérica presenta un ligero retraso en comparación con otras regiones y casi la mitad de los profesionales encuestados aseguró que les faltan habilidades analíticas para manejar el big data (45,1%) y tiempo para estudiarlo o analizarlo (35,9%).

Big data y periodismo en Latinoamérica
Presentación que formó parte de la conferencia impartida recientemente por la profesora Beatriz Pérez Alonso a periodistas del Instituto Cubano de Radio y Televisión

Por ello se plantea que en los medios de comunicación, figuras como los intermediarios de datos, desarrolladores de software, investigadores o periodistas deben manejar habilidades que les permitan integrar conocimientos.

Hoy se concibe al periodismo de datos como una evolución del periodismo de precisión, cuya práctica, a su vez, se forjó del periodismo de investigación.

“El periodismo de datos también supone una nueva forma de contar historias, una nueva narrativa visual que combina la visualización de los datos, pero que también deja abierta la construcción de una narración propia del lector, lo que remite de nuevo a lo hipertextual, la web y la web semántica”, diría el doctor Adolfo Antón Bravo.

Big Data y periodismo en Latinoamérica (I) (+Infografías)

Fuente original: Big Data y periodismo en Latinoamérica (I)

2018-06-19 19:16:50 / web@radiorebelde.icrt.cu / Laura Barrera Jerez

Big Data y periodismo en Latinoamérica

El 37,8% de profesionales en Latinoamérica consideran que el uso del big data y los algoritmos para la comunicación será el segundo tema más importantes para la gestión de comunicación en 2019, aunque solo una cuarta parte de los profesionales de la comunicación es consciente de que el big data puede cambiar la profesión, según el “Latin American Communication Monitor 2016 – 2017. Tendencias en comunicación estratégica: big data, automatización, engagement, influencers, coaching y competencias”.

Big Data y periodismo en Latinoamérica

En América Latina, en el contexto de convergencia de la política, el periodismo y los actores sociales, se destaca el creciente flujo informativo big data, sobre todo el derivado de plataformas de redes sociales. Así lo avalan los resultados del estudio citado anteriormente así como el informe del Primer Congreso Internacional de Periodismo Convergencias mediáticas y nueva narrativa latinoamericana (2017).

Big Data y periodismo en Latinoamérica

En el artículo “Cómo crear un equipo de periodismo de datos: consejos prácticos para unir programadores y periodistas”, publicado en el libro: Periodismo Innovador en América Latina (2017), Fabiola Torres López, fundadora y editora de Ojo Público, explica que en América Latina, la brecha tecnológica en el periodismo es grande, pero resulta alentador que ocho periódicos y seis sitios digitales nativos hayan formado equipos de periodismo de datos inspirados en las experiencias de The New York Times, The Guardian, ProPublica y Los Ángeles Times.

En nuestro continente, generalmente las unidades de trabajo que se dedican al periodismo de datos tienen características diversas (en cuanto a número de integrantes, perfiles, dinámicas), no obstante, varios premios y reconocimientos (regionales y mundiales) avalan ya el quehacer de estos profesionales.

Big Data y periodismo en Latinoamérica
Fuente: Latin American Communication Monitor 2016 – 2017. Tendencias en comunicación estratégica: big data, automatización, engagement, influencers, coaching y competencias

Muchas referencias sobre el tema provienen de los estudios de Sandra Crucianelli, experta en Searching Web, en Periodismo de Investigación y Periodismo de Precisión, con énfasis en fuentes digitales y Data Journalism. Así consta en la segunda edición de Herramientas digitales para periodistas (2013) donde presenta una fórmula para explicar el Periodismo de Datos:

Big Data y periodismo en Latinoamérica

Por otro lado, además de funcionar para la narración de historias, estas herramientas permiten crear otras bases de datos que pueden ser utilizadas a mediano o largo plazo. En ese proceso en el que intervienen equipos transdisciplinares se estudian los antecedentes, los significados y las repercusiones de esas cifras en aras de determinar tendencias, definir temas de análisis, prever comportamientos, etc.

No obstante, aún algunos profesionales del sector entienden al periodismo de datos solo como instrumento para ampliar las posibilidades de construcción de noticias y otros géneros. A esa percepción debemos agregar que muchos trabajos periodísticos se sustentan en datos y sus análisis, no como simples apoyos, sino como eje central de las publicaciones.

Big Data y periodismo en Latinoamérica

Alérgicos al WiFi y al móvil, sobre todo cuando sale en la prensa – Radiandando

Fuente original (Recomiendo el sitio fuente completo, como una excelente y completa recopilación de información sobre ondas electromagńeticas y salud): Alérgicos al WiFi y al móvil, sobre todo cuando sale en la prensa – Radiandando

Con cierta frecuencia, los medios de comunicación se hacen eco de personas que dicen ser hipersensibles a los campos electromagnéticos de radiofrecuencia (CEM-RF). Así, el pasado 9 de junio, Anxo Martínez de El Faro de Vigo, recogía el calvario que pacede una mujer al estar “en contacto” con las radiaciones de las redes inalámbricas y de los aparatos eléctricos. En el texto se indica que Mercedes, la afectada, tuvo que “huír” de su piso en Santiago a Vilagarcía porque “hasta 18 redes WiFi domésticas” le producían la sensación de que la estaban matando pues sentía “como si estuviese dentro de un microondas” (sic). Además, ha sufrido episodios agudos cuando “instalaron los contadores inteligentes de la luz” o cuando pasa por delante de la Comandancia de Marina pues siente como que la empujasen. En el artículo se dice que “sus síntomas son tan cambiantes” que los médicos no aciertan a enviarla al especialista adecuado. Los síntomas típicos de esta patología se recogen en la siguiente imagen:


Se trata de una sintomatología muy inespecífica. Cualquiera de nosotros habrá padecido dos o tres síntomas, sino más, en las últimas 24 horas. Lo primero que debemos indicar es que estos pacientes sufren esos síntomas, incluso episodios agudos muy llamativos como el que cuenta que le produjeron los contarores de la luz hinchándole la cara de forma alarmente. Y, ciertamente, estos pacientes los sienten y sufren mucho pues están enfermos. Siempre digo que cuando mi hijo se constipa o vomita por la noche en la cama, no le regaño, no le castigo. Se pone enfermo sin más, no se puede culpabilizar al paciente sino todo lo contrario, transmitirle comprensión y cariño. Lo que pasa es que la Ciencia ha demostrado que si hay algún factor ambiental que está provocando esos síntomas, no son los CEM-RF, lo que produce un virulento rechazo y ataques a quienes osen decirlo, pues parece que les estás insultando o cuestionando sus creencias. He aquí un ejemplo de cómo pensaban organizarse los afectados cuando impartí esta clase en el curso “La Ciencia toma la palabra” de la Universidad de Alicante en septiembre de 2017.

Entonces, si la Ciencia demuestra que los CEM-RF no son culpables de su patología, ¿qué está pasando a estos pacientes? Pues que sufren una enfermedad, claro que la sufren, además muy limitante y difícil de curar, pero no la producen ni las WiFis de los vecinos ni, mucho menos, los contarores de la luz, ni la radiación que pueda estar emitiendo la Comandancia de Marina a pie de calle. El caso de los contadores de la luz es el más curioso. Ya hace 5 años publiqué “los contadores del mal” en el que explicaba que la comunicación de los datos de estos contadores con las compañías eléctricas se realizaba mediante PLC (Power Line Communication) por el propio cable de la luz y sin que emitan radiofrecuencia alguna, como reclaman los propios afectados que debería ser toda comunicación telemática. Una contradicción. Una búsqueda rápida nos llevará a movimientos beligerantes contra estos contadores (incluso páginas asesoradas por insignes catedráticos como DSalud), obviando, como decía, que la comunicación se realiza por el cable como recoge cualquiera de las hojas ténicas de los aparatos que pude revisar por aquel entonces. Y a mi, puestos a preocuparse, lo que me preocupa es la información en tiempo real de qué estoy haciendo yo en mi casa que recibe la compañía, pero porque soy bastante pesado con la privacidad y la ley de protección de datos. En el caso de las WiFis, claro que es llamativo el número de WiFis a las que estamos expuestos, pero los estudios y revisiones en Europa indican que las fuentes menos intensas de radiación son estas WiFis, incluso cuando tenemos nuestro propio router en casa, mucho menos las de los vecinos, como tampoco es alarmante la exposición a teléfonos inalámbricos DECT. La exposición máxima la solemos recibir en los medios de transporte y en la calle y, fundamentalmente, de los teléfonos móviles en el primer caso y de las antenas en el segundo, siendo los valores medios, como he dicho ya en numerosas ocasiones, muy muy bajos. Termino con la posible radiación que emite la Comandancia de Marina de Vilagarcía. Reviso las imágenes de Google Street View y no observo antena alguna en las inmediaciones, pues probablemente esté en otro lugar. Pero de estar allí, al tratarse de transporte marítimo, apuntarán hacia el mar y no hacia tierra.

Es imposible estar aislado de los campos electromagnéticos. Están por todas partes. Y Vilagarcía no es una excepción. En este enlace pueden verse las numerosas antenas de telefonía que hay en el núcleo urbano y alrededores y tengo que recordar, aquí, una entrada anterior al blog en la que explicaba por qué cuantas más antenas y más cerca, mejor. Pero no sólo estamos expuestos a CEM-RF artificiales, también naturales, incluso provenientes del espacio. Y los sistemas de protección, de los que también he hablado con anterioridad, no son una solución. Y lo más importante es que no tenemos receptores para detectar esos campos electromagnéticos, no se ha descrito que nadie pueda detectarnos en condiciones de laboratorio y mucho menos a las intensidades habituales de funcionamiento en telecomunicaciones. Sería similar a que alguien me dijera que es capaz de escuchar por encima de 20 kHz, esto es, ultrasonidos. No es posible.

La evidencia científica es concluyente. En la siguiente imagen, tomada de esta revisión de 2010, se compara la capacidad de detectar CEM-RF en condiciones de laboratorio. En los 4 estudios superiores se trataba de personas que decían padecer hipersensibilidad electromagnética (HSE), mientras que los 5 estudios inferiores se realizaron con voluntarios sin dicha patología. Puede observarse en el gráfico, puesto que la línea vertical indica un 50% de probabilidades de acertar (0,5 si eres estadístico), que los afectados no sólo no son capaces de detectar los CEM-RF sino que, adeás, no tuvieron ni suerte, pues la probabilidad de acertar fue aproximadamente la misma entre afectados y no afectados e igual a la del puro azar.

Mi alumno del Máster de Biomedicina Experimental, Angel Zalve, el año pasado, realizó una revisión sistemática de publicaciones entre 2011 y 2017 sobre este asunto. Seleccionó 49 estudios  (publicados en revistas de impacto e indexadas en JCR) que analizaban diferentes patologías y fuentes de radiación. De ellos, seleccionó aquellos en los que se evaluaban síntomas subjetivos, patologías psicológicas y 8 estudios a doble ciego. Llegando a las siguientes conclusiones:

  • Aquellas personas con una patología psicológica y/o psiquiátrica reportan más riesgos y miedos a CEM, que condicionarán la posibilidad de experimentar malestar y sintomatología, pero debido a esta preocupación “hipocondríaca”.
  • Aquellos síntomas que las personas sensibles expresan, ocurren en aquellas con más predisposición e independientemente de la exposición a CEM, sin que se haya demostrado una posible asociación de causalidad.
  • En los estudios a doble ciego los resultados indican que una persona que pudiera padecer esta patología, a la hora de sentir o percibir los CEM, no presenta diferencias con quien no la padece, por lo que pensar en una asociación entre CEM-RF y sintomatología es inadecuada.

En la siguiente figura se recogen los resultados de otra revisión sistemática de 2012 realizada por Baliatsas en la que se revisaron trabajos de entre 2000 y 2011 incluyendo finalmente 22 estudios que evaluaron síntomas y su posible relación con la exposición a CEM-RF. La conclusión fue que no existe evidencia de una asociación directa entre exposición y síntomas inespecíficos.

Es por todo esto, que no se reconozca esta enfermedad como tal, pues nada tiene que ver con los CEM-RF y sí con un trastorno psicosomático. Lo cual no es malo. Como decía anteriormente, no castigo ni regaño a mi hijo cuando se pone enfermo, ni se pone enfermo por ser tonto ni nada parecido. No sé si me explico. Como enfermedad que no tiene nada que ver con los CEM-RF, nada conseguiremos alejándonos de las fuentes de radiación, lo cual tampoco es posible. Debemos entender a los pacientes y saber que puede ser tan grave que puede acabar en suicidio. Por tanto, claro que estamos ante una patología seria y grave y los profesionales de la salud deberían saber a qué especialista derivar a estos pacientes para poder ofrecerles un tratamiento adecuado. No entiendo por qué se sienten atacados. No estamos diciendo que no estén enfermos, o que sea una tontería de enfermedad, todo lo contrario, es seria y limitante. Estamos alertándoles de que su patología no se debe a lo que ellos creen que se debe o a lo que algunas empresas, pseudofundaciones y pseudoprofesionales les dicen que se debe. Y es aquí a donde quería llegar. Numerosas empresas, como indica el propio artículo de Anxo Martínez, se están enriqueciendo a costa de esta dolencia, vendiendo inútiles sistemas de protección. Los pacientes sufren los síntomas y son capaces de gastarse miles de euros en cortinas, calzoncillos y pijamas, colchones, pegatinas e, incluso, pastillas que no les harán nada más que vaciarles el bolsillo. Incluso hay por ahí algún médico catalán que, por el mismo precio, te diagnosticará una hipersensiblidad química múltiple, te dirá que no tomes leche o que no te vacunes y te recomendará un buen abogado para que reclames una pensión vitalicia.

Llegados a este punto, creo que es el momento de explicar qué dice la Ciencia sobre el efecto de este tipo de publicaciones alarmistas y sin supervisión científica. Y es que la Ciencia ha demostrado que, como si fuera una alergia al polen, la hipersensibilidad electromagnética, en vez de dispararse en primavera, se suele disparar cuando los medios de comunicación, sin acudir a expertos y dando por válida la versión de una única persona, publican esta clase de textos. En 2012, Witthoefl y Rubin, analizaron el impacto que tenían este tipo de noticias sobre el número de consultas a los médicos sobre esta patología los días posteriores a su publicación. Concluyeron que son las personas con mayores niveles previos de ansiedad, mayor tendencia a la somatización y más preocupación sobre la relación exposición-consecuencias, las que, tras recibir por los medios de comunicación este tipo información errónea, alarmista y/o incompleta, asociaban mayores efectos y aquejaban mayor clínica a la exposición. En los dos últimos cursos académicos, he dirigido dos trabajos fin de grado, a Nerea García y a Judit Masiá. En el primero se evaluó cómo la participación en un proyecto de investigación realizando medidas de exposición y el acceso a los resultados y a información científica fiable, reducía la percepción de riesgo y la preocupacíón. En el otro caso, se estudió cómo la educación para la salud mediante una charla de divulgación impartida a personas que decían estar preocupadas por este asunto, también redujo considerablemente la preocupación y la percepción del riesgo.

Termino con la conclusión que Witthoefl y Rubin añadían al final de su trabajo: “es necesiario una mayor relación entre periodistas y científicos para contrarrestar estos efectos negativos”. Así que por aquí estoy para lo que haga falta.

¿Falta información? (ondas electromagnéticas y salud) – Radiandando

Fuente original (Recomiendo el sitio fuente completo, como una excelente y completa recopilación de información sobre ondas electromagńeticas y salud): ¿Falta información? – Radiandando

Una de las principales demandas sobre la posible relación entre los campos electromagnéticos y la salud es la falta de información. Aquel que está preocupado por este asunto, suele acudir a Internet en busca de esta información. Si bien Internet ofrece innumerables posibilidades, en nuestras asignaturas del Grado en Medicina, solemos decir que “la información que se encuentra en Internet es, por norma general, falsa”. A partir de este punto enseñamos a nuestros alumnos a buscar información válida, información científica. No es objetivo de esta sección proporcionar estos conocimientos y lo que ofrecemos a continuación son enlaces, resúmenes, leyes, informes de organismos oficiales y de reconocido prestigio que esperamos sirvan para entender el estado actual del tema y tranquilizar a la población preocupada. ¿Dónde están las antenas? http://antenasgsm.com/ ¿Qué mide el Ministerio? https://geoportal.minetur.gob.es/VCTEL/vcne.do 7 estudios (revisiones sistemáticas y metaanálisis) en 5 aspectos fundamentales: medida de la exposición, efectos de las antenas, efectos de los terminales, cáncer y efecto nocebo:

  • Meta análisis sobre los posibles efectos de las antenas de telefonía móvil sobre el bienestar de adultos. (Mobile phone base stations and well-being — A meta-analysis. Autores: Armin Klaps, Ivo Ponocny, Robert Winker, Michael Kundi, Felicitas Auersperg y Alfred Barth publicado en Science of the Total Environment en 2016). Meta análisis, una de las técnicas más potentes para contrastar estudios, que evalúa 17 estudios sobre posibles efectos de las antenas de telefonía sobre el bienestar en adultos. La conclusión es muy clara y contundente: en condiciones de doble ciego no se reproducen efectos, en cambio en los estudios en los que el doble ciego no está garantizado, sí se producen efectos, sugiriendo que se trata de efecto “nocebo”.
  • Revisión sistemática de los efectos sobre la salud de la exposición a campos electromagnéticos de radiofrecuencia procedentes de estaciones base de telefonía (Systematic review on the health effects of exposure to radiofrequency electromagnetic fields from mobile phone base stations. Autores: M. Röösli, P. Frei, E. Mohlera & K. Huga publicado en 2010 en Bull World Health Organ). Última revisión de 119 estudios epidemiológicos publicados en los últimos 4 años. Las principales conclusiones son que no hay una relación entre síntomas inespecíficos (dolores de cabeza, problemas de sueño, etc), hipersensibilidad, funciones cognitivas, respuestas fisiológicas (pulso cardíaco, conductancia de la piel, flujo sanguíneo), cáncer y la exposición a radiación electromagnética de radiofrecuencia procedente de estaciones base de telefonía.
  • Revisión sistemática del uso de telefonía inalámbrica y cancer de cerebro y otros tumores de cabeza (Systematic Review of Wireless Phone Use and Brain Cancerand Other Head Tumors. Autores Repacholi et al. publicado en 2012 en Bioelectromagnetics). Revisión de estudios que estudian la posible asociación entre uso de teléfono móvil y cáncer. La principal conclusión es que no hay evidencia de una relación causal entre el uso de teléfonos móviles y cáncer de cerebro, tumores o daño en células cerebrales en las áreas del cerebro más expuestas a la radiación.
  • Revisión sistemática sobre síntomas y exposición a campos electromagnétivos (Non-specific physical symptoms and electromagnetic field exposure in the general population: Can we get more specific? A systematic review. Autores Baliatsas, C., Van Kamp, I., Bolte, J., Schipper, M., Yzermans, J., Lebret, E. publicado en 2012 en Environment International). Se revisaron trabajos entre 2000 y 2011 incluyendo finalmente 22 estudios que evaluaban síntomas y su posible relación con la exposición a CEM-RF. La conclusión es que no existe evidencia para una asociación directa entre exposición y síntomas inespecíficos. Otra revisión de 2013 de Rubin et al. en Bioelectromagnetics, concluye algo similar.
  • Revisión sistemática de los estudios de evaluación de la exposición personal a CEM-RF (Radiofrequency electromagnetic field exposure in everyday microenvironments in Europe: A systematic literature review. Autores: Sanjay Sagar, Stefan Dongus, Anna Schoeni, Katharina Roser, Marloes Eeftens, Benjamin Struchen, Milena Foerster, Noëmi Meier, Seid Adem and Martin Röösli publicado en Journal of Exposure Science and Environmental Epidemiology en 2017). En esta revisión se analizan 21 trabajos de evaluación de la exposición personal a CEM-RF publicados entre enero de 200 y abril de 2015. Los valores máximos se suelen observar en medios de transporte (debido a uplink-terminales) con valores de entre 0,5 y 1 V/m. La exposición en el exterior (generalmente debida a downlink-antenas) oscila entre 0,3 y 0,7 V/m. En el interior de las casas esta exposición baja a 0,1-0,4 fundamentalmente debida a teléfonos inalámbricos, con escaso aporte de las WiFis.
  • Amplio estudio sobre la exposición personal a CEM-RF en niños en Europa (Spatial and temporal variability of personal environmental exposure to radio frequency electromagnetic fields in children in Europe. Autores: Birks LE, Struchen B, Eeftens M, van Wel L, Huss A, Gajšek P, Kheifets L, Gallastegi M, Dalmau-Bueno A, Estarlich M7, Fernandez MF, Meder IK, Ferrero A, Jiménez-Zabala A, Torrent M, Vrijkotte TGM, Cardis E, Olsen J, Valič B, Vermeulen R, Vrijheid M, Röösli M, Guxens M publicado en Environment International). Los valores medios resultaron sumamente bajos tanto de día como de noche, valores también bajos en las escuelas y en las casas, algo superiores en el transporte y en la calle. Las principales fuentes de exposición fueron las antenas de telefonía. Tanto las WiFis como los teléfonos DECT contribuyeron débilmente.
  • Revisión sistemática sobre los posibles efectos de las WiFi sobre la Salud. (Wi-Fi and health: review of current status of research. Autores Foester, KR y Moulder, JE, publicado en Health Physics). Cabe destacar que el estudio se financió con fondos de la Wi-Fi Alliance y el Mobile Manufactures Forum, pero que ninguna de estas organizaciones participó en la investigación ni tuvieron conocimiento de los contenidos o conclusiones del estudio (se llama declaración de intereses, por lo que uno hace una lectura aún más crítica si cabe). Las conclusiones son claras y son que en condiciones normales no se han demostrado efectos sobre la salud. Los estudios sobre efectos biológicos son variados, con metodologías variadas y recomiendan estudios en condiciones in vivo. Alertan sobre los efectos de un mal uso de dispositivos móviles e inalámbricos por cuestiones de seguridad en la red o al conducir, sobre todo con niños, más que de los efectos potenciales causados por la radiación de los dispositivos.
  • Estudio epidemiológico sobre cáncer de cerebro y terminales móviles (Brain cancer incidence trends in relation to cellular telephone use in the United States. Autores Inskip, Hoover y Devesa publicado en Neuro-Oncology en 2010). Se estudió la epidemiología del cáncer de cerebro entre los años 1992 y 2006 (cuando se produjo el boom de la telefonía móvil). La gráfica comparada con el incremento de líneas móviles es recurrente. La incidencia en 2017 sigue entorno a los 6-8 casos por 100.000 habitantes en EEUU.

Documentación científica:

Legislación:

Y si lo que quieres es saber dónde están las antenas, sus operadores, niveles de exposición u otras cosas: