

Secciones
Servicios
Destacamos
Matías Stuber
Lunes, 13 de abril 2020, 16:31
¿Me censuran, no me censuran, me censuran? Desde hace ya varias semanas, la lucha contra el coronavirus ha dado el salto, prácticamente, a todas las esferas de nuestras vidas. También a los teléfonos móviles, que son uno de los grandes símbolos de esta crisis sanitaria. Sin ellos, este aislamiento sería muy diferente. En todos los sentidos. Permiten a las personas estar conectadas en remoto, son esencial para el teletrabajo y rompen el distanciamiento social que impone la separación física. Además, garantizan un acceso a la información sin precedentes y contribuyen a construir el marco cognitivo que se tiene sobre la gestión de esta crisis, y sobre si el Gobierno está tomando las decisiones adecuadas en cada momento o si su forma de actuar es errónea o, incluso, negligente.
Constatar que esto es así es muy fácil. Basta con cerrar durante unos segundos los ojos y responderse a sí mismo a la siguiente pregunta: ¿Cómo sería mi realidad sin WhatsAapp y Facebook? Las dos forman parte de las aplicaciones más utilizadas durante esta crisis sanitaria, pero siguen caminos diferentes en la verificación de contenido. Ahora que ambas redes han sufrido acusaciones de censurar determinado contenido, cabe una explicación de cómo funcionan.
Hace una semana, WhatsApp limitó la cantidad de veces que los usuarios pueden mandar un mensaje a otros contactos de su agenda al mismo tiempo. Una práctica habitual, conocida como el clásico reenvío. Así, ya no es posible mandar el mismo mensaje cinco veces de golpe. Si el usuario quiere reenviarlo entre sus contactos, tendrá que ser de uno en uno. La decisión corresponde a un cambio de política de la compañía, que justifica en la necesidad de evitar la difusión y la viralización de mensajes falsos. «Notamos un aumento significativo en la cantidad de reenvíos que, según algunos usuarios, puede resultar apabullante y contribuir a la divulgación de información errónea», asegura en un comunicado oficial.
Este cambio ha llevado a algunos usuarios y medios digitales a la conclusión de que se está censurando el flujo de información en la red de mensajería. Algunas teorías apuntan, directamente, al Gobierno. Esta censura como tal no existe en WhatsApp, como explica el director de publicaciones de Webedia, Antonio Ortiz: «Es una medida para cortar la viralidad en la plataforma». Además, añade que se trata de mensajes cifrados, lo que significa que sólo el que envía el mensaje y el usuario que lo recibe tienen acceso al contenido. «WhatsApp no tiene a terceros que pueden acceder o comprobar los mensajes que se envían», garantiza Ortiz. Por el cifrado de móvil a móvil, explica el experto, ni siquiera el propio WhatsApp puede inspeccionar los mensajes.
Lo primero que hay que saber, es que el usuario puede comprobar de manera sencilla si WhatsApp ha limitado un mensaje o no. Basta con comprobar en la pestaña superior si está marcado con un doble 'check'. Esto pasa cuando un mensaje se reenvía de usuario a usuario más de cinco veces. Aparece el ícono de flecha doble. Si no es así, se puede mandar de golpe a cinco contactos de la agenda, como venía siendo habitual.
Ortiz señala que es muy fácil saltarse esta limitación: «Basta con copiar y pegar el mensaje y mandarlo de nuevo, como si fuera la primera vez». En todo caso, también alude a que aquí «aumenta la fricción en el uso de la tecnología». Cada paso nuevo que hay que dar frena la cadena de transmisión, ya que habrá usuarios que desisten por el camino.
Si antes hemos dicho que WhatsApp no tiene a terceros que acceden a los mensajes, ¿por qué en la propia aplicación, dentro de la pestaña de preguntas frecuentes, aparecen Maldita.es y Newtral como verificadores? De entrada, cabe aclarar quién está detrás de ambas empresas. 'Newtral' fue fundada en 2018 por la periodista Ana Pastor, que también dirige 'El Objetivo' en 'La Sexta'. El equipo de Newtral, según se asegura, está compuesto por periodistas, ingenieros e investigadores, entre otros. 'Maldita.es', según su página web, es un «medio sin ánimo de lucro cuyo fin es dotar a los ciudadanos de «herramientas para que no te la cuelen». Es habitual ver a sus colaboradores en programas de 'La Sexta', 'Cuatro' o 'RTVE', entre otros.
WhatsApp tiene contratadas a ambas compañías para que verifiquen el contenido que los usuarios estimen oportuno. La clave está en que el flujo es de usuario a verificador y no de verificador a usuario. Ortiz resalta la acepción de «consulta». ¿Esa consulta es objetiva? La respuesta a esa pregunta nos llevaría a otro debate sobre sesgos y nuevas preguntas como quién controla al verificador. Pero esto no está relacionado con una supuesta censura en WhatsApp. En este punto, Ortiz subraya un matiz importante: «El usuario va a poder reenviar libremente el contenido, aunque uno de estos verificadores haya dictaminado que se trata de información falsa».
Si en WhatsApp la verificación se basa en la consulta, en Facebook sí existe una implicación activa por parte de los verificadores. ¿Quiénes son? Según la comunicación oficial de la red social de Zuckerberg, «el programa de verificación de datos externos de Facebook en España se hace con AFP (agencia de noticias), 'Newtral' y 'Maldita.es'.
El contenido que se distribuye por Facebook es público. Al menos, el que publican organizaciones o partidos políticos. La idea siempre es que sus comunicaciones lleguen a máximo número de usuarios posibles. En Facebook, al contrario que en WhatsApp, existe una monitorización activa por parte de los verificadores. Si 'Maldita.es' o 'Newtral' consideran que el contenido contiene información falsa, le ponen una banderita y Facebook incluye un aviso de que «un verificador independiente» ha dictaminado que se trata de contenido falso. La publicación, en este caso, aparecería difuminada tras una especie de cortina gris.
Según subraya Ortiz, esto no significa que este contenido no se pueda ver. No desaparece. Sí está acompañado de un mensaje en el que 'Newtral' o 'Maldita.es' argumentan por qué consideran que ese vídeo o esa información que acabas de ver son falsos. Facebook también juega con los algoritmos. Si un contenido está marcado por los verificadores, se reducirá su difusión y su alcance entre los usuarios.
En este punto, hay más argumentos para establecer un debate si se trata de una práctica ética o no. Ortiz señala que se podría hablar de «censura proactiva», ya que detrás de cada verificador hay una persona con su ideología y su sesgo particular.
La crisis del coronavirus está trayendo consigo actuaciones y estrategias que trascienden a las cuestiones, meramente, sanitarias. El ministro del Interior, Fernando Grande-Marlaska, afirmó en su comparecencia de este sábado que el Gobierno está haciendo una monitorización de las redes sociales «con el fin de comprobar algunos discursos que pueden ser peligrosos y delictivos».
Luego añadiría que este control lo realizan las propias redes sociales, según sus habituales protocolos. No obstante, el hilo que separa un supuesto control de la información falsa de un control digital de limitar la libertad de expresión es muy fino. ¿Con qué criterio puede un Gobierno decidir lo que es verdad y lo que no? El terreno parece más que farragoso.
«Mi impresión personal es que el Gobierno quiere que en la agenda esté muy presente que hay bulos, información falsa y bots que intoxican. Así se crea el marco de que en las redes sociales te vas a desinformar. No creo que tengan una idea concreta de qué pueden o quieren hacer», detalla Oritz.
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Recomendaciones para ti
Favoritos de los suscriptores
Tiroteo en Málaga con cuatro heridos en Carretera de Cádiz a plena luz del día
María José Díaz Alcalá
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.