La mañana de este sábado, cuando la periodista y escritora Cristina Fallarás ha ido a abrir su cuenta de Instagram, no ha podido. La aplicación de Meta se la ha cerrado sin ninguna explicación más allá de un mensaje en el que la avisaba de que debía adoptar “las medidas necesarias” o perdería “el acceso”. Ha ocurrido cinco días después de que, a través de esa misma cuenta, Fallarás hiciera público un testimonio anónimo de una mujer que aseguraba haber sido víctima de violencia machista por parte de un político. En ningún momento y en ningún caso publicó ningún nombre, pero apenas tres días después Íñigo Errejón, el hasta entonces portavoz parlamentario de Sumar, dimitió, entregó su acta de diputado, reconoció los hechos y abandonó la política institucional. Unas horas después, a primera hora de la tarde de este sábado, la cuenta ha vuelto a reactivarse.
Seguir leyendo
El bloqueo o suspensión de una cuenta de Meta
Cuando se bloquea o suspende una cuenta en una red de Meta, el usuario no tiene herramientas instantáneas para saber el motivo exacto de ese cierre. La aplicación le da la opción de elevar la pregunta y pedir explicaciones a la compañía, pero la respuesta puede tardar días o semanas.
Estas situaciones son complejas y delicadas. La interpretación que hace Meta de cuándo el contenido infringe sus normas viene dada, a menudo, por las conclusiones que saca un sistema automatizado. Así, si el robot lee palabras clave que apuntan a comportamientos o conductas que contradicen las normas de la compañía, puede interpretar que es ese usuario quien las promueve, aunque no sea así.
Por ejemplo, si alguien recoge en su perfil una denuncia de otra persona relatando una agresión sexual cuando tenía 13 años, el sistema de reconocimiento de palabras puede interpretar que el dueño de la cuenta está promoviendo la explotación sexual de menores. Las reglas y directrices por las que se rigen estos dispositivos automatizados de vigilancia de contenido acostumbran a ser, además, poco claras.