La semana pasada estuve participando en los Informativos de Telecinco despejando algunas dudas sobre el alcance real de los sistemas de moderación de contenido en redes sociales.
En particular, me llamaron para tratar el tema después de haberse conocido la noticia, publicada por La Vanguardia (ES), de que un moderador de Facebook en Barcelona había obtenido la incapacidad total a sus cuarenta años debido a los supuestos horrores a los que durante cinco años había estado expuesto moderando contenido para Meta.
En la entrevista estuvimos hablando de diferentes temas aledaños, que he intentado resumir por aquí.
Además, al final dejo el vídeo con el reportaje que acabaron publicando en el medio.
¿Cómo funciona la moderación de contenido en Internet?
Es un tema del cual ya hemos hablado largo y tendido por estos lares.
Básicamente, quédate con una idea. La de que hay dos acercamientos:
- Una primera capa algorítmica: Que segmenta (filtra) lo que potencialmente incumple la política de uso de la plataforma, de lo que no.
- Una segunda capa humana: Que revisan «a mano» cada positivo que lanza el algoritmo para decidir si, en efecto, debe ser o no censurado.
¿Cómo funciona (realmente) la moderación de contenido en Internet?
Echas las presentaciones, vamos a la realidad.
Una en la que cada vez hay menor equipo humano de moderación, y se delega por tanto responsabilidades en sistemas algorítmicos asistidos por inteligencia artificial.
¿Es porque la tecnología es capaz ya de ser igual o más eficiente que el humano?
Pues no.
De hecho, falla muchísimo más.
Pero es que resulta infinitamente más barato.
Sin ir más lejos, en la entrevista le explicaba al periodista que tan pronto Elon Musk tomó el control de Twitter, una de sus primeras medidas fue despedir a buena parte del equipo de moderación de contenido de la plataforma.
Actualmente (datos del 25 de agosto del año pasado), y debido precisamente a la obligación de estas empresas en mantener informes de transparencia desde la entrada en vigor de la DSA europea (ya dediqué un programa del podcast a este tema, así que si te interesa, por aquí te dejo el enlace), sabemos que, por ejemplo X, la antigua Twitter, tenía, al menos en ese momento, poco más de 2.300 moderadores.
Pues de esos 2.3XX, tan solo 20 son moderadores enfocados a TODO el mercado español.
De hecho, 2.294 son de habla inglesa, y el resto se reparten entre habla alemana (81), francés (52), Portugués (41), árabe (12) y otros minoritarios como el búlgaro, hebreo, italiano, letón, polaco, crata y neerlandés.
Algo a todas luces insuficiente. Más si cabe teniendo en cuenta que España es el principal mercado de X en el viejo continente.
Y que además tenemos el resto de millones de usuarios de habla española en latinoamérica… y EEUU.
El (duro) trabajo de moderación
El periodista me preguntó sobre cómo era el trabajo de moderación, y yo le conté varias anécdotas tanto de conocidos que se dedican a ello, como de nuestra experiencia en EliminamosContenido.com, nuestro servicio de borrado de contenido online.
Básicamente, piensa que hablamos de trabajos poco remunerados y muy exigentes en cuanto a tiempo y presión.
De hecho, hace unos meses asistimos a una huelga de moderadores de TikTok en España, que se quejaban, precisamente, de que estaban obligados a cumplir por contrato un cupo mínimo de entre 300 y 500 vídeos al día.
El ya citado hombre que recientemente había conseguido, con apenas 40 años, una incapacidad total aludiendo a problemas psiquiátricos debido al consumo durante años de todo tipo de perversidades censurables (hablaba de vídeos cortando penes a niños, abusos sexuales, y cualquier otra locura que se te pueda llegar a ocurrir) es un ejemplo más de cómo, en casos extremos, este tipo de profesiones acaban causando lesiones incurables en los trabajadores.
Por ello, y como le trasladé a Telecinco, había que entender el interés que tenían las grandes tecnológicas por depender cada vez menos de moderadores humanos.
Si ya de por sí los recursos humanos es el mayor gasto que tiene una empresa, a esto súmale el hecho de que un porcentaje significativo de la plantilla acabe tarde o temprano pidiendo la baja, y al coste extra que supone el tener que ofrecerles servicios psicológicos que minimicen los riesgos.
Dejo para terminar el reportaje que acabaron publicando en los informativos:
En CyberBrainers ayudamos a empresas y usuarios a prevenir, monitorizar y minimizar los daños de un ataque informático o una crisis reputacional. Si estás en esta situación, o si quieres evitar estarlo el día de mañana, escríbenos y te preparamos una serie de acciones para remediarlo.
Monitorización y escucha activa
Ponemos nuestras máquinas a escuchar para identificar potenciales fugas de información, campañas de fraude/extorsión y usurpación de identidad que estén en activo, y/o datos expuestos de ti o de tu organización.
Planes de autoridad y Presencia Digital
Ayudamos a organizaciones y particulares a definir la estrategia e implementar acciones digitales que mitiguen los posibles daños reputacionales que pueda sufrir en el futuro.
Gestión de crisis reputacionales
Cuando el mal ya está hecho, establecemos un calendario de acciones para reducir su duración e impacto, y que la organización y/o persona pueda volver a la normalidad lo antes posible.
Pablo F. Iglesias es un empresario e inversor español especializado en la Consultoría de Presencia Digital y Reputación Online, fundador de la agencia de reputación CyberBrainers, de la startup EliminamosContenido, y del sello editorial Ediciones PY. Además, es un reconocido escritor con su saga de ciencia ficción "25+1 Relatos Distópicos" y "Historias Conectadas", y la colección de fantasía épica "Memorias de Árganon". Dedica sus "horas libres" a concienciar sobre las oportunidades y riesgos del entorno digital, ya sea en charlas, talleres, sus escritos en blogs y las colaboraciones con medios de comunicación.