ChipGate | Noticias | 13 FEB 2017

Twitter tiene muy complicado combatir el acoso en la plataforma

A pesar de que la compañía ha anunciado medidas concretas para desterrar el contenido 'nocivo' de la red social, utiliza un sistema de moderación por software que no resulta del todo efectivo para luchar contra usuarios que, en muchos casos, son anónimos.
Twitter
Mike Elgan

Los dirigentes de Twitter están tratando de sacar de la UCI a una red social que pierde cerca de 100 millones de dólares por trimestre, no registra crecimiento de usuarios y ha perdido fuerza para los anunciantes. Uno de los males que afecta al gigante es la mala reputación que se ha ganado debido al acoso y la calidad de las conversaciones, que aleja  a las empresas que no quieren que sus marcas aparezcan entre cientos de mensajes que expresan odio.

Jack Dorsey, CEO de la compañía, anunció hace varios días que iba a comenzar a tomar medidas para paliar estos estragos. Y lo va hacer a través de tres acciones: identificar a las personas que han sido suspendidas para evitar que creen nuevas cuentas, eliminar los tweets  con “contenido sensible” de forma predeterminada y ocultar las respuestas e interacciones que se consideren “abusivas”.

La red social no ha revelado como pondrá en marcha este mecanismo que aunque parece prometedor, puede tener bastantes problemas para tener éxito.

 

Por qué los cambios de Twitter podrían no funcionar

La red social basa la mayor parte de su estrategia de moderación al control por software. Un enfoque menos productivo que dejársela en su totalidad a los usuarios, con la capacidad para eliminar respuestas de otras personas.

Esta última orientación es la que utilizan la gran mayoría de las redes de mayor prestigio como Facebook, Google+, Youtube o Instagram. Por eso los acosadores tienen más predilección por Twitter, lo que le genera un gran problema a la organización.

En lugar de otorgar a los usuarios todo el poder, la organización se basa en dos alternativas; un sistema de informes de usuarios y la moderación automatizada basada en software. El problema es que este sistema no puede identificar las conversaciones nocivas del mismo modo en que lo hace la gente, incluso teniendo los mejores algoritmos de la industria. Alrededor del 10% de las respuestas de ‘alta calidad’ son marcadas como de ‘baja calidad’ y viceversa. El software no está lo suficientemente avanzado como para juzgar el lenguaje.

Google+ utiliza un software similar, apoyado en una tecnología muy potente, pero aun así los usuarios pueden corregir las malas decisiones de la máquina, algo que en Twitter no sucede.

Este sistema está estrechamente relacionado con que en la red social existe el pseudónimo, es decir, la red social sabe quién es cada usuario pero los demás participantes no. Esto significa que cualquier persona podría ser un ‘bot’ u otro miembro con multitud de cuentas, y normalmente no hay manera de saberlo. De hecho, varios investigadores descubrieron el pasado mes una red de 350.000 cuentas falsas controladas por ‘bots’ automatizados, que podrían ser muchos más, que habían estado presentes durante años. De este modo, el anonimato imperante puede mermar el éxito de estas tres medidas.

Por último, en cuanto a la decisión concreta de eliminar los tweets en los resultados de búsqueda de personas que hayan sido suspendidas o silenciadas, puede suponer una ventaja para los ‘acosadores’ que se podrían coordinar masivamente para silenciar a las víctimas

Contenidos recomendados...

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios
X

Uso de cookies

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para facilitarle la navegación de forma anónima y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información