in

Twitter pedirá a los usuarios que reconsideren sus respuestas ofensivas

Twitter
Twitter

 

Twitter creó una herramienta de moderación para advertir a los usuarios antes de publicar respuestas ofensivas, con el fin de evitar comentarios que inciten al odio o la violencia. Esto evitará que el usuario responda a un tuit con lenguaje un que la compañía considere ofensivo o dañino

La nueva actualización tiene uso limitado, disponible para dispositivos iOS. Hasta el momento se usa únicamente como un experimento de la red social. De esta forma, se busca controlar el mal uso de la plataforma por parte de los usuarios.

Aún no está claro como Twitter etiqueta las respuestas ofensivas, pero la compañía tiene políticas de discurso de odio. También hay reglas para enfrentar las amenazas de violencia, contenido relacionado con terrorismo, abuso y acoso.

“La misión de Twitter es dar a todos el poder de crear y compartir ideas e información, y expresar sus opiniones y creencias sin barreras. La libre expresión es un derecho humano”, manifiesta la red social en su documento de Reglas y políticas.

En este mismo documento también manifestó su compromiso por “combatir el abuso motivado por el odio, el prejuicio o la intolerancia. Particularmente el abuso que busca silenciar las voces de aquellos que son marginados. Por esta razón, prohibimos el comportamiento dirigido a personas con abuso basado en la categoría protegida”.

Plataformas como Instagram ya hacen uso de esta herramienta al advertir a los usuarios antes de realizar una publicación con el lema: “El texto se parece a otros que han sido reportados”.

Con redacción de MonitorDolar e información de El Nacional.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

El régimen de Nicolás

El régimen de Nicolás aumentó precios de los 27 productos regulados

Pedro Fernández

Pedro Fernández habló de su sonado escándalo con Marjorie de Sousa