El video gráfico del suicidio se propaga de Facebook a TikTok a YouTube cuando las plataformas fallan en la prueba de moderación – TechCrunch

Un video gráfico de un hombre que se suicida en Facebook Live se ha extendido de allí a TikTok, Twitter, Instagram y ahora YouTube, donde se ejecutó junto con los anuncios y atrajo miles de visitas más. Hagan lo que quieran, estas plataformas parecen no poder detener la propagación, haciéndose eco de fallas pasadas para bloquear actos violentos y desinformación.

El video original se publicó en Facebook hace dos semanas y ha llegado a todas las principales plataformas de video, a menudo comenzando con imágenes inofensivas y luego hasta la muerte del hombre. Estas técnicas se remontan a muchos años atrás en la práctica de evadir la moderación automática; Para cuando las personas hayan marcado el video manualmente, se habrá logrado el objetivo original de exponerlo a los espectadores involuntarios.

Es similar en muchos aspectos a la forma en que COVID-19 desinformación motherlode Plandemic se extendió y causó estragos a pesar de que estas plataformas despliegan sus recursos moderadores aparentemente importantes para prevenir eso.

A pesar de toda la charla de las plataformas sobre algoritmos avanzados y eliminación instantánea de contenido que viola las reglas, estos eventos parecen mostrar que fallan cuando más cuentan: en los extremos.

El video del suicidio de Ronnie McNutt se originó el 31 de agosto y, en primer lugar, tardó casi tres horas en ser eliminado, momento en el que había sido visto y descargado por innumerables personas. ¿Cómo se puede permitir que algo tan gráfico y que viola claramente los estándares de la plataforma, siendo marcado activamente por los usuarios, permanezca activo durante tanto tiempo?

En un «informe de cumplimiento de las normas comunitarias» publicado el viernes, Facebook admitió que su ejército de revisores humanos (contratistas), cuyo ingrato trabajo es revisar el contenido violento y sexual durante todo el día, se había desactivado en parte debido a la pandemia.

Con menos revisores de contenido, tomamos medidas sobre menos contenido en Facebook e Instagram por suicidio y autolesión, desnudez infantil y explotación sexual en Instagram.

El número de apelaciones también es mucho menor en este informe porque no siempre pudimos ofrecerlas. Le informamos a la gente sobre esto y si sintieron que cometimos un error, aún les dimos la opción de decirnos que no estaban de acuerdo con nuestra decisión.

El amigo de McNutt y coanfitrión del podcast, Josh Steen, le dijo a TechCrunch que la transmisión había sido marcada mucho antes de que él se suicidara. «Creo firmemente, porque lo conocía y cómo funcionaban estas interacciones, si la transmisión hubiera terminado, habría desviado su atención lo suficiente para ALGUNO tipo de intervención», escribió Steen en un correo electrónico. «Es pura especulación, pero creo que si le hubieran cortado la corriente, no habría acabado con su vida».

Cuando le pregunté a Facebook sobre esto, recibí la misma declaración que otros: «Estamos revisando cómo podríamos haber realizado la transmisión en vivo más rápido». Ciertamente uno espera que así sea.

Pero Facebook no puede contener la difusión de videos como este, y los diversos tiroteos y suicidios que han ocurrido en su plataforma Live en el pasado, una vez que están disponibles. Al mismo tiempo, es difícil imaginar cómo otras plataformas son atrapadas con los pies desprevenidos: Tik Tok había puesto el video en la cola de la página «For You» de los usuarios, exponiendo a innumerables personas mediante un acto de irresponsabilidad algorítmica. Seguramente, incluso si no es posible mantener el contenido fuera del servicio por completo, debería haber algo que impida que se lo recomiende activamente a las personas.

Youtube es otro infractor posterior: Steen y otros han capturado muchos casos en los que el video está siendo ejecutado por cuentas monetizadas. Envió capturas de pantalla y videos que mostraban anuncios de Squarespace y Motley Fool antes del video de McNutt.

Es decepcionante que las plataformas de video más grandes del planeta, que parecen no dejar de alardear de su destreza para cerrar este tipo de contenido, no parecen tener una respuesta seria. TikTok, por ejemplo, prohíbe cualquier cuenta que haga múltiple intenta cargar el clip. ¿Cuál es el punto de darle a la gente una segunda o tercera oportunidad aquí?

Al parecer, Facebook no pudo decidir si el contenido infringe o no, como lo demuestran varias reubicaciones del contenido en varias formas que no se eliminaron cuando se marcaron. Quizás estos son solo los que se escapan de las grietas, mientras que miles más se cortan de raíz, pero ¿por qué deberíamos darle a una empresa como Facebook, que tiene miles de millones de dólares y decenas de miles de empleados, el beneficio de la duda cuando fallan? por enésima vez en algo tan importante?

“Facebook hizo público a principios de agosto diciendo que estaban volviendo a las tasas de moderación normales, pero que su tecnología de inteligencia artificial en realidad había mejorado durante la desaceleración de COVID”, dijo Steen. «Entonces, ¿por qué arruinaron totalmente su respuesta a la transmisión en vivo y el tiempo de respuesta después?»

“Sabemos por el incidente de Christchurch Live que tienen la capacidad de decirnos un par de cosas que realmente necesitan ser divulgadas en este momento debido a la propagación viral: cuántas personas en total vieron la transmisión en vivo y cuántas veces se compartió y ¿cuántas personas vieron el video y cuántas veces se compartió? Para mí, estas estadísticas son importantes porque muestran el impacto que tuvo el video en tiempo real. Esos datos también confirmarán, creo, dónde aumentaron las visitas en la transmisión en vivo ”, continuó.

En Twitter e Instagram, han aparecido cuentas enteras solo para subir el video, o hacerse pasar por McNutt usando varias transformaciones de su nombre de usuario. Algunos incluso agregan «suicidio» o «muerto» o algo parecido al nombre. Estas son cuentas creadas con la única intención de violar las reglas. ¿Dónde están las precauciones de actividad de bots y falsificaciones?

Los videos del suicidio han aparecido en YouTube y se eliminan con indiferencia. Otros simplemente usan la imagen de McNutt o las primeras partes de su transmisión para atraer espectadores. Steen y otros que conocían a McNutt han estado informando sobre esto con regularidad, con un éxito desigual.

Un canal que vi había obtenido más de medio millón de visitas aprovechando el suicidio de McNutt, publicando originalmente el video en vivo (con un anuncio previo al video) y luego usando su rostro para quizás atraer a usuarios morbosos. Cuando se los señalé a YouTube, los desmonetizaron y eliminaron el que se muestra arriba, aunque Steen y sus amigos lo habían informado hace días. No puedo evitar sentir que la próxima vez que esto suceda, o más probablemente, en otra parte de la plataforma donde está sucediendo ahora mismo, habrá menos o ninguna responsabilidad porque no hay medios de prensa haciendo un escándalo.

El enfoque de estas plataformas está en la supresión invisible del contenido y la retención de usuarios y actividad; si las medidas estrictas reducen esas métricas tan importantes, no se tomarán, como hemos visto en otras plataformas de redes sociales.

Pero como demuestran esta situación y otras anteriores, parece haber algo fundamentalmente deficiente en la forma en que se proporciona y supervisa este servicio. Obviamente, puede ser de enorme beneficio, como herramienta para informar eventos actuales, etc., pero puede ser y se ha utilizado para transmitir actos horribles y otras formas de abuso.

«Estas empresas todavía no están cooperando plenamente y todavía no son realmente honestas», dijo Steen. “Esta es exactamente la razón por la que creé #ReformForRonnie porque seguimos viendo una y otra vez que sus sistemas de informes no hacían nada. A menos que algo cambie, seguirá sucediendo «.

Steen siente la pérdida de su amigo, por supuesto, pero también la decepción y el enfado ante las plataformas que permiten que se abuse y se burlen de su imagen con una respuesta superficial. Ha estado reuniendo a la gente en torno al hashtag para presionar a las principales plataformas sociales para que digan algo, cualquier cosa sustancial sobre esta situación. ¿Cómo pudieron prevenir esto? ¿Cómo pueden manejarlo mejor cuando ya está disponible? ¿Cómo pueden respetar los deseos de sus seres queridos? Quizás ninguna de estas cosas sea posible, pero si ese es el caso, no espere que lo admitan.

Si usted o alguien que conoce necesita ayuda, llame a la Línea Nacional de Prevención del Suicidio al 800-273-TALK (8255) o envíe un mensaje de texto a la Línea de Crisis de Texto al 741-741. Los recursos internacionales están disponibles aquí.

Deja un comentario

Cart
Your cart is currently empty.