El último desastre de «grupos» de Facebook solo lo hará más tóxico

Una persona con un traje de materiales peligrosos cubre el logotipo de Facebook con cinta de advertencia.

Facebook está impulsando otro conjunto de nuevas características y políticas diseñadas para minimizar el daño en la recta final hasta el día de las elecciones y al mismo tiempo aumentar la «comunidad» para los usuarios. Pero estas características no harán nada para mitigar los problemas existentes, y probablemente causarán daños nuevos y más generalizados tanto a los usuarios como a la sociedad.

El problema más reciente es un frustrante conjunto de cambios en la forma en que Facebook maneja los grupos. La semana pasada, Facebook Anunciado otra nueva forma más de «ayudar a más personas a encontrar comunidades y conectarse con ellas», poniendo esas comunidades en tu cara, quieras verlas o no. Tanto la pestaña de grupos como su suministro de noticias individual promoverán el contenido grupal de los grupos que usted está no suscrito a con la esperanza de que se comprometa con el contenido y con el grupo.

Estos cambios son nuevos y pequeños inconvenientes acumulados sobre frustrantes decisiones sobre la experiencia del usuario que Facebook ha estado tomando durante más de una década. Pero son el último ejemplo de cómo Facebook intenta dar forma a la experiencia de cada usuario a través de algoritmos de caja negra, y cómo este enfoque perjudica no solo a las personas sino al mundo en general. En este punto, Facebook está trabajando tan duro para ignorar los consejos de los expertos sobre cómo reducir la toxicidad que parece que Facebook no lo hace. querer para mejorar de una manera significativa. A su liderazgo simplemente no parece importarle cuánto daño causa la plataforma mientras el dinero siga llegando.

Sorpresa desagradable

Los grupos de Facebook pueden ser geniales. Cuando se mantienen en un tamaño razonable y se administran correctamente, pueden ser increíblemente beneficiosos, especialmente cuando sus miembros pueden no tener el tiempo, los recursos y el conocimiento para armar soluciones de foros alojados de forma independiente. Encuentro que los grupos privados son útiles para conectarme con otros padres en la escuela de mi hija, y tengo amigos que se han beneficiado enormemente de los grupos para sobrevivientes de cáncer y sobrevivientes de la pérdida de un hijo.

Pero esos son grupos que nosotros, los usuarios, buscamos y nos unimos. El contenido no solicitado de otros grupos no suscritos no siempre es bienvenido. Yo mismo noté en las últimas semanas que las publicaciones de grupos de los que no soy miembro aparecieron cuando intenté usar la aplicación cada vez más hostil para los usuarios de Facebook para interactuar con el puñado de grupos de amigos y familiares que uso regularmente. Y esas publicaciones inesperadas incluyen contenido de dos grupos que explícita e intencionalmente izquierda un mes antes porque estaban empeorando mi vida.

Que ese tipo de contenido también aparezca en su suministro de noticias personal (que aún no me ha sido lanzado) es aparentemente incluso peor. «Fue más espeluznante de lo que esperaba ver ‘discusiones relacionadas’ promocionadas junto a un breve hilo de comentarios entre mi madre y mi hermano sobre su última publicación», dijo el escritor de tecnología Rob Pegoraro (que ocasionalmente ha escrito para Ars) tuiteó después de experimentar la nueva función. (Agregó que la obsesión de Facebook con el compromiso «debe ser disparada al sol», un sentimiento con el que estoy de acuerdo).

Facebook, al mismo tiempo, ha introducido una serie de ajustes en la interfaz de usuario tanto en la Web como en dispositivos móviles que lo hacen significativamente Más fuerte para promover un compromiso de alta calidad en la plataforma, especialmente en grupos. Primero, todos los grupos ahora ordenan por «actividad más reciente» como configuración predeterminada en lugar de por «publicaciones recientes». Ordenar por «última actividad» lleva a los usuarios a publicaciones que ya tienen comentarios, pero cada publicación se ordena por «comentarios principales», un enredo inescrutable y fuera de secuencia que parece no tener casi nada que ver con las conversaciones en sí. Los usuarios pueden volver a elegir ordenar por «todos los comentarios» o «más recientes», pero esas opciones no se mantienen. Ya sea por diseño o por defecto, la decisión de ordenar por publicaciones recientes tampoco es complicada, y deberá volver a seleccionarla cada vez que publique un comentario o navegue entre publicaciones.

Una conversación significativa y reflexiva, incluso en grupos pequeños, serios y bien moderados, se ha vuelto casi imposible de mantener. Eso también genera francotiradores, disputas y extremismo en una pequeña escala conversacional.

El compromiso impulsa el desastre

El primer director de monetización de Facebook, Tim Kendall, testificado ante el Congreso en septiembre, que el crecimiento de Facebook fue impulsado exclusivamente por la búsqueda de esa métrica de «compromiso» tan cacareada. Comparó la empresa con Big Tobacco y lamentó el efecto de las redes sociales en la sociedad.

«Los servicios de redes sociales que yo y otros hemos construido durante los últimos 15 años han servido para destrozar a la gente con una velocidad e intensidad alarmantes», dijo Kendall al Congreso. «Por lo menos, hemos erosionado nuestro entendimiento colectivo; en el peor de los casos, me temo que nos estamos empujando al borde de una guerra civil».

Kendall dejó la empresa en 2010, pero los altos ejecutivos de Facebook saben desde hace años que la plataforma recompensa el contenido extremista y divisivo e impulsa la polarización.

El periodico de Wall Street En mayo de este año obtuvo documentación interna que muestra que los líderes de la empresa fueron advertidos sobre los problemas en una presentación de 2018. «Nuestros algoritmos explotan la atracción del cerebro humano por la división», decía una diapositiva. «Si no se controla», advirtió la presentación, Facebook proporcionaría a los usuarios «contenido cada vez más divisivo en un esfuerzo por captar la atención del usuario y aumentar el tiempo en la plataforma».

Peor aún, el WSJ descubrió que Facebook era total y completamente consciente de que los algoritmos utilizados para las recomendaciones de grupos eran un gran problema. Un investigador interno de Facebook en 2016 encontró contenido «extremista», «racista» y «conspirativo» en más de un tercio de los grupos alemanes que examinó. Según el WSJ, su presentación a la alta dirección descubrió que «el 64 por ciento de todas las uniones a grupos extremistas se deben a nuestras herramientas de recomendación», incluidos los «grupos a los que debería unirse» y las herramientas «descubrir». «Nuestros sistemas de recomendación aumentan el problema», dijo la presentación.

Facebook en un comunicado le dijo al WSJ que había recorrido un largo camino desde entonces. «Hemos aprendido mucho desde 2016 y no somos la misma empresa hoy», dijo un vocero. Pero claramente, Facebook no ha aprendido lo suficiente.

Los extremistas violentos de extrema derecha en los Estados Unidos dependen de los grupos de Facebook como una forma de comunicarse, y Facebook parece estar haciendo muy poco para detenerlos. En junio, por ejemplo, Facebook dijo que eliminó cientos de cuentas, páginas y grupos vinculados a la extrema derecha antigubernamental «.boogalooo«movimiento y no los permitiría en el futuro. Y, sin embargo, en agosto, un informe encontró Mas que 100 Se habían creado nuevos grupos desde la prohibición y «fácilmente eludieron» los esfuerzos de Facebook para eliminarlos.

USA Today el viernes informó una tendencia similar en los grupos de Facebook dedicados a los anti-enmascaradores. Incluso aunque se han detectado más de dos docenas de casos conocidos de COVID-19 atado a En un brote en la Casa Blanca, los negadores de COVID que afirman apoyar al presidente Donald Trump se están reuniendo por miles en grupos de Facebook para castigar a cualquier político o figura pública que pida el uso de máscaras.

¡Mala idea!

En medio del auge de las teorías de la conspiración y el extremismo en los últimos años, los expertos han enviado un mensaje fuerte y coherente a las plataformas de redes sociales: es necesario cortar esto de raíz. En cambio, al promover contenido grupal no solicitado en las fuentes de noticias de los usuarios, Facebook ha optado por ampliar el problema.

Hablando sobre la propagación de QAnon, la reportera del New York Times Sheera Frenkel dijo el mes pasado, «La única idea que escuchamos una y otra vez es que Facebook impida que sus sistemas de recomendación automatizados sugieran grupos que apoyen a QAnon y otras conspiraciones».

La Liga Antidifamación en agosto publicó un estudio encontrando no solo que los grupos de odio y los grupos de conspiración son desenfrenados en Facebook, sino también que los motores de recomendación de Facebook todavía empujan esos grupos a los usuarios.

Una semana después, The Wall Street Journal informó que la membresía en grupos relacionados con QAnon creció en un 600 por ciento de marzo a julio. «Los investigadores también dicen que las redes sociales facilitan que las personas encuentren estas publicaciones porque su contenido sensacional hace que sea más probable que sean compartidas por los usuarios o recomendadas por los algoritmos de la empresa», dijo el WSJ en ese momento.

Estas recomendaciones permitir que el contenido extremista se difunda a los usuarios ordinarios de las redes sociales que de lo contrario podría no haberlo visto, empeorando el problema. En este punto, el hecho de no prestar atención a los consejos de académicos y expertos no es solo un descuido; es indignante.

Facebook no hace nada

Las políticas de Facebook imponen la responsabilidad de la moderación y el juicio a los usuarios y administradores de grupos para que sean el primer par de ojos responsables del contenido, pero cuando las personas hacer informes de archivos, Facebook los ignora habitualmente.

Muchos usuarios de Facebook tienen al menos una historia de una ocasión en la que marcaron contenido peligroso, extremo o que viola las reglas en el servicio solo para que Facebook responda que la publicación en cuestión no viola los estándares de su comunidad. El historial de la compañía de tomar medidas en asuntos críticos es terrible, con un rastro de devastadoras consecuencias en el mundo real, lo que genera poca confianza en que actuará rápidamente con los problemas que probablemente creará esta expansión del alcance del grupo.

Por ejemplo, un «evento» de Facebook publicado antes del tiroteo de dos personas en Kenosha, Wisconsin, fue reportado 455 veces, según un informe interno obtenido por BuzzFeed News. Según los informes que vio BuzzFeed, dos tercios de todas las quejas que recibió Facebook relacionadas con «eventos» ese día estaban vinculadas a ese evento único de Kenosha, y sin embargo, Facebook lo hizo. nada. El director ejecutivo, Mark Zuckerberg, diría más tarde en una reunión de toda la empresa que la inacción se debió a «un error operativo».

En términos más generales, un ex científico de datos de Facebook escribió en un memorando de denuncia de irregularidades A principios de este año, sintió que tenía las manos manchadas de sangre por la inacción de Facebook. «Hubo tantos comportamientos de violación en todo el mundo que se dejó a mi evaluación personal qué casos investigar más a fondo, presentar tareas y escalar para priorizar después», escribió, y agregó que se sintió responsable cuando estallaron disturbios civiles en áreas donde no había priorizado la investigación.

El hecho de que Facebook no actuara en un evento puede haber contribuido a dos muertes en Kenosha. La falta de acción de Facebook en Myanmar puede haber contribuido a un genocidio del pueblo rohingya. La falta de actuación de Facebook en 2016 puede haber permitido a actores extranjeros interferir a gran escala en las elecciones presidenciales de Estados Unidos. Y el hecho de que Facebook no actúe en 2020 está permitiendo que las personas, incluido el presidente en funciones de los Estados Unidos, se difundan desinformación desenfrenada y peligrosa sobre COVID-19 y las próximas elecciones.

Las consecuencias de las fallas de Facebook para tomar el contenido en serio siguen acumulándose y, sin embargo, el cambio para promover grupos creará incluso más terreno fértil para la propagación del extremismo y la desinformación. Los servicios de Facebook son utilizados por más de 2.7 mil millones personas. ¿Cuántos más de los «errores operativos» de Facebook puede permitirse el mundo?

//platform.twitter.com/widgets.js

Deja un comentario

Cart
Your cart is currently empty.