La tecnología ética comienza con abordar la deuda ética

La gente horrible lo hará utilizar la tecnología para hacer cosas horribles. Esta es una verdad universal que se aplica a casi cualquier tecnología que facilite la comunicación y la interacción, sin importar cuán bien intencionada pueda ser. Algo tan inocuo como Google Drive puede ser un vector de acoso. Como hemos descubierto recientemente, también pueden hacerlo las plataformas de videoconferencia como Zoom. Solo en las últimas semanas, las clases de secundaria en Carolina del Norte y Texas, junto con una reunión de NAACP en California, fueron interrumpidos por videos, imágenes y texto racistas y misóginos. Con las clases remotas aumentando nuevamente en todo el país, solo podemos esperar más daño, pero ¿cuánto tiene la culpa de Zoom?

En abril pasado, «Zoombombings» llegó a nuestra universidad, y un colega describió la perturbadora interrupción de su salón de clases en línea, donde los trolls esquivaron los malos protocolos de privacidad de Zoom para compartir pornografía en pantalla y gritar insultos racistas y sexistas. Incluso las precauciones obvias, como no publicar enlaces públicos a las reuniones, son vulnerables a la ingeniería social, como que los estudiantes universitarios publiquen enlaces a los foros de «ven y bombardea mi clase». Como investigadores de ética tecnológica, esto no nos sorprendió. Sin embargo, aparentemente fue para CEO de Zoom, quien dijo Los New York Times, «Los riesgos, el mal uso, nunca pensamos en eso».

OPINIÓN POR CABLE

ACERCA DE

Casey Fiesler es profesor asistente en ciencias de la información en la Universidad de Colorado Boulder. Ella dirige el Laboratorio de Reglas de Internet, donde ella y sus estudiantes investigan la ética y la política de la tecnología, y las formas de hacer que las tecnologías en red sean más asombrosas y seguras. Natalie Garrett es estudiante de doctorado en ciencias de la información en la Universidad de Colorado Boulder. Su investigación apoya la operacionalización de la ética en la industria tecnológica.

Big Tech tiene que ver con la velocidad, especialmente cuando hay una oportunidad percibida, como una pandemia que obliga a depender más de la tecnología de la comunicación. Pero un «Muévete rápido y rompe cosasLa mentalidad de ”resulta en pruebas e implementación limitadas de software que no está listo. Este es un problema tan conocido que incluso existe un término para describirlo: «deuda técnica, ”El costo no pagado de implementar software que, en última instancia, deberá corregirse después está claro cuáles son los errores.

La deuda se acumula cuando estos problemas no se abordan durante el proceso de diseño. Cuando los errores son daños sociales, sin embargo, no se ve como malo tecnología, sino más bien poco ético tecnología “Nunca pensamos en el mal uso” es el precursor de otro tipo de deuda: deuda ética.

El problema de «gente horrible» de Zoom no es el típico error, después de todo. Cuando el enfoque de “arreglaremos las cosas malas después de que sucedan” se refiere a los daños potenciales, ya sean individuales o sociales, no está anticipando los problemas éticos. Y el problema con la deuda ética es que el cobrador de deudas metafórico viene solo después de que se ha infligido un daño. No se puede retroceder en el tiempo y mejorar las características de privacidad para que los estudiantes marginados desprevenidos no escuchen esos insultos raciales en medio de la clase. No puedes revertir una elección después la propagación de la desinformación socavó la democracia. No se puede deshacer un interrogatorio y un arresto indebido de un hombre negro después de una acusación de reconocimiento facial sesgada. No puedes hacer que la gente deje de ver videos de teoría de la conspiración que un algoritmo de recomendación metido en sus caras. El daño ya está hecho.

Los tecnólogos no pueden ver el futuro, pero lata predecir y especular. Ellos saber que existe gente horrible. En este punto, pueden imaginar fácilmente a los que podrían difundir intencionalmente teorías de la conspiración, que podrían confiar en el reconocimiento facial como evidencia incluso cuando se les diga que no lo hagan, que podrían intentar manipular las elecciones con desinformación, y que podrían pensar que es divertido hacerlo. aterrorizar a los estudiantes universitarios y profesores desprevenidos. Estos no son todos titulares llamativos, pero también pueden ser micro-instancias de daño individual que se acumulan con el tiempo. Como parte del proceso de diseño, debe imaginarse todos los usos indebidos de su tecnología. Y luego debes diseñar para hacer esos usos indebidos más difíciles.

Irónicamente, algunas de las mejores personas para imaginar cosas como cómo se podría usar la tecnología para el acoso son personas que a menudo son acosadas. Esto significa personas marginadas y vulnerables como mujeres y personas de color, personas que están subrepresentadas en tecnología. En una sala de estas personas, le garantizamos que «personas al azar entrarán en reuniones de Zoom y compartirán pornografía en la pantalla» aparecerán durante las especulaciones sobre el uso indebido. Debido a que muchos daños basados ​​en la tecnología afectan de manera desproporcionada a las personas que ya están marginadas, estas son voces importantes para incluir en el proceso de diseño como parte del tratamiento de la deuda ética.

Los tecnólogos a menudo crean «personas de usuario» durante el proceso de diseño para imaginar cómo diferentes tipos de personas podrían usar esa tecnología. Si esas personas no incluyen «usuario que acecha a su ex», «usuario que quiere traumatizar a personas vulnerables» y «usuario que piensa que es divertido mostrarle a todo el mundo sus genitales», entonces se está perdiendo un paso de diseño importante. Y si su respuesta a esto es, «Sí, es probable que haya este tipo de problemas, pero los solucionaremos después de que sepamos cuáles son», comience a llevar un libro contable de su deuda ética.

.

Deja un comentario

Cart
Your cart is currently empty.