La prohibición de autocompletar de Google sobre política tiene algunos fallos

Escribir «donar» seguido de las primeras letras de «Trump», o el nombre completo del candidato, solo provocó la sugerencia «donar trompeta».

Google confirmó que esos resultados infringían su nueva política de autocompletado. «Esto estaba dentro del alcance de nuestra política y nuestros equipos de aplicación tomaron medidas», dijo un portavoz de la empresa el viernes. En pruebas posteriores, escribir «donar oferta» solo condujo a «donar cuerpo a la ciencia»; escribir «donar para pujar» no generó ninguna sugerencia de autocompletar.

No está claro cuántos usuarios de Google podrían haber visto el mismo patrón que WIRED debido a cómo la compañía sintoniza los resultados de búsqueda en función de los datos que tiene sobre la ubicación de una computadora y la actividad pasada.

La nueva política de Google sobre autocompletar y su rápida respuesta a la aparente falla, muestran cómo la industria tecnológica se ha vuelto más cautelosa con la política.

Durante la campaña presidencial de 2016, Google respondió a las acusaciones que se autocompletan favoreció a Hilary Clinton al sugerir que simplemente no era posible que la función favoreciera a ningún candidato o causa. «Las afirmaciones en sentido contrario simplemente malinterpretan cómo funciona el autocompletado», dijo la empresa. El periodico de Wall Street en junio de 2016.

donar resultados de búsqueda de trump

Escribir «donar trump» no provocó ninguna búsqueda relacionada con la campaña de Trump.

Captura de pantalla: WIRED

Las empresas de tecnología se han vuelto más humildes, al menos en público, desde la elección de Donald Trump. Revelaciones de manipulación política en Facebook durante la campaña de 2016 hizo más difícil para la red social y sus rivales pretender que hacer malabarismos con 1 y 0 dentro de las aplicaciones no tenía nada que ver con la sociedad o la política. Los gigantes de la tecnología ahora profesan una profunda sensibilidad a las necesidades de la sociedad y prometen que cualquier problema inesperado obtendrá una respuesta rápida.

Eso ha hecho que las empresas de tecnología dependan más, o sean más conscientes de su dependencia, del juicio humano. Facebook dice que ha mejorado en la limpieza del discurso de odio gracias a los avances en inteligencia artificial tecnología que ha mejorado las computadoras en entendiendo el significado de texto. Google afirma que una tecnología similar ha creado su motor de búsqueda mas poderoso que nunca. Pero los algoritmos todavía están muy por detrás de los humanos en lectura y otras áreas.

La respuesta de Google a un segundo patrón que WIRED notó en el autocompletado ilustra los juicios engañosos que no se pueden entregar a las computadoras. Al escribir simplemente «donar» en el cuadro de búsqueda, se obtuvieron 10 sugerencias, en su mayoría neutrales, que incluían «automóvil», «ropa cerca de mí» y «un testículo». La segunda entrada fue «la vida de los negros importa», una causa que muchos republicanos identifican como oposición partidista.

Google dice que no entra dentro de la nueva política de autocompletar. “Si bien es un tema que se ha politizado, esta política gira específicamente en torno a predicciones que podrían interpretarse como afirmaciones a favor o en contra de partidos políticos o candidatos”, dijo el portavoz de la empresa.


Más historias geniales de WIRED

.

Deja un comentario

Cart
Your cart is currently empty.