(+34) 910 42 42 93 [email protected]

Este es uno de estos temas que más trascendencia tiene, al menos para un servidor, relacionado con la evolución tecnológica.

Un tema del que, de hecho, he hablado ya largo y tendido en alguno de mis libros.

Y recientemente salía de nuevo a la palestra, tras la publicación por parte de The New York Times (EN), de un artículo de investigación que involucra a Amazon.

Por resumirlo muy mucho: Los algoritmos que rigen qué sugerencias muestra la plataforma a la hora de comprar un producto, están recomendando la compra de productos que ayudan a sus clientes a suicidarse.

Tal cual como lo oyes.

[…] Desde entonces, han continuado los suicidios vinculados a las ventas del conservante a través de Amazon. The New York Times identificó a 10 personas que se suicidaron usando el compuesto químico después de comprarlo a través del sitio en los últimos dos años, incluida una niña de 16 años en Ohio, un par de estudiantes universitarios de primer año en Pensilvania y Missouri, y uno de 27 años en Texas cuya madre ha presentado una demanda por homicidio culposo contra Amazon. Suficientes personas compraron el conservante para intentar suicidarse que el algoritmo de la compañía comenzó a sugerir otros productos que los clientes compraban con frecuencia junto con él para ayudar en tales esfuerzos.

A esto hemos llegado, señores.

Un ejemplo de guión de cómo la delegación absoluta en los algoritmos puede tener consecuencias a priori no esperadas, y en algunos casos catastróficas.

Poniendo el símil con una tienda de barrio, si un buen día llega a esa droguería una persona preguntando si tienen cuerdas que aguanten, por ejemplo, unos 80 kilos, y a la hora de la compra, esa persona le pregunta al dependiente si podría hacerle el favor de hacerle una soga para colgar algo de ella, ¿qué crees que haría el dependiente?

Pues lo más probable arquear la ceja y preguntarle qué quiere exactamente colgar de ella, cuando no directamente negarse a vendérsela.

Esto se debe a que ese dependiente tiene como objetivo principal vender (obviamente), pero además, está influenciado por una muy nutrida capa de sesgos éticos y culturales. Sesgos que en algunos casos son negativos, por supuesto, y que en otros, como puede ser el caso, claramente reman a favor de la sociedad.

Sin embargo, en esta misma disyuntiva, un algoritmo actuaría diametralmente distinto.

Cuando un cliente quiere comprar una cuerda en su market, el algoritmo analiza el histórico de ventas anteriores relacionadas con ese producto en particular, así como todo el conocimiento que puede desprenderse del histórico de compra de esa persona y, en el caso de Amazon, del valor de la información que puede llegar a obtener incluso fuera de la plataforma (acuerdos con terceros para compartir datos de navegación y un largo etcétera).

El resultado de ese estudio, como vemos en el caso anteriormente señalado, es que puede llegar a la conclusión de que un perfil como el suyo (potencialmente suicida) quizás le interese además comprar estos otros productos (que si una escalera pequeña, que si un libro sobre cómo hacer nudos marineros…).

Para el algoritmo, la ética detrás de un «perfil semejante» no tiene valor alguno. Su único y principal cometido es generar más ventas. Y por ende, usará todas las herramientas a su disposición para ser más óptimo.

En la mayoría de los casos, ofreciendo algo que puede o no interesarle a ese cliente (recordemos que los algoritmos no son adivinos, solo muy eficaces a la hora de sacar conjeturas en base a los datos previamente obtenidos). La mayoría con un impacto social positivo (de ahí que cada día los usemos más).

Pero es la falta de ese sesgo lo que, en algunos casos, favorece la inclusividad del cliente, y en otros, como es el mencionado, se sienten terroríficos por el impacto social y personal que puede llegar a tener.

A la vista de esta disyuntiva, conviene preguntarnos: ¿Qué solución hay?

Y aquí viene el problema, y es que hoy en día no tenemos una manera sencilla de separar los sesgos positivos de los negativos a nivel social. Imagínate lo que supone tan solo plantearse hacer lo propio a nivel estructural, para que la máquina sea capaz de aplicarlo en sus transacciones.

Lo que me lleva a la terrible conclusión de que seguiremos, conforme más y más elementos de nuestro día a día pasen a ser gestionados, total o parcialmente por algoritmos, encontrándonos ante situaciones como esta.

Lo que no quita que haya que cargar contra las empresas que están detrás. A fin de cuentas, si alguien puede y debe evitar estas terribles malas praxis, son las multinacionales como Amazon, Google, Apple, Facebook, Microsoft y compañía. Las garantes actuales de la tecnología.

Tan duro y triste como suena…

En CyberBrainers ayudamos a empresas y usuarios a prevenir, monitorizar y minimizar los daños de un ataque informático o una crisis reputacional. Si estás en esta situación, o si quieres evitar estarlo el día de mañana, escríbenos y te preparamos una serie de acciones para remediarlo.

Pablo F. Iglesias
Pablo F. Iglesias

Pablo F. Iglesias es Consultor de Presencia Digital y Reputación Online, director de la Consultora CyberBrainers, escritor del libro de ciencia ficción «25+1 Relatos Distópicos» y la colección de fantasía épica «Memorias de Árganon», un hacker peligroso, y un comilón nato 🙂