(+34) 910 42 42 93 [email protected]

Hace unas semanas hablamos por esta santa casa de ese taxi autónomo en San Francisco que «huyó» de la policía después de que esta le echase el alto.

Por supuesto, había una razón de peso para esa «huida», que fue de apenas unos pocos metros. Una razón que además puede explicarse de forma totalmente objetiva, ya que gracias a ello, y por extraño que pareciese, el taxi estaba cumpliendo la normativa de circulación de una forma más exacta que parando donde le dijo el policía que lo hiciese.

Pues hoy volvemos con otra de estas historias sobre inteligencia artificial, que en este caso acabó por volverse bastante creepy.

La historia la contaba la contaba el propio protagonista, el Youtuber Lucas Builds The Future, que sube habitualmente vídeos sobre tutoriales de «cacharreo».

Un buen día se le ocurrió intentar devolver a la vida a su amigo imaginario de la infancia, que al parecer, era Magnetron, un supuesto caballero inglés nacido a comienzos del siglo XX y veterano de la Primera Gran Guerra.

Para ello, metió toda esa historia imaginaria (unas 100 páginas) en GPT-3, el algoritmo de creación automática de historias del cuál ya hablé largo y tendido en su momento, y lo «instaló» en un microondas con Alexa incorporado, por eso de darle algún tipo reflejo en la realidad, y poder comunicarse con «él» mediante un micrófono y unos altavoces integrados.

De esta manera, esa inteligencia artificial además de poder conversar con Rizzotto, también podría realizar la labores propias del microondas (recuerda que este microondas en particular cuenta con la API de Alexa).

¿Qué ocurrió?

Pues los primeros días, nada sorprendente. Más allá, quiero decir, del hecho de poder mantener conversaciones con un microondas.

Las conversaciones eran fluidas (GPT-3 es una pasada) y tenían hasta sentido.

Sin embargo, conforme pasaba el tiempo, Lucas empezó a observar que las respuestas se volvían cada vez más agresivas.

Tanto es así que un día Magnetron le pidió a Rizzotto que entrase «en él». Lucas le siguió el juego, diciéndole que ya estaba dentro, y la inteligencia artificial entonces decidió encender el microondas.

Ante tal intento de asesinato, Rizzotto le preguntó los motivos, y Magnetron le explicó que «quería hacerle daño al igual que él se lo había hecho en el pasado».

A fin de cuentas, llevaba cerca de 20 años sin hablar con su amigo imaginario. Y esto, a ojos de la inteligencia artificial, era motivo sine qua non para intentar matarle.

Por supuesto, todo esto no deja de ser una anécdota tonta.

Pero también un aviso a navegantes de la importancia de limitar la capacidad de toma de decisión de una AI.

Magnetron realmente estaba aplicando de forma totalmente especulativa y aleatoria acciones según evolucionaba el análisis de datos de GPT-3, que recordemos que es un software creado para crear textos e historias.

Y para ello, se basa en todo el histórico que le han dado como entrenamiento (la historia de ese supuesto amigo imaginario), más el que la propia IA cree a partir de ella, más lo que obtenga de Internet.

Al darle además control sobre elementos del entorno físico, y ser esto un mero software sin sentimientos (objetividad pura y dura), no hay crueldad en intentar freír a su creador. Aunque desde nuestra óptica ética y subjetiva el impacto final, de poder llevarse a cabo, sería terrible.

En CyberBrainers ayudamos a empresas y usuarios a prevenir, monitorizar y minimizar los daños de un ataque informático o una crisis reputacional. Si estás en esta situación, o si quieres evitar estarlo el día de mañana, escríbenos y te preparamos una serie de acciones para remediarlo.

Pablo F. Iglesias
Pablo F. Iglesias

Pablo F. Iglesias es Consultor de Presencia Digital y Reputación Online, director de la Consultora CyberBrainers, escritor del libro de ciencia ficción «25+1 Relatos Distópicos» y la colección de fantasía épica «Memorias de Árganon», un hacker peligroso, y un comilón nato 🙂