(+34) 910 42 42 93 [email protected]

Estos últimos días ha circulado (nunca mejor dicho) un vídeo por redes sociales de un Chevy Bolt de GM Cruise al que la policía lo para.

En el vídeo, que comparto a continuación, se ve cómo el policía se acerca al vehículo, y al darse cuenta de que se trata de un vehículo autónomo, sin conductor, se vuelve hacia atrás.

En ese momento, el semáforo se pone en verde, y el taxi se va, para «aparcar» unos cuantos metros más adelante, forzando al policía a volver al vehículo y «perseguirlo» momentáneamente.

Por supuesto, algunos han querido ver en esta curiosa situación un ejemplo del mal funcionamiento que puede conllevar tener vehículos en carretera, pero nada más lejos de la realidad.

Lo cierto es que justo lo que está haciendo el vehículo es correcto.

Al ponerse en verde el semáforo, el taxi arranca, cruzando la carretera, hasta que se encuentra con un espacio para aparcar, evitando así tener que obstaculizar la vía, y cumpliendo así tanto la exigencia de la policía, como las normas de circulación.

Claro que podría a ojos humanos parecer «extraño» eso de parar en un semáforo siendo consciente de que la policía te ha hecho el alto, arrancar cuando el semáforo lo permite, y aparcar nuevamente en un lugar más despejado. Pero es que, en esencia, no hay infracción en dicha acción.

Un tanto para la IA :).

Es un pequeño ejemplo más de cómo un entorno puramente autónomo sería muchísimo más óptimo y seguro que el escenario actual, donde recordemos, las muertes en carretera lideran los primeros puestos de las principales razones de mortalidad no relacionada con enfermedades en prácticamente todos los países desarrollados (y cada vez más también en los subdesarrollados).

La IA que Google (Waymo) y Cruise han entrenado a estos vehículos, al igual que pasa con el autopilot de Tesla y los cada vez más sistemas de autonomía presentes en los coches, está encontrándose con problemas que no vienen dados, precisamente, por los fallos del propio sistema informático, sino por tener este que convivir y relacionarse espacialmente tanto con la regulación de cada país, como también con la propia irracionalidad humana al volante.

Y ahí viene el verdadero problema.

Los escasos accidentes que han tenido estos vehículos son, en su mayoría, asociados a errores humanos o errores de medición de los sensores de estos vehículos… debidos nuevamente a la obstaculización por parte humana de señales que llevaron al vehículo a tomar una decisión errónea.

Luchar contra esto, en un escenario como es el real, va a ser realmente complicado, ya que supone tener que controlar patrones de uso inadecuados en carretera a una IAs puramente objetivas, y todo esto hacerlo cumpliendo, de paso, una normativa creada, por razones obvias, para conductores humanos.

Aún con todo, y teniendo en cuenta que muy probablemente este trabajo nos lleve décadas, llegará el momento en el que conducir por carretera uno mismo será considerado ilegal, habilitando muy probablemente circuitos mixtos donde sí esté permitido.

Un cambio de paradigma radical, ya que pasaremos entonces de ser agentes activos de la circulación, a agentes pasivos. Con toda la carga ética, legal y sobre todo, social, que ello conlleva.

Un artículo previamente publicado en HackerCar (ES).

En CyberBrainers hacemos informes y análisis de mercado en temas candentes para nuestros clientes, ya sean de negocio o puramente reputacionales. Si necesitas conocer cómo le va a la competencia, a tu propia empresa, o simplemente conocer qué opina la gente sobre algún tema en particular, escríbenos y ponemos nuestras máquinas y analistas a escuchar.

Pablo F. Iglesias
Pablo F. Iglesias

Pablo F. Iglesias es Consultor de Presencia Digital y Reputación Online, director de la Consultora CyberBrainers, escritor del libro de ciencia ficción «25+1 Relatos Distópicos» y la colección de fantasía épica «Memorias de Árganon», un hacker peligroso, y un comilón nato 🙂