Nadie en el 2010 pensó realmente que Manna fuera para nada un robot. Para ellos, Manna era sólo un programa de ordenador funcionando en un PC. Cuando la mayoría de la gente normal pensaba en robots, pensaban en robots independientes, autónomos y pensantes como los que veían en las películas de ciencia ficción. C-3PO y R2-D2 eran imágenes robóticas muy poderosas, y la gente no creería estar viendo a un robot hasta que los robots se parecieran a C-3PO.
El chasis mecánico de un robot del tipo C-3PO había estado allí desde comienzos de siglo. Honda fue la primera con su robot ASIMO, y una vez que Honda había probado el concepto, muchos otros fabricantes les siguieron. ASIMO podía subir y bajar escaleras, patear una pelota y cosas así, y parecía algo completamente natural. El problema era que ASIMO necesitaba un operador humano diciéndole con un joystick qué hacer.
Lo que retrasaba a los robots era la visión. Para casi todo lo que hace una persona se ayuda de su visión – tanto que damos por hecho el sentido de la vista. Pero si cerraras los ojos e intentaras cualquier cosa, te darías cuenta de lo importante que es la visión.
Por ejemplo, cuando entras en una habitación donde la luz es tenue, tú piensas “Tengo que encender la luz.” Usas tus ojos para buscar el interruptor el la pared. Cuando lo encuentras, usas tus ojos para guiar tu mano hasta él. Luego usas tus ojos para darte cuenta de qué tipo de interruptor es. ¿Es un interruptor? ¿Es un pulsador? ¿Es un regulador de los que usa cadena? ¿Es un regulador deslizante? ¿Nada de lo anterior? Una vez que lo sabes, usas tus ojos para guiar tus dedos para manipular el interruptor de la forma apropiada. O quizás miras la pared y no hay interruptor. Ahora empezarás a buscar una lámpara en la habitación. ¿Es una lámpara de toque? ¿O tiene un interruptor en la base de la misma? Quizás el interruptor esté cerca de la bombilla, y tengas que pulsarlo, girarlo, o tirar de una cadena... Tu visión te guía en cada paso del camino. Sería casi imposible hacer cualquier cosa en un entorno complejo sin visión. Y encender una lámpara es bastante sencillo. La cosa se complica cuando tratas de correr por un bosque, montar en bicicleta por una calle repleta de coches o encontrar el camino hasta una dirección concreta en una gran subdivisión.
Sin visión, los robots no podían moverse o manipular objetos. El resto del hardware necesario ya estaba ahí. Ya había piernas y sistemas de equilibrio para permitir un movimiento bípedo desde hace décadas. Los dedos y manos robóticas con un muy preciso control por motor era fáciles de crear. El software de inteligencia artificial para definir objetivos y tomar decisiones se estaba volviendo cada día más poderoso. Todo ya estaba hecho salvo el sistema de visión.
Podías ver que la sociedad estaba lista para la llegada de los robots. El primer sistema robótico real instalado en un puesto humano de confianza fue en la industria aeronáutica. El ataque terrorista del World Trade Center en 2001 había sido una llamada de atención. En 2008 hubo una racha de 6 accidentes de avión, todos atribuidos a fallos del personal de vuelo, lo que hizo que la gente se pusiera nerviosa. Entonces en el 2012 ocurrió lo impensable. Dos pilotos de aerolíneas, los dos agentes durmientes de una organización terrorista asiática, volaron sus aviones hasta objetivos llenos de gente en los Estados Unidos de un modo casi simultáneo y mataron a cerca de 50 000 personas. Uno se estrelló contra un estadio de baloncesto abarrotado de espectadores, y el otro hizo pedazos una convención nacional del partido demócrata en Las Vegas. Ese fue el final de los pilotos humanos en las cabinas de los aviones.
Pese a lo que pueda parecer, la transición al uso de aviones robóticos fue bastante fácil. El piloto automático ya controlaba el avión durante el rumbo. Los sistemas de radar terrestres y en los aviones ya hacía que despegaran y aterrizaran automáticamente. Un avión no necesita un sistema de visión – su vista era el radar, y el radar llevaba inventado casi medio siglo. Había también un sistema de apoyo que daba a los aviones una forma de conciencia. Los aviones podían detectar su posición exacta utilizando un sistema GPS. Estos sistemas GPS estaban ligados a mapas digitales muy detallados del suelo y del cielo sobre ese suelo. Los mapas le decían al avión dónde se encontraba cada edificio o estructura del suelo. Así que incluso cuando el piloto automático fallase y le dijera al avión que fuera a algún lugar inseguro, un avión “consciente” se negaría a ir allí. Era imposible, literalmente, para un avión consciente chocarse con un edificio – el avión “sabía” que volar a través de un edificio estaba “mal”. Si el piloto automático se volvía loco, el avión consciente lo apagaba y pedía ayuda por radio. Si todos los motores fallaban o se caían, el avión sabía que había en el suelo en su proximidad y hacía lo que podía para estrellarse en una zona despoblada.
Para el 2015, no existían pilotos ni controladores aéreos humanos en el sistema. Todo lo referente a volar por el aire estaba automatizado. Se extrajo de los aviones la cabina y la zona se convirtió en un salón o zona de asientos. Con los humanos fuera del círculo, el índice de seguridad de la industria aeronáutica mejoró y la gente volvió a confiar de nuevo en los aviones. A nadie le preocupaba que no hubiera pilotos humanos en la cabina – la gente confiaba más en las máquinas que en los seres humanos.
El primer gran avance en la verdadera visión por computador vino en el 2016. En el 2014, las nuevas videoconsolas salieron a la luz, y tenían unas CPUs extremadamente potentes capaces de procesar 10 trillones de operaciones por segundo. Añadiéndoles 100 gigabytes de RAM e interconectándolas en una red de 1000 de estas videoconsolas, un equipo de investigadores universitario creó una máquina capaz de procesar 10 cuatrillones de operaciones por segundo sobre 100 trillones de bytes de RAM. Habían creado una máquina por valor de 500 000 dólares con un poder de procesamiento cercano al de un cerebro humano. Llamaron a ese sistema Vbrain. Con todo ese poder de procesamiento y memoria por explotar, los investigadores eran por fin capaces de empezar a crear verdaderos algoritmos de procesamiento de visión.
En menos de un año ya tenían dos proyectos de demostración que obtuvieron gran cantidad de atención de los medios de comunicación. El primero de ellos era un robot humanoide que, dándole la dirección de un apartamento, podía andar por la calle, encontrar el edificio, usar el ascensor (o subir las escaleras) y llamar a la puerta de ese apartamento. El segundo era un coche que podía autodirigirse de un lugar a otro durante la hora punta sin ningún tipo de intervención humana. Combinando el robot andante y el coche autodirigible en 2018, los investigadores montaron un sistema de transporte de pizzas completamente robótico para una pizzería. En una gran maniobra publicitaria, el equipo de investigadores pidió una pizza e hicieron que se la trajera un robot a su laboratorio 25 minutos después.
Una red de 1000 videoconsolas no es lo que se dice muy portátil, así que los robots de la demostración que este equipo de investigadores crearon no tenían cerebro. Los robots hablaban con VBrain a través de sus conexiones wireless. Sin embargo, este equipo de investigadores había probado que la visión en las máquinas era posible y factible en una de los más complejas y reales tareas imaginables.
Un avance aún más significativo vino en 2023. Unos investigadores de una compañía de chips habían seguido el trabajo con el VBrain, y se dieron cuenta de que la unidad de operaciones en coma flotante de 64 bits no era la unidad óptima de cálculo para una máquina procesadora de visión. En vez de eso, unas simples unidades de cálculo de enteros de 8 bits podrían manejar el problema. Esta idea hizo que el diseño de chips masivamente paralelos de visión fuera muy fácil de realizar. La compañía de chips sacó su primer módulo de procesamiento de visión – un procesador de visión de 10 petaop hecho a media a partir de 10 chips masivamente paralelos – a finales del 2023. El precio OEM de módulo era de 8000 dólares.
Ese módulo abrió las compuertas. En menos de un año, cientos de fabricantes mostraban sus prototipos de robots. Había robots repartidores, limpiadores, cocineros, obreros, botones, soldadores, paisajistas, camioneros, vendedores, taxistas, agentes de seguridad, etc.
Piensa en algo tan simple como pintar una habitación. Podías dejar a uno de esos nuevos robot pintores en la habitación con 5 galones de pintura. Dos horas más tarde la habitación estaba perfectamente pintada. No tenías ni que cubrir los muebles o moverlos de sitio. El robot lo hacía todo, y el trabajo resultante era perfecto. Ni una gota de pintura se derramaba, no se podía distinguir ninguna franja de pintura. Toda línea, esquina, toda superficie pintada estaba impecable. Había también nuevos robots para hacer la estructura de una casa, poner los ladrillos y el suelo.
La industria del automóvil mostró coches con sistemas de visión y control construidos dentro del vehículo. Los nuevos coches robóticos podían conducirse solos de puerta a puerta, dejar a los pasajeros y volver a casa a aparcarse solos. Significaba que podías leer o ver la televisión de camino al trabajo, y que el coche condujera. No había razón para tener un “asiento del conductor” ni una rueda de repuesto en los nuevos vehículos, así que el interior de los coches se volvió más funcional – el asiento de delante miraría hacía la parte de atrás, y se podría convertir en una cama. Los coches automáticos prometían reducir la congestión del tráfico, mejoraron dramáticamente la seguridad en las autopistas e hicieron la tarea de conducir mucho más confortable. También había taxis y camiones robóticos.
En las tiendas e industrias de comida rápida, el número de prototipos de robots te dejaba alucinado. Los robots podían vaciar el carro de la compra de un consumidor, escanear los productos y meterlos en bolsas. Los robots podían colocar los productos en las estanterías. Podían limpiar los suelos y baños. En menos de dos años, Burger-G estaba probando y arreglando una hamburguesería completamente robótica en el mismo lugar donde probaron Manna por primera vez. En vez de decirles a los empleados qué hacer, Manná se lo decía a los robots.
Todo el hardware y la inteligencia general de estos robots había estado ahí durante una década. Lo que faltaba era la vista. Tan pronto como el barato módulo de visión estuvo disponible, el número de robots en el mercado se disparó.
El efecto que la explosión robótica tuvo en el panorama laboral fue alarmante. Para el 2030, la mayoría de grandes comercios estaban reemplazando a sus empleados humanos por robots tan pronto como podían. Los robots reponían los artículos en los estantes, limpiaban los suelos, ayudaban a los consumidores preguntándoles y llevando sus compras hasta sus coches. Todos los restaurantes de comida rápida hacían lo mismo. Las empresas de la construcción empezaron a usar robots para cada tarea repetitiva: hacer estructuras, construirlas, pintarlas, etc. Los coches y camiones robóticos tomaron las autopistas y las tasas de accidentes empezaron a descender. Era fácil de ver que los aeropuertos, parques de atracciones, autoservicios y fábricas completamente robotizados les seguirían.
El cambio a emplear robots se estaba produciendo a gran velocidad, y por alguna razón parecía que nadie había pensado realmente en los efectos de esta transición. Toda esta gente que estaba siendo reemplazada por robots necesitaba alguna manera de obtener ingresos para sobrevivir, pero la bolsa de trabajo se estaba reduciendo. La “economía de servicios” estadounidense fue lo que reemplazó a la “economía industrial” y ahora Estados Unidos tenía a casi la mitad de sus trabajadores viviendo de trabajos de salario mínimo en el sector servicios. Estos eran los trabajos perfectos para los nuevos robots. La pregunta era, qué pasaría con la mitad de la población siendo desplazada de sus trabajos en el sector servicios.