El Nuevo Poder Invisible
Durante décadas, bajo la influencia de la ciencia ficción, imaginamos a los robots como asistentes mecánicos diseñados para aliviar el trabajo humano: limpiar casas, cargar objetos pesados, ejecutar tareas repetitivas o incluso convertirse en los soldados del futuro. Sin embargo, el rumbo actual de la tecnología apunta a algo mucho más ambicioso —y profundamente inquietante—: máquinas que no solo ejecutan órdenes, sino que imitan al ser humano, deciden en su nombre y comienzan a ocupar espacios físicos, sociales y simbólicos que antes nos pertenecían exclusivamente.
Este artículo sostiene dos ideas centrales.
Primero, que el desarrollo acelerado de la tecnología —en particular la Inteligencia Artificial y la robótica— sigue avanzando sin una regulación clara, sin un marco ético compartido y empujado principalmente por el lucro de las grandes corporaciones tecnológicas, muchas veces con la complicidad silenciosa de los gobiernos. La tecnología crece como un monstruo al que nadie quiere —o se atreve— a poner límites.
Segundo, que la IA, la robótica y los sistemas autónomos se han convertido en nuevas armas de poder, insertas en una lógica histórica de competencia y amenaza entre Estados y corporaciones. Como ocurrió con la marina, la aviación, los cohetes, la energía nuclear y la conquista del espacio, el objetivo no es colaborar para el bienestar común, sino poseer lo más avanzado, lo más intimidante, lo más temible. En este juego, las víctimas suelen ser las mismas de siempre: los ciudadanos, los civiles y, en última instancia, la civilización misma.
La obsesión por el cuerpo humanoide
La pregunta de fondo no es técnica, sino política y filosófica:
si lo que buscamos es eficiencia, ¿por qué insistimos en que los robots tengan forma humana? ¿Será acaso porque al final de cuentas se aspira a no poder distinguir un robot de un humano?
Desde el punto de vista del mercado, la respuesta parece sencilla. Los robots especializados son útiles, pero limitados. Una aspiradora robótica no puede subir escaleras; un brazo industrial no puede servir una bebida ni asistir a una persona mayor; y difícilmente aceptaríamos que nuestro estilista fuera una máquina con apariencia de insecto metálico, por muy preciso que fuera su trabajo.
El robot humanoide resulta atractivo porque promete versatilidad, familiaridad y una ilusión de cercanía emocional. No solo hace tareas: habita espacios humanos. Camina, se mueve, ocupa el mismo volumen que nosotros. Produce una sensación inconsciente de tranquilidad y control, aunque no necesariamente sea más seguro. El fin no lo sabemos exactamente, pero el camino es bien claro: que se parezcan a nosotros lo más posible.
Hoy, estos robots ya pueden correr, bailar, cargar objetos y realizar funciones básicas de asistencia. Pero siguen siendo torpes frente a lo inesperado. Tropiezan, rompen objetos, reaccionan mal ante estímulos imprevistos y, cuando fallan, su fuerza mecánica se convierte en un riesgo real. No es maldad; es incapacidad estructural para comprender la complejidad humana.
El verdadero motor: la Inteligencia Artificial
Detrás del metal, los sensores y los motores hay algo mucho más poderoso: la Inteligencia Artificial.
Sin IA, los robots humanoides serían simples estructuras mecánicas. La IA es su cerebro: interpreta imágenes, reconoce voces, toma decisiones, aprende de errores y actúa en tiempo real. Sin embargo, aquí aparece un límite fundamental.
La destreza humana —especialmente la manual y sensorial— es extraordinariamente difícil de traducir a código. No sabemos explicar cómo ajustamos la presión de los dedos, cómo anticipamos la resistencia de un objeto o cómo leemos el contexto emocional de una situación. Nuestros sentidos captan información que no sabemos verbalizar ni convertir en datos. Las emociones representan un nivel de complejidad tan alto que programarlas debe ser, para la IA, un verdadero laberinto. Por eso, aunque la IA ha avanzado de manera espectacular en lenguaje e imagen, el mundo físico y social sigue siendo su gran desafío. Y, aun así, seguimos entregándole decisiones cada vez más delicadas.
Autos sin chofer: el mismo dilema, otro escenario
Los vehículos autónomos representan el mismo problema bajo otro formato. Integran cámaras, radares, sensores y modelos de aprendizaje para “ver”, “decidir” y actuar sin intervención humana.
En entornos controlados funcionan razonablemente bien. Pero la vida real no es un laboratorio. Es caótica, ambigua e impredecible. Un peatón indeciso, una calle mal señalizada, una obra improvisada o una emergencia moral plantean dilemas que no se resuelven con probabilidades, sino con juicio humano y aún este falla con frecuencia.
Aun así, la tendencia es clara: cada vez más máquinas toman decisiones en el mundo físico, desde el transporte y la logística hasta la seguridad y el cuidado personal.
Tecnología sin freno: lucro, poder y complicidad
Aquí emerge el primer gran eje de preocupación.
El crecimiento de la IA y la robótica no responde únicamente a la innovación científica, sino a una carrera feroz por el dominio del mercado y del poder. Las grandes compañías tecnológicas expanden sus capacidades a una velocidad que supera con creces la capacidad de los Estados para regularlas, y más aún los Estados actuales, que se han alejado de paradigmas institucionales estables y operan bajo lógicas transaccionales, de corto plazo. Peor aún, en muchos casos los gobiernos no solo llegan tarde, sino que actúan como cómplices, seducidos por promesas de crecimiento económico, competitividad geopolítica o control social. La ética se vuelve un accesorio discursivo y la regulación, un estorbo.
El resultado es un ecosistema donde nadie responde del todo cuando algo falla, pero todos se benefician cuando funciona.
La nueva carrera armamentista
El segundo eje es histórico.
La humanidad ya ha recorrido este camino. Primero fueron las flotas navales, luego la aviación militar, los misiles, la energía nuclear y el espacio. En cada etapa, la lógica fue la misma: siempre competir, nunca cooperar, siempre disuadir; nunca compartir, siempre intimidar, nunca confiar.
Hoy, la Inteligencia Artificial, la robótica y los sistemas autónomos ocupan ese lugar. Los líderes quieren lo más avanzado, lo más rápido, lo más letal —aunque no siempre lo digan así—. La colaboración internacional cede ante la sospecha y la competencia.
Y como siempre, quienes pagan el precio no son los estrategas ni los accionistas, sino los ciudadanos comunes, expuestos a decisiones automatizadas, errores sistémicos y usos perversos del poder tecnológico.
CUANDO EL PODER DEJA DE PREGUNTAR
La historia demuestra que cuando una tecnología crece impulsada por el lucro y la competencia, sin regulación ni conciencia ética, termina convirtiéndose en un instrumento de dominación. Ocurrió con las flotas navales, con la aviación militar, con los misiles, con la energía nuclear y con la militarización del espacio. Siempre se dijo que era por seguridad, progreso o disuasión. Siempre se prometió control. Y siempre fueron los civiles quienes pagaron el costo.
Hoy, la Inteligencia Artificial y la robótica ocupan ese mismo lugar. No se desarrollan principalmente para cooperar, sino para no quedarse atrás. No para proteger a la humanidad, sino para imponer superioridad económica, política o estratégica. La diferencia es que ahora el poder no se presenta con uniforme ni bandera: opera en silencio, integrado en algoritmos y máquinas aparentemente neutras.
Cuando un sistema automatizado decide quién recibe un servicio, quién es vigilado, quién es despedido, quién accede a un crédito o quién puede circular por una ciudad, el poder ya no necesita explicarse. Se normaliza. Se vuelve invisible. Y, por ello, más difícil de cuestionar.
La pregunta ya no es si la tecnología seguirá avanzando —eso es inevitable—, sino quién la gobierna, con qué límites y con qué responsabilidad. La ausencia de regulación no es neutralidad; es una decisión política. Y la complicidad del Estado frente al poder tecnológico no es ingenuidad; es renuncia.
Si la historia nos enseña algo, es que las civilizaciones no colapsan solo por guerras visibles, sino por la aceptación gradual de fuerzas que ya no controlan. En ese sentido, el verdadero riesgo no es que los robots se parezcan cada vez más a nosotros, sino que nosotros dejemos de parecernos a ciudadanos críticos y conscientes, y aceptemos —por comodidad o resignación— vivir bajo sistemas que deciden por nosotros.
Porque cuando el poder deja de preguntar, la tecnología deja de servir y comienza a mandar.

