La ingeniera Caitlin Kalinowski, responsable de Robótica en OpenAI, ha presentado su dimisión tras el polémico acuerdo de la empresa con el Pentágono para integrar inteligencia artificial en sistemas de defensa. La directiva denuncia riesgos de vigilancia sin control judicial y uso militar autónomo de la IA.
Crisis ética en OpenAI tras su acuerdo militar
La responsable de la división de robótica de OpenAI, Caitlin Kalinowski, anunció su dimisión el 8 de marzo de 2026 tras expresar profundas objeciones éticas al reciente acuerdo firmado entre la empresa de inteligencia artificial y el Pentágono.
La ingeniera comunicó su decisión a través de un mensaje en la red social X (Twitter), donde explicó que el despliegue de tecnologías de inteligencia artificial en el ámbito militar se está realizando sin suficientes garantías democráticas ni supervisión legal.
“La vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que recibieron”, afirmó Kalinowski.
Según la directiva, su salida responde a una cuestión de principios, ante lo que considera un avance acelerado del uso militar de la inteligencia artificial.
El acuerdo entre OpenAI y el Pentágono
La dimisión se produce después de que OpenAI firmara un contrato con el Departamento de Defensa de Estados Unidos para integrar modelos avanzados de IA en sistemas militares y de defensa.
El acuerdo permitiría utilizar tecnologías de la compañía en:
- Sistemas de análisis militar
- Procesamiento de información estratégica
- Operaciones de defensa y seguridad
Aunque los detalles técnicos no se han hecho públicos, el movimiento ha reavivado el debate global sobre el uso de la inteligencia artificial en conflictos armados y sistemas de vigilancia estatal.
Tensiones con otras empresas de inteligencia artificial
El acuerdo también ha generado fricciones dentro del sector tecnológico.
La empresa Anthropic, fundada por antiguos empleados de OpenAI, había mantenido previamente conversaciones con el Gobierno de Estados Unidos para colaborar en proyectos similares.
Sin embargo, las negociaciones se estancaron, lo que abrió la puerta al acuerdo final con OpenAI.
El director ejecutivo de Anthropic, Dario Amodei, criticó duramente el movimiento de la empresa rival, calificando sus argumentos de seguridad como “teatro de seguridad” y acusando a la compañía de utilizar una estrategia de marketing engañosa.
La IA militar vuelve a encender el debate global
La dimisión de Kalinowski refleja una creciente división dentro de la industria tecnológica sobre el papel que debe desempeñar la inteligencia artificial en el ámbito militar.
Desde hace años, expertos advierten del riesgo de desarrollar sistemas autónomos capaces de tomar decisiones letales sin intervención humana, una cuestión que preocupa especialmente en el contexto de conflictos internacionales cada vez más automatizados.
Además, organizaciones de derechos civiles han alertado de que el uso de IA en sistemas de vigilancia estatal podría ampliar el poder de los gobiernos para monitorizar a los ciudadanos, especialmente si no existen controles judiciales claros.
Un debate que marcará el futuro de la tecnología
El caso vuelve a poner sobre la mesa una de las grandes preguntas del siglo XXI: hasta qué punto las empresas tecnológicas deben colaborar con proyectos militares y de seguridad nacional.
Mientras algunos defienden que la inteligencia artificial es clave para mantener la superioridad tecnológica y la seguridad de los países, otros advierten del riesgo de normalizar sistemas de vigilancia masiva o armas autónomas.
La salida de Caitlin Kalinowski demuestra que el debate ético sobre la inteligencia artificial ya no es teórico, sino que está generando tensiones reales dentro de las propias compañías que lideran esta revolución tecnológica.

