En los últimos años, la inteligencia artificial ha dejado de ser una disciplina confinada a los laboratorios académicos o a proyectos de nicho para convertirse en un activo geoestratégico de primer orden. Desde empresas tecnológicas multinacionales hasta gobiernos, pasando por grupos de investigación e inversores privados, todos se han volcado en la carrera por desarrollar, entrenar y dominar los modelos más potentes de lenguaje natural.
En medio de esta feroz competencia internacional, el espionaje industrial ha emergido como una de las amenazas más serias y reales. Prueba de ello es el escándalo que envuelve a DeepSeek, una startup china acusada de replicar la tecnología de OpenAI mediante técnicas de destilación de modelos.
Este caso ha tenido repercusiones profundas en la forma en que OpenAI aborda su seguridad, y ha desencadenado un proceso interno de blindaje sin precedentes para proteger su propiedad intelectual, la integridad de sus desarrollos y, en definitiva, su liderazgo en la industria. A continuación, ITD Consulting muestra un análisis de los cambios en OpenAI ante la amenaza de espionaje.
DeepSeek: Una amenaza inesperada que encendió todas las alarmas
A comienzos de 2025, el nombre “DeepSeek” comenzó a circular con fuerza en medios especializados, foros tecnológicos y redes sociales. Esta startup con base en China sorprendió al presentar un modelo de lenguaje que, según demostraciones públicas, competía codo a codo con los modelos más avanzados del mercado.
El rendimiento de DeepSeek en tareas de comprensión lectora, generación de texto y resolución de problemas era notablemente alto. Lo que resultaba aún más desconcertante era que DeepSeek aseguraba haber alcanzado ese nivel sin contar con la infraestructura computacional de gigantes como OpenAI, Google o Anthropic, ni con los voluminosos datasets que suelen ser necesarios para entrenar modelos de esa magnitud. Esto, naturalmente, despertó escepticismo y, más tarde, preocupación.
Expertos en seguridad digital y análisis de IA comenzaron a estudiar el comportamiento del modelo de DeepSeek. Lo que encontraron fue inquietante: las respuestas del sistema mostraban patrones de razonamiento, estilo lingüístico y estructuras sintácticas extremadamente similares a las de ChatGPT.

A medida que se profundizó la investigación, emergió una hipótesis sólida: DeepSeek habría utilizado técnicas de destilación, un proceso mediante el cual un modelo nuevo se entrena imitando el comportamiento de otro modelo preexistente, al que accede de manera indirecta, generalmente a través de consultas API. Esta técnica permite replicar parte de las capacidades del modelo original sin necesidad de conocer su arquitectura o sus datos de entrenamiento. En este caso, se sospecha que DeepSeek habría utilizado cuentas fraudulentas para interactuar de manera masiva con los modelos de OpenAI, recolectando datos para entrenar su propio sistema.
El gobierno de los Estados Unidos, que ya monitoreaba de cerca las actividades tecnológicas chinas, reaccionó rápidamente. A través de voceros especializados en IA y ciberseguridad, como David Sacks, se confirmó la existencia de evidencia sustancial que vincularía a DeepSeek con prácticas de extracción no autorizada de conocimiento desde los sistemas de OpenAI.
La administración del presidente Trump, en su segundo mandato, elevó la alerta sobre este tipo de incidentes, calificándolos como actos de espionaje corporativo con implicancias estratégicas. Esto llevó a un endurecimiento de las medidas contra empresas chinas del sector y a un llamado general a las tecnológicas estadounidenses para reforzar su seguridad.
Redefiniendo la seguridad: De la ciberdefensa al blindaje total
Frente a esta situación, OpenAI decidió ir mucho más allá de las medidas reactivas tradicionales. La empresa OpenAI comprendió que, en un contexto donde actores internacionales buscan activamente replicar o sustraer avances tecnológicos, la seguridad debía ser concebida como un componente central y transversal a toda la organización. Esto significó rediseñar desde cero las políticas de protección de activos, infraestructura, personal e información de OpenAI. El objetivo: garantizar que ninguna parte crítica de la tecnología de OpenAI pudiera ser filtrada, replicada o utilizada por terceros sin autorización.
Una de las primeras áreas intervenidas en OpenAI fue la seguridad física. Las oficinas centrales de OpenAI en San Francisco fueron objeto de una transformación profunda. Se instalaron sistemas de acceso biométrico en todos los puntos de entrada a áreas sensibles. Estos sistemas no solo reconocen huellas digitales, sino también patrones de venas y reconocimiento facial, lo que impide suplantaciones o accesos no autorizados.
El control en OpenAI se ha vuelto tan estricto que incluso el ingreso a ciertas salas requiere la presencia simultánea de dos personas autorizadas, en un esquema de “doble llave” similar al que se utiliza en instalaciones nucleares o militares. Por otra parte, se fortaleció la seguridad perimetral y el monitoreo constante de las instalaciones de OpenAI.
Se implementaron cámaras con análisis de comportamiento alimentadas por IA, sensores de movimiento con respuesta inmediata y protocolos de emergencia ante cualquier actividad anómala. Los accesos están segmentados según el nivel de sensibilidad de la información tratada, y los horarios de ingreso y permanencia están regulados. El personal de seguridad física de OpenAI fue triplicado, y se realizaron simulacros periódicos de intentos de intrusión para evaluar la capacidad de respuesta.
Computadoras aisladas y redes cerradas: La desconexión como escudo
Uno de los cambios más importantes en OpenAI fue la decisión de aislar completamente los sistemas utilizados para trabajar con los modelos más sensibles. OpenAI ha creado una infraestructura cerrada donde ciertos proyectos se desarrollan en computadoras que no tienen ningún tipo de conexión a Internet ni a redes internas compartidas.
Estos dispositivos, conocidos como sistemas air-gapped, funcionan en entornos controlados y físicamente separados del resto de la infraestructura de la empresa. Solo pueden intercambiar datos mediante medios físicos cifrados y bajo protocolos estrictamente controlados.
Este aislamiento en OpenAI tiene como objetivo principal impedir cualquier filtración accidental o deliberada. En un escenario donde una simple conexión a Internet puede ser una vía de entrada para un actor malicioso, la desconexión física se ha convertido en el último bastión de defensa.
Si bien esto introduce desafíos logísticos y ralentiza algunos procesos, desde OpenAI aseguran que los beneficios en términos de seguridad superan ampliamente las dificultades operativas. Además, se adoptó una política de desconexión por defecto en OpenAI, conocida como “deny-by-default”, donde ningún sistema tiene conexión a la red externa salvo que exista una autorización explícita, documentada y supervisada. Este enfoque de OpenAI, aunque drástico, garantiza un nivel superior de control sobre el flujo de información dentro y fuera de la organización.

Acceso compartimentado y cultura del silencio operativo
Otro eje fundamental de la nueva estrategia de seguridad de OpenAI es la compartimentación total del conocimiento. La compañía OpenAI implementó una política llamada “information tenting”, que establece que cada empleado solo tiene acceso a la información estrictamente necesaria para realizar su trabajo, sin posibilidad de consultar datos de otros proyectos o áreas.
Esta medida en OpenAI evita que un actor interno pueda acumular suficiente información como para comprometer un desarrollo completo en caso de filtración o ataque. Incluso dentro de un mismo equipo de trabajo, los accesos están segmentados. Hay múltiples niveles de autorización, y los permisos son revisados periódicamente. Los sistemas de autenticación incorporan elementos biométricos, claves rotativas y verificación en dos pasos. Toda actividad se registra en tiempo real, y cualquier comportamiento inusual activa una revisión automática.
En cuanto a la cultura laboral de OpenAI, se ha introducido un cambio drástico en la forma en que se comunica la información. Los empleados de OpenAI han sido instruidos para no discutir ningún detalle técnico fuera de los espacios formales autorizados. Se desaconsejan las conversaciones informales sobre proyectos sensibles, incluso con colegas, salvo que exista plena certeza de que ambos están autorizados. Las comunicaciones internas están encriptadas, y las plataformas utilizadas han sido diseñadas para impedir capturas de pantalla, reenvíos o exportación de archivos.
Nuevos filtros de contratación: Un escudo humano frente a la infiltración
En un mundo donde la inteligencia artificial se ha convertido en una de las tecnologías más codiciadas, el riesgo de infiltración por parte de agentes externos o empleados desleales es una amenaza latente. Por este motivo, OpenAI ha endurecido significativamente sus procesos de selección de personal. La empresa ya no se limita a evaluar habilidades técnicas o experiencia previa, sino que ha incorporado protocolos exhaustivos de verificación de antecedentes, análisis de comportamiento y evaluación de riesgo geopolítico.
Los candidatos son sometidos a revisiones cruzadas que involucran análisis de redes sociales, participación en foros técnicos, historial académico, y asociaciones pasadas con entidades o gobiernos extranjeros. En particular, se presta especial atención a posibles conexiones con organizaciones o universidades vinculadas al ecosistema tecnológico del Partido Comunista Chino. La empresa OpenAI ha desarrollado un sistema de puntuación interna que permite categorizar a los candidatos según el nivel de riesgo, y en caso de duda, la política es simple: se rechaza la incorporación.
Incluso una vez contratado, un nuevo empleado de OpenAI no obtiene acceso inmediato a los proyectos más críticos. Pasa por un periodo de observación controlada, durante el cual su comportamiento digital y físico es monitoreado en busca de irregularidades. El acceso a datos sensibles se concede de forma progresiva y fragmentada, y está condicionado por evaluaciones internas periódicas. El personal de seguridad y recursos humanos de OpenAI trabaja conjuntamente con el equipo de inteligencia corporativa para prevenir cualquier intento de filtración.
Inteligencia proactiva y respuesta automatizada
La seguridad no solo se trata de prevenir ataques, sino también de anticiparse a ellos. En ese sentido, OpenAI ha desarrollado una estructura de inteligencia proactiva que combina tecnologías de monitoreo en tiempo real, análisis predictivo y protocolos automatizados de respuesta. Esta estructura se basa en un centro de operaciones de seguridad (SOC) con equipos distribuidos en distintas zonas horarias, lo que permite una cobertura continua y global.
Este centro emplea modelos de inteligencia artificial entrenados para detectar patrones anómalos en el comportamiento de los usuarios, los flujos de datos, los tiempos de actividad y el uso de recursos informáticos. Por ejemplo, si un ingeniero accede a un volumen inusualmente alto de archivos en un corto período de tiempo, o si se conecta desde una ubicación no habitual, el sistema genera una alerta. A partir de allí, se activa una cadena automatizada de respuestas: bloqueo del usuario, aislamiento del terminal, copia de seguridad de los registros y notificación a los equipos de seguridad e infraestructura.
Además, OpenAI realiza regularmente simulacros de ataque, pruebas de penetración internas y contrataciones de hackers éticos para evaluar sus vulnerabilidades. Estos ejercicios en OpenAI son fundamentales para mejorar las defensas, entrenar al personal y garantizar que todos los procedimientos estén actualizados ante las nuevas amenazas. Como parte de estas prácticas, la empresa ha comenzado a trabajar con modelos de IA generativa que simulan ataques reales, permitiendo una preparación dinámica y adaptativa.
Tecnología crítica bajo llave: Clasificación, custodia y trazabilidad
OpenAI ha clasificado todos sus activos tecnológicos en diferentes niveles de sensibilidad. Los desarrollos más estratégicos, como nuevos modelos de lenguaje multimodal, sistemas de razonamiento lógico, herramientas de codificación automática o arquitecturas de autoaprendizaje, son considerados “tecnología crítica de nivel 1”. Estos proyectos de OpenAI están sujetos a medidas extraordinarias de seguridad: aislamiento físico, cifrado reforzado, trazabilidad completa de acceso y supervisión humana continua.
Cada acceso a estos sistemas queda registrado en un log digital que incluye hora, identidad del usuario, terminal de conexión y tipo de acción realizada. Este registro es inmutable y se audita de forma automatizada y manual. Cualquier desviación o acceso no planificado es investigado en tiempo real, y puede conllevar la suspensión inmediata del usuario involucrado.
Además, se ha adoptado un sistema de custodia compartida para ciertos modelos. Esto significa que ninguna persona dentro de OpenAI tiene acceso total a un sistema completo de forma individual. Por el contrario, el control está repartido entre múltiples responsables que deben coordinarse para habilitar el funcionamiento, prueba o modificación de un modelo. De esta forma, se reduce al mínimo el riesgo de manipulación, robo o filtración interna.
Relaciones con el gobierno y marco legal de protección
El conflicto con DeepSeek y la creciente tensión con el ecosistema tecnológico chino han llevado a OpenAI a reforzar sus vínculos con organismos gubernamentales de Estados Unidos. La empresa OpenAI mantiene una colaboración fluida con agencias como el Departamento de Comercio, la Agencia de Seguridad Nacional (NSA), el Departamento de Defensa y comités especializados del Congreso.
A través de estas alianzas, OpenAI ha impulsado una propuesta legislativa para crear un marco legal que prohíba el uso de tecnologías de IA estadounidenses por parte de empresas extranjeras vinculadas a gobiernos considerados adversarios. Esta legislación incluiría una lista negra de compañías, restricciones a la exportación de hardware crítico (como chips NVIDIA) y la creación de una oficina federal de control tecnológico.
Asimismo, se está trabajando en un tratado internacional para establecer normas éticas y de seguridad para el desarrollo de IA, que incluya mecanismos de verificación, sanciones en caso de incumplimiento y auditorías cruzadas entre países aliados. OpenAI ha ofrecido su experiencia técnica para definir los parámetros de este tratado y garantizar su aplicabilidad.

El caso DeepSeek ha puesto de manifiesto la fragilidad del ecosistema tecnológico global ante las amenazas de espionaje corporativo y ha sido un llamado de atención para toda la industria. Para OpenAI, este episodio no solo representó un riesgo reputacional y económico, sino también una señal de alerta sobre la urgencia de rediseñar sus estructuras de seguridad en todos los niveles.
OpenAI ha respondido con una estrategia integral que incluye desde medidas físicas y tecnológicas hasta cambios culturales y organizacionales, demostrando que la protección de la propiedad intelectual es tan crucial como la innovación misma. La implementación de sistemas aislados, controles biométricos, compartimentación del conocimiento y filtros de contratación extremadamente rigurosos posiciona a OpenAI como un referente en la defensa tecnológica en una era de competencia geopolítica e inteligencia artificial.
En adelante, OpenAI deberá continuar evolucionando sus sistemas de defensa al mismo ritmo que avanza la tecnología, manteniéndose siempre un paso por delante de quienes intenten vulnerarla. El desafío no solo será proteger sus desarrollos más avanzados, sino también fomentar una cultura global de seguridad, ética y colaboración en el uso de la inteligencia artificial.
La batalla por el liderazgo tecnológico ya no se libra únicamente en los laboratorios, sino también en los entornos de ciberseguridad, en las políticas públicas y en la vigilancia permanente de posibles infiltraciones. En este nuevo escenario, las empresas que aspiren a liderar la próxima revolución industrial deberán invertir no solo en inteligencia artificial, sino también en inteligencia defensiva. Si deseas conocer más de las nuevas medidas de ciberseguridad del momento como las que aplica OpenAI, escríbenos a [email protected]. Tenemos un equipo de expertos en ciberseguridad para que cuentes con lo mejor de la tecnología.