En Washington no cambió un proveedor. Cambió una señal estratégica y los dominicanos no se dan cuenta del peligro. El United States Department of Defense (Pentágono) decidió sustituir a Anthropic por OpenAI en un acuerdo millonario que trasciende lo tecnológico. No es una actualización de software; es una redefinición del margen operativo del poder.
El punto de ruptura fue una frase contractual: «Para cualquier propósito lícito«. Una redacción que, en apariencia técnica, abre un debate político profundo.
El contrato como frontera invisible El Pentágono buscaba un marco amplio. Mientras el uso fuera legal, el modelo podía emplearse. Anthropic exigió algo más específico:
-
Prohibiciones explícitas sobre vigilancia masiva doméstica.
-
Prohibiciones explícitas sobre armas plenamente autónomas.
-
Límites técnicos que se mantuvieran incluso si el uso era formalmente legal.
No era un desacuerdo comercial. Era una diferencia de visión sobre hasta dónde puede llegar la inteligencia artificial (IA) cuando se integra al aparato militar y poder disparar de forma autónoma sin consulta a un ser humano.
Levantar salvaguardas: qué implica realmente En IA avanzada, las salvaguardas son estructura: filtros algorítmicos, clasificadores de riesgo, restricciones de integración, sistemas de auditoría y bloqueos automáticos. Levantarlas significa permitir que el modelo opere sin esas restricciones o que el cliente pueda modificarlas. En términos simples: pasar de una IA con límites a una IA adaptable a cualquier arquitectura estratégica.
Vigilancia masiva: la dimensión silenciosa Cuando se habla de vigilancia masiva doméstica, se trata de analizar grandes volúmenes de datos ciudadanos, cruzar información pública y privada, inferir perfiles conductuales y automatizar alertas sin sospecha previa.
La IA actual puede reconstruir redes sociales reales y anticipar comportamientos. Algo puede ser legal porque los datos son públicos, pero cuando la escala es algorítmica, la vigilancia deja de ser episódica y se vuelve estructural.
Armas plenamente autónomas: el umbral moral Una arma plenamente autónoma decide, detecta, evalúa y dispara sin intervención humana directa. No hablamos de asistencia táctica, sino de delegación letal. Los errores de clasificación y la escala de errores técnicos integrados en este ciclo plantean un dilema moral profundo.
El impacto para República Dominicana y América Latina La República Dominicana mantiene estrechos vínculos de cooperación en seguridad con Estados Unidos. Si el estándar contractual en Washington evoluciona hacia un marco de «uso lícito«, ese estándar puede irradiarse a través de acuerdos bilaterales y sistemas interoperables.
La preocupación es que sistemas de IA con capacidad de agregación masiva de datos puedan integrarse en esquemas de cooperación bajo criterios poco definidos, permitiendo el monitoreo estructural de ciudadanos dominicanos bajo el argumento de seguridad hemisférica.
La historia latinoamericana enseña prudencia. La inteligencia artificial amplifica el poder del Estado, pero también el margen de error y la erosión de los contrapesos.
La soberanía del siglo XXI no solo se defiende en el territorio; se defiende en los datos y en el código. Porque el día que la seguridad ya no necesite preguntarnos nada, tal vez ya no quede nadie a quien proteger.










