Noticias mobile

Pentágono amenazó con intervenir Anthropic si no cede ante el uso militar de su IA

El Departamento de Guerra de Estados Unidos y la empresa de inteligencia artificial (IA) Anthropic se encuentran en una escalada de tensión que podría culminar en una intervención gubernamental, debido a las discrepancias sobre el uso de la tecnología para fines letales y de vigilancia, según informó este viernes The Washington Post. La disputa, que alcanzó niveles críticos esta semana, se centra en si el modelo de lenguaje Claude, desarrollado por Anthropic, puede ser utilizado en sistemas de armas autónomas y en la toma de decisiones durante escenarios de conflicto extremo, incluyendo hipotéticos ataques nucleares. El Pentágono fijó la fecha límite para Anthropic para las 17:01 hora local (19:01 hora Chile) de este viernes. De no cumplir con las exigencias, el Gobierno señaló que podría invocar su autoridad legal -posiblemente a través de la Ley de Producción de Defensa (DPA, por sus siglas en inglés)- para obligar a la empresa a entregar su tecnología, además de incluirla en una "lista negra" para futuros contratos de defensa. La tecnológica había recibido un contrato de 200 millones de dólares en julio de 2025 para desarrollar capacidades de IA de seguridad nacional. Anthropic ha buscado garantías de que Claude no se use para armas autónomas ni espionaje de ciudadanos estadounidenses, mientras que el Pentágono quiere aplicarlo en "todos los casos de uso legal". Según una fuente de Defensa citada por el rotativo, el jefe de tecnología del Pentágono redujo el debate a un escenario nuclear de vida o muerte en una reunión -el mes pasado- e hizo la siguiente pregunta: si se lanzara un misil balístico intercontinental contra Estados Unidos ¿podrían los militares utilizar el sistema de inteligencia artificial Claude de Anthropic para ayudar a derribarlo? La respuesta del director ejecutivo de Anthropic, Dario Amodei, fue algo similar a: "Podrías llamarnos y lo resolveríamos", algo que irritó al Pentágono, según afirma el medio. No obstante, un vocero de Anthropic negó a The Washington Post que Amodei diera esa respuesta, calificándola de "manifiestamente falsa" y afirmando que la compañía accedió a permitir el uso de Claude para la defensa antimisiles. Conflicto con tintes políticos, Trump ordena dejar de usar IA Anthropic El presidente, Donald Trump, ordenó este viernes a las agencias federales dejar de usar la tecnología de Anthropic después de que la empresa se negara a ceder el uso completo de su modelo de inteligencia artificial (IA) Claude al Departamento de Guerra. "Ordeno a TODAS las agencias federales del Gobierno de Estados Unidos que CESE INMEDIATAMENTE todo uso de la tecnología de Anthropic. ¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos!", escribió el mandatario en su red Truth Social. Trump indicó que agencias como el Departamento de Guerra tendrán un periodo de transición de seis meses para dejar de usar la tecnología de la compañía de IA. "Más vale que Anthropic se ponga las pilas y colabore durante este periodo de transición o utilizaré todo el poder de la presidencia para obligarlos a cumplir, con las importantes consecuencias civiles y penales que ello conllevaría", amenazó. En su publicación en Truth Social, Trump aseguró que "los locos de izquierda de Anthropic han cometido un ERROR DESASTROSO" al intentar "presionar" al Pentágono para que acepten sus condiciones "en lugar de nuestra Constitución". "NOSOTROS decidiremos el destino de nuestro país, no una empresa de IA radical de izquierda fuera de control dirigida por personas que no tienen ni idea de cómo es el mundo real", aseveró el mandatario. Por su parte, el portavoz del Pentágono, Sean Parnell, aseguró ayer en una publicación en la red social X que "el Departamento de Guerra no tiene ningún interés en usar IA para realizar vigilancia masiva de estadounidenses (lo cual es ilegal) ni quiere usar IA para desarrollar armas autónomas que funcionen sin intervención humana. Esta narrativa es falsa y la difunden izquierdistas en los medios". "Solicitamos lo siguiente: Permitir que el Pentágono utilice el modelo de Anthropic para todos los fines legales", anotó, y señaló que EE. UU. no permitirá que "ninguna empresa dicte las condiciones de las decisiones operativas". El subsecretario Emil Michael dijo a CBSNews ayer que Anthropic fue invitada a participar en la junta de ética de IA, pero que no se pueden poner las normas y políticas del Ejército y el Gobierno de Estados Unidos en manos de una sola empresa privada". Anthropic anunció que no cederá  Anthropic anunció que no cederá a los términos del Pentágono para el uso completo de su herramienta de inteligencia artificial Claude, al considerar que permitir su uso en armas totalmente autónomas o en vigilancia masiva sería "incompatible con los valores democráticos". La empresa informó en un comunicado firmado por su director ejecutivo, Dario Amodei, que "no puede, de buena fe, acceder a la solicitud" del Departamento de Guerra estadounidense de permitir el uso sin restricciones de su tecnología. Anthropic aclaró que no se retira de las negociaciones, pero que el nuevo texto del contrato recibido del Departamento de Defensa "prácticamente no avanzó en la prevención del uso de Claude para la vigilancia masiva de estadounidenses ni en armas totalmente autónomas". Anthropic señaló que, aunque apoya el uso de la IA para misiones legales de inteligencia extranjera y contrainteligencia, "el uso de estos sistemas para vigilancia doméstica masiva es incompatible con los valores democráticos" y representa "riesgos novedosos y graves para nuestras libertades fundamentales". Según el comunicado, Claude se utiliza ampliamente para "análisis de inteligencia, modelado y simulación, planificación operativa, operaciones cibernéticas y más". Sin embrago, advirtió que las armas totalmente autónomas "no son lo suficientemente confiables para poner en riesgo a nuestros soldados y civiles" y que "necesitan ser desplegadas con salvaguardas adecuadas, que hoy no existen". Así, la empresa concluyó que, de ser retirada del contrato, trabajará para "permitir una transición fluida a otro proveedor, evitando cualquier interrupción en la planificación militar, operaciones u otras misiones críticas".
Leer Más

Ni prohibir ni dejar sin reglas: el equilibrio que buscan las universidades frente a la IA

En un contexto donde la Inteligencia Artificial (IA) ya forma parte del mundo laboral y profesional, las universidades chilenas avanzan hacia un modelo que combina regulación, transparencia y formación ética, y el consenso parece claro: más que prohibir, se trata de incorporarla sin afectar la integridad académica ni el desarrollo del pensamiento crítico. Según cifras de la Universidad de Chile, un 81 por ciento de estudiantes de primer año reconoce utilizar herramientas de IA en su proceso de estudio, lo que evidencia la masificación de estas tecnologías en la formación universitaria. En paralelo, el estudio "IA en la UC", parte de la Encuesta sobre la IA en la Educación Superior en América Latina 2026 del Digital Education Council realizado entre julio y diciembre de 2025, mostró que la adopción de la inteligencia artificial en la universidad es masiva y transversal. El estudio revela que estudiantes y académicos chilenos tienen una visión positiva de la IA (3,7 sobre 5), aunque existe incertidumbre sobre riesgos, límites y responsabilidades institucionales. Un 96 por ciento de los docentes prevé transformaciones profundas en la práctica educativa y manifiesta preocupación por la integridad académica y el rediseño de las evaluaciones. Además, se identifican tensiones éticas y cognitivas, como la ambigüedad normativa, la dependencia tecnológica y el cognitive offloading, es decir, delegar tareas propias del aprendizaje -reflexión, análisis crítico o producción de contenidos- a sistemas de IA. A nivel latinoamericano, los resultados muestran que un 92 por ciento de los estudiantes y un 79 por ciento de los docentes utilizan activamente estas herramientas, lo que evidencia que su uso no responde a una brecha generacional. Escalas de uso y "contratos formativos" Algunas instituciones han comenzado a implementar escalas que definen distintos niveles de uso permitido de la IA en las asignaturas. Estas van desde actividades donde su uso debe ser limitado o regulado, hasta instancias en que puede emplearse de manera integrada y declarada, siempre alineada con los resultados de aprendizaje. "Esta incorporación no busca prohibir el uso de la Inteligencia Artificial, sino regularlo pedagógicamente, estableciendo criterios claros sobre cuándo, cómo y para qué puede utilizarse dentro del proceso formativo"  explicó la vicerrectora académica de la Universidad Finis Terrae, Elisa Marchant. Marchant señala que, en el caso de los trabajos que deben realizarse obligatoriamente sin inteligencia artificial, esto debe estar claramente indicado en el programa del curso para evitar "cualquier ambigüedad o conflicto posterior", un enfoque que las autoridades académicas describen como una especie de "contrato formativo". Esto se hace para que el estudiante conozca de antemano qué nivel de uso está permitido en cada evaluación, "lo que fortalece la confianza y previene problemas derivados de la falta de claridad". "No tenemos restricciones, pero si tenemos límites" Otras universidades han optado por reforzar sus normativas antiplagio incorporando explícitamente el uso de la Inteligencia Artificial dentro de sus reglamentos, estableciendo criterios y límites para resguardar la integridad académica. Jaime Carvajal, director de Ambientes Virtuales de Aprendizaje de la Universidad UNIACC, sostuvo que el desafío es principalmente formativo y no punitivo. "Más que sancionar, tenemos que educar. Es fundamental la educación tanto en nuestros estudiantes como en académicos", dijo. Además, explicó que la institución cuenta con un curso para académicos en sus campus virtuales y mantiene un acuerdo de colaboración con Online Education Skills Institute (OESI), una de las dos instituciones a nivel internacional que acredita y certifica estándares de calidad para asignaturas impartidas en modalidad online o semipresencial. Respecto de los límites, la universidad establece porcentajes máximos de similitud en los trabajos académicos: en evaluaciones de pregrado el máximo aceptable es de 30 por ciento, mientras que en tesis, investigaciones o publicaciones con sello institucional el límite es de 15 por ciento. Para evaluar estos indicadores se utilizan softwares de detección de originalidad que permiten identificar el uso de IA con altos niveles de certeza. En esa línea, Carvajal enfatizó que "no tenemos restricciones, pero sí tenemos límites", subrayando que el objetivo no es prohibir estas herramientas, sino establecer reglas claras para su uso. Un enfoque que, cada vez más, están adoptando distintas universidades, para lograr una integración de la IA que aporte al proceso educativo sin comprometer la integridad académica ni el desarrollo del pensamiento crítico.
Leer Más

Mobile Version 1.5
© 2003 - 2026 GigaBytes.cl