Noticias mobile
El experto en computación e Inteligencia Artificial Stuart Russell alertó este martes en París de que el auge en popularidad e inversión en IA, que estima en "múltiples billones de euros", es "una burbuja que explotará" con "una probabilidad del 75%".
En la convención de la Asociación Internacional de la Inteligencia Artificial Segura y Ética (IASEAI), que este 2026 celebra su segunda edición en la sede de la Organización de Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) en la capital francesa, Russell opinó que "las capacidades actuales de la IA no justifican el nivel de inversión" que se ha alcanzado en el sector.
"El problema que tenemos con los sistemas de IA que estamos construyendo ahora es que, puesto que no entendemos cómo funcionan, realmente no podemos pedirles que hagan lo que nosotros queremos, ni siquiera aunque podamos especificarlo con gran precisión, y no podemos impedirles hacer cosas que violen cualquier código moral o de responsabilidad", agregó en rueda de prensa.
Riesgo de insolvencia
Con su pronóstico coincide el presidente y secretario general del Instituto Future of Life, Anthony Aguirre, quien aseguró a EFE que podría existir "tal diferencia entre las capacidades de la IA y el momento en el que estas se vayan a adoptar" realmente, que los grandes inversores "se queden sin dinero" y, entonces, se viva "un batacazo financiero".
"Creo que es importante recordar que lo que produce este extraordinario nivel de inversión en la IA no es que la gente compre suscripciones de ChatGPT por 20 dólares, sino que se presente a los inversores como un reemplazo de buena parte de sus trabajadores", explicó.
Al respecto, añadió que, "si se está diciendo a los políticos que no" se va a reemplazar a los trabajadores con estas tecnologías, "entonces están mintiendo a alguien, porque eso es lo que dicen a los inversores y es lo que da sentido a esas enormes inversiones".
Falta de control ético
Por su parte, el experto en IA y ganador del premio Turing a la Computación (2018) Yoshua Bengio consideró que el problema de raíz son "los incentivos que conducen a las compañías a competir" en lugar de "trabajar por el bien común", una situación que compara a "la de los combustibles fósiles o los cigarrillos".
"Creo que lo que los ciudadanos pueden hacer y que tendrá mucho más impacto en nuestro futuro es influir en la política, que se vuelva una prioridad decirle a los gobiernos que se necesitan controlar (estas tecnologías)", añadió Bengio.
El director general de la Unesco, Jaled al Anani, señaló durante su intervención en el acto que "la cuestión ya no es si la IA transformará nuestras sociedades, sino con y para quién, con qué propósito y bajo qué condiciones".
Durante los paneles de discusión del evento de IASEAI en París se escucharon también opiniones como la de la experta en IA Sasha Rubel, quien señaló que "alrededor del 85% de organizaciones ve ahora el uso responsable de la IA como una gran prioridad, pero tan solo un 23% de ellas tiene una gobernabilidad con IA realmente responsable".
"Cuando hablo con políticos sobre la importancia de mantener un uso ético y responsable de la IA todos dicen estar de acuerdo, pero cuando esto mismo lo planteamos a ingenieros y programadores, nos dicen "muy bien, pero ¿qué quieren que hagamos exactamente?"", ejemplificó.
La IASEAI es una organización sin ánimo de lucro que se autodefine como "fundada para tratar los riesgos y oportunidades asociados con los rápidos avances de la Inteligencia Artificial".
Su edición de 2026 ofrecerá charlas, presentaciones y talleres sobre IA del 24 al 26 de febrero y contará con la participación de Joseph Stiglitz, premio Nobel de economía (2001), y de Geoffrey Hinton, Nobel de física (2024) y ganador del galardón Turing a la Computación 2018 junto a Yoshua Bengio.
Leer Más
La compañía de inteligencia artificial Anthropic denunció una "campaña de ataques de destilación" (entrenar modelos de IA menos potentes a partir de otros más fuertes) desde DeepSeek, Moonshot AI y MiniMax, tres laboratorios de IA de China a los que acusa de técnicas fraudulentas para plagiar a su modelo Claude.
"Hemos identificado campañas a escala industrial por parte de DeepSeek, Moonshot AI y MiniMax para extraer ilícitamente las capacidades de Claude para mejorar sus propios modelos", denunció Anthropic en las últimas horas en un comunicado.
Según Anthropic, estos tres laboratorios de IA con sede en China mantuvieron más de 16 millones de interacciones con Claude a través de aproximadamente 24.000 cuentas fraudulentas, en violación de sus términos de servicio y de las restricciones de acceso regionales.
La compañía con sede en San Francisco describió estas técnicas como "ataques de destilación", que consisten en entrenar un modelo menos capaz basándose en los resultados de uno más fuerte.
La destilación es un método de entrenamiento legítimo y ampliamente utilizado en el sector de la IA, pero también puede usarse con fines ilícitos por parte de competidores que la usan para adquirir capacidades poderosas de otros laboratorios en mucho menos tiempo y menor precio de lo que les llevaría desarrollarlas de forma independiente.
Anthropic denunció que éste fue un caso de destilación "ilícita" porque usó "cuentas fraudulentas y servicios de proxy", ocultando la ubicación para acceder a Claude a gran escala sin ser detectados.
"El volumen, la estructura y el enfoque de los "prompts" eran distintos de los patrones de uso normales, lo que refleja una extracción de capacidades deliberada en lugar de un uso legítimo", argumentó la compañía.
El informe también apunta que la destilación ilícita por parte de DeepSeek, hómonimo de OpenAI en China, se fundamentó en extraer el razonamiento interno de Claude para crear "alternativas seguras a la censura para consultas políticamente sensibles".
Anthropic advirtió de que los modelos destilados ilícitamente "carecen de las salvaguardas necesarias" para impedir "posibles desarrollos de armas biológicas o actividades cibernéticas maliciosas", lo que supone un "riesgo significativo para la seguridad nacional".
Leer Más
Mobile Version 1.5
© 2003 - 2026 GigaBytes.cl