Noticias mobile
El experto en computación e inteligencia artificial Stuart Russell alertó este martes en París de que el auge en popularidad e inversión en IA, que estima en "múltiples billones de euros", es "una burbuja que explotará" con "una probabilidad del 75%".
En la convención de la Asociación Internacional de la Inteligencia Artificial Segura y Ética (IASEAI), que este 2026 celebra su segunda edición en la sede de la Organización de Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) en la capital francesa, Russell opinó que "las capacidades actuales de la IA no justifican el nivel de inversión" que se ha alcanzado en el sector.
"El problema que tenemos con los sistemas de IA que estamos construyendo ahora es que, puesto que no entendemos cómo funcionan, realmente no podemos pedirles que hagan lo que nosotros queremos, ni siquiera aunque podamos especificarlo con gran precisión, y no podemos impedirles hacer cosas que violen cualquier código moral o de responsabilidad", agregó en rueda de prensa.
Riesgo de insolvencia
Con su pronóstico coincide el presidente y secretario general del Instituto Future of Life, Anthony Aguirre, quien aseguró a EFE que podría existir "tal diferencia entre las capacidades de la IA y el momento en el que estas se vayan a adoptar" realmente, que los grandes inversores "se queden sin dinero" y, entonces, se viva "un batacazo financiero".
"Creo que es importante recordar que lo que produce este extraordinario nivel de inversión en la IA no es que la gente compre suscripciones de ChatGPT por 20 dólares, sino que se presente a los inversores como un reemplazo de buena parte de sus trabajadores", explicó.
Al respecto, añadió que, "si se está diciendo a los políticos que no" se va a reemplazar a los trabajadores con estas tecnologías, "entonces están mintiendo a alguien, porque eso es lo que dicen a los inversores y es lo que da sentido a esas enormes inversiones".
Falta de control ético
Por su parte, el experto en IA y ganador del premio Turing a la Computación (2018) Yoshua Bengio consideró que el problema de raíz son "los incentivos que conducen a las compañías a competir" en lugar de "trabajar por el bien común", una situación que compara a "la de los combustibles fósiles o los cigarrillos".
"Creo que lo que los ciudadanos pueden hacer y que tendrá mucho más impacto en nuestro futuro es influir en la política, que se vuelva una prioridad decirle a los gobiernos que se necesitan controlar (estas tecnologías)", añadió Bengio.
El director general de la Unesco, Jaled al Anani, señaló durante su intervención en el acto que "la cuestión ya no es si la IA transformará nuestras sociedades, sino con y para quién, con qué propósito y bajo qué condiciones".
Durante los paneles de discusión del evento de IASEAI en París se escucharon también opiniones como la de la experta en IA Sasha Rubel, quien señaló que "alrededor del 85% de organizaciones ve ahora el uso responsable de la IA como una gran prioridad, pero tan solo un 23% de ellas tiene una gobernabilidad con IA realmente responsable".
"Cuando hablo con políticos sobre la importancia de mantener un uso ético y responsable de la IA todos dicen estar de acuerdo, pero cuando esto mismo lo planteamos a ingenieros y programadores, nos dicen "muy bien, pero ¿qué quieren que hagamos exactamente?"", ejemplificó.
La IASEAI es una organización sin ánimo de lucro que se autodefine como "fundada para tratar los riesgos y oportunidades asociados con los rápidos avances de la Inteligencia Artificial".
Su edición de 2026 ofrecerá charlas, presentaciones y talleres sobre IA del 24 al 26 de febrero y contará con la participación de Joseph Stiglitz, premio Nobel de economía (2001), y de Geoffrey Hinton, Nobel de física (2024) y ganador del galardón Turing a la Computación 2018 junto a Yoshua Bengio.
Leer Más
En un contexto donde la Inteligencia Artificial (IA) ya forma parte del mundo laboral y profesional, las universidades chilenas avanzan hacia un modelo que combina regulación, transparencia y formación ética, y el consenso parece claro: más que prohibir, se trata de incorporarla sin afectar la integridad académica ni el desarrollo del pensamiento crítico.
Según cifras de la Universidad de Chile, un 81 por ciento de estudiantes de primer año reconoce utilizar herramientas de IA en su proceso de estudio, lo que evidencia la masificación de estas tecnologías en la formación universitaria.
En paralelo, el estudio "IA en la UC", parte de la Encuesta sobre la IA en la Educación Superior en América Latina 2026 del Digital Education Council realizado entre julio y diciembre de 2025, mostró que la adopción de la inteligencia artificial en la universidad es masiva y transversal.
El estudio revela que estudiantes y académicos chilenos tienen una visión positiva de la IA (3,7 sobre 5), aunque existe incertidumbre sobre riesgos, límites y responsabilidades institucionales.
Un 96 por ciento de los docentes prevé transformaciones profundas en la práctica educativa y manifiesta preocupación por la integridad académica y el rediseño de las evaluaciones.
Además, se identifican tensiones éticas y cognitivas, como la ambigüedad normativa, la dependencia tecnológica y el cognitive offloading, es decir, delegar tareas propias del aprendizaje -reflexión, análisis crítico o producción de contenidos- a sistemas de IA.
A nivel latinoamericano, los resultados muestran que un 92 por ciento de los estudiantes y un 79 por ciento de los docentes utilizan activamente estas herramientas, lo que evidencia que su uso no responde a una brecha generacional.
Escalas de uso y "contratos formativos"
Algunas instituciones han comenzado a implementar escalas que definen distintos niveles de uso permitido de la IA en las asignaturas. Estas van desde actividades donde su uso debe ser limitado o regulado, hasta instancias en que puede emplearse de manera integrada y declarada, siempre alineada con los resultados de aprendizaje.
"Esta incorporación no busca prohibir el uso de la Inteligencia Artificial, sino regularlo pedagógicamente, estableciendo criterios claros sobre cuándo, cómo y para qué puede utilizarse dentro del proceso formativo" explicó la vicerrectora académica de la Universidad Finis Terrae, Elisa Marchant.
Marchant señala que, en el caso de los trabajos que deben realizarse obligatoriamente sin inteligencia artificial, esto debe estar claramente indicado en el programa del curso para evitar "cualquier ambigüedad o conflicto posterior", un enfoque que las autoridades académicas describen como una especie de "contrato formativo".
Esto se hace para que el estudiante conozca de antemano qué nivel de uso está permitido en cada evaluación, "lo que fortalece la confianza y previene problemas derivados de la falta de claridad".
"No tenemos restricciones, pero si tenemos límites"
Otras universidades han optado por reforzar sus normativas antiplagio incorporando explícitamente el uso de la Inteligencia Artificial dentro de sus reglamentos, estableciendo criterios y límites para resguardar la integridad académica.
Jaime Carvajal, director de Ambientes Virtuales de Aprendizaje de la Universidad UNIACC, sostuvo que el desafío es principalmente formativo y no punitivo. "Más que sancionar, tenemos que educar. Es fundamental la educación tanto en nuestros estudiantes como en académicos", dijo.
Además, explicó que la institución cuenta con un curso para académicos en sus campus virtuales y mantiene un acuerdo de colaboración con Online Learning Consortium (OLC), una de las dos instituciones a nivel internacional que acredita y certifica estándares de calidad para asignaturas impartidas en modalidad online o semipresencial.
Respecto de los límites, la universidad establece porcentajes máximos de similitud en los trabajos académicos: en evaluaciones de pregrado el máximo aceptable es de 30 por ciento, mientras que en tesis, investigaciones o publicaciones con sello institucional el límite es de 15 por ciento.
Para evaluar estos indicadores se utilizan softwares de detección de originalidad que permiten identificar el uso de IA con altos niveles de certeza.
En esa línea, Carvajal enfatizó que "no tenemos restricciones, pero sí tenemos límites", subrayando que el objetivo no es prohibir estas herramientas, sino establecer reglas claras para su uso.
Un enfoque que, cada vez más, están adoptando distintas universidades, para lograr una integración de la IA que aporte al proceso educativo sin comprometer la integridad académica ni el desarrollo del pensamiento crítico.
Leer Más
Mobile Version 1.5
© 2003 - 2026 GigaBytes.cl