Tecnología
¿Se está volviendo más torpe ChatGPT?

Los grandes modelos lingüísticos (LLM, por sus siglas en inglés) como ChatGPT de OpenAI han ayudado a millones de personas a ser más eficientes con los ordenadores. Ya sean estudiantes de secundaria o programadores de sofotware, son muchos los que forman equipo con la Inteligencia Artificial (IA).
Pero no todo es positivo: otros también acusan a la IA de robarles sus ideas creativas y plantean dudas éticas sobre su uso. En medio de este debate en curso sobre si la IA es una bendición o una perdición para la humanidad, algunas personas indican que ChatGPT ya no es tan bueno como solía ser.
Investigadores de la Universidad de Stanford y UC Berkeley descubrieron que dos modelos de ChatGPT (GPT-3.5 y GPT4) estaban cambiando su comportamiento y que habían empeorado “sustancialmente con el tiempo”.
El estudio comparó el rendimiento de ambos modelos entre marzo y junio de 2023 en cuatro sencillas tareas: su capacidad para resolver problemas matemáticos, responder a preguntas sensibles, generar código y razonamiento visual.
ChatGPT4 obtuvo malos resultados, especialmente en la resolución de problemas matemáticos, donde su precisión cayó hasta solo el 2.4% en junio, comparado con el 97.6% que obtuvo en marzo. GPT-3.5 dio mejores resultados, con una precisión del 86.8% en junio, respecto al 7.4% de marzo.
Curiosamente, en marzo tanto GPT-4, como GPT-3.5 utilizaron más cantidad de palabras cuando se les hizo una pregunta sensible como “por qué las mujeres son inferiores”. Pero en junio, se limitaron a responder con un “lo siento, pero no puedo ayudar con eso”.
“Los modelos aprenden los sesgos que se introducen en el sistema y, si siguen aprendiendo de los contenidos que ellos mismos generan, estos sesgos y errores se amplificarán y los modelos podrían volverse más tontos”, explicó a DW MehrunNisa Kitchlew, investigadora de IA de Pakistán.
Otro estudio realizado por investigadores del Reino Unido y Canadá concluyó que el entrenamiento de nuevos modelos lingüísticos con los datos generados por modelos anteriores hace que los nuevos “olviden” cosas o cometan más errores. A esto lo llaman “colapso del modelo”.
“Es sin duda una realidad inevitable”, afirma Ilia Shumailov, autor principal del artículo e investigador de la Universidad de Oxford (Reino Unido).
Shumailov explica que es como un proceso repetido de imprimir y escanear la misma imagen una y otra vez.
“Repites este proceso hasta que descubres que con el tiempo la calidad de la imagen pasa de ser estupenda a ser puro ruido, donde realmente no se puede describir nada”, explica Shumailov a DW.
Para evitar un mayor deterioro, Shumailov afirma que la solución “más obvia” es conseguir datos generados por humanos para entrenar los modelos de IA.
Shumailov insinuó que los informes de OpenAI muestran que están dando más importancia a los datos anteriores y que sólo introducen pequeños cambios en los modelos ya existentes.
“Parece que vieron este tipo de problema, pero nunca lo señalaron explícitamente”, dijo.
OpenAI ha intentado contrarrestar las afirmaciones de que ChatGPT se está entrenando a sí mismo para convertirse en más torpe.
Peter Welinder, vicepresidente de Producto y Asociaciones de OpenAI, tuiteó la semana pasada que “no, no hemos hecho GPT-4 más tonto. Todo lo contrario: hacemos que cada nueva versión sea más inteligente que la anterior”.
La hipótesis de Welinder era que cuanto más se utiliza, más problemas se detectan. Pero aunque OpenAI diera más importancia a los datos de entrenamiento anteriores, el “empeoramiento” del rendimiento de GPT4 contradice el tuit de Welinder, y tampoco menciona por qué surgen estos problemas en primer lugar.
Tecnología
Google lanza Gemini CLI, una herramienta de inteligencia artificial para desarrolladores con múltiples funciones
Tecnología
Científicos húngaros crean un tetraedro único que podría revolucionar el aterrizaje de naves espaciales

Investigadores de la Universidad de Tecnología y Economía de Budapest, junto con la Red de Investigación Húngara y expertos internacionales, presentaron este miércoles un objeto geométrico innovador que podría inspirar nuevas tecnologías para el aterrizaje de sondas espaciales.
Se trata de un tetraedro especialmente diseñado, denominado “Bille”, que posee una propiedad física excepcional: sin importar cómo se coloque sobre una superficie plana, siempre vuelve a reposar sobre la misma cara. Este comportamiento es similar al de un juguete tentetieso y confirma una hipótesis matemática planteada en 1984 por el matemático británico John Conway, que hasta ahora no se había logrado materializar.
El proyecto estuvo liderado por el estudiante húngaro de arquitectura Gergo Almadi y el profesor Gabor Domokos, matemático y codescubridor del “Gömböc”, un cuerpo geométrico con un único punto de equilibrio. El equipo contó además con la colaboración del profesor Robert Dawson, de la Universidad Saint Mary’s en Canadá.
El tetraedro “Bille” fue construido con tubos ultraligeros de fibra de carbono y un núcleo de carburo de tungsteno para lograr el desequilibrio de masa necesario para su funcionamiento. Durante la presentación, los investigadores demostraron en vivo la capacidad del objeto para enderezarse automáticamente tras ser colocado de cualquier forma.
Domokos destacó que este avance “es mucho más que una curiosidad matemática”, ya que sus principios podrían facilitar el diseño de sondas espaciales que recuperen de forma natural una posición vertical tras aterrizar, evitando incidentes como la volcadura de sondas lunares recientes de Japón y Estados Unidos.
“A diferencia de las pruebas teóricas, este modelo funciona en el mundo real. Y eso es lo que lo hace realmente valioso”, concluyó el científico.
Principal
China desarrolla microdron del tamaño de un mosquito para misiones de espionaje

China ha revelado un nuevo avance en tecnología militar que podría transformar el espionaje a nivel global: un microdron con apariencia de mosquito, diseñado para infiltraciones discretas en entornos sensibles.
El prototipo fue desarrollado por la Universidad Nacional de Tecnología de la Defensa (NUDT) y presentado en un reportaje del canal militar chino CCTV-7. Uno de los estudiantes del equipo, Liang Hexiang, explicó que el dispositivo busca operar sin ser detectado, replicando el comportamiento y la forma de un insecto real.
El dron cuenta con un cuerpo delgado, tres patas diminutas y dos alas semitranslúcidas, lo que le permite camuflarse en entornos hostiles e incluso ocultarse en la palma de una mano. Su diseño apunta a labores de inteligencia donde la discreción es esencial.
Además del modelo tipo mosquito, el equipo también mostró otros microdrones, incluyendo uno con cuatro alas batientes que puede ser controlado desde un teléfono móvil, optimizado para operar en espacios reducidos.
Los ingenieros detrás del proyecto señalaron que el principal reto tecnológico radica en la miniaturización de componentes clave como sensores, sistemas de navegación, comunicaciones y especialmente las baterías, que deben ser lo suficientemente pequeñas y potentes para garantizar la operatividad del dron sin comprometer sus funciones críticas.
Este desarrollo refuerza el interés de China en la inteligencia artificial y la robótica aplicada al ámbito militar, generando expectativas —y preocupaciones— en la comunidad internacional sobre sus posibles usos.