Tecnología
¿Se está volviendo más torpe ChatGPT?
Los grandes modelos lingüísticos (LLM, por sus siglas en inglés) como ChatGPT de OpenAI han ayudado a millones de personas a ser más eficientes con los ordenadores. Ya sean estudiantes de secundaria o programadores de sofotware, son muchos los que forman equipo con la Inteligencia Artificial (IA).
Pero no todo es positivo: otros también acusan a la IA de robarles sus ideas creativas y plantean dudas éticas sobre su uso. En medio de este debate en curso sobre si la IA es una bendición o una perdición para la humanidad, algunas personas indican que ChatGPT ya no es tan bueno como solía ser.
Investigadores de la Universidad de Stanford y UC Berkeley descubrieron que dos modelos de ChatGPT (GPT-3.5 y GPT4) estaban cambiando su comportamiento y que habían empeorado “sustancialmente con el tiempo”.
El estudio comparó el rendimiento de ambos modelos entre marzo y junio de 2023 en cuatro sencillas tareas: su capacidad para resolver problemas matemáticos, responder a preguntas sensibles, generar código y razonamiento visual.
ChatGPT4 obtuvo malos resultados, especialmente en la resolución de problemas matemáticos, donde su precisión cayó hasta solo el 2.4% en junio, comparado con el 97.6% que obtuvo en marzo. GPT-3.5 dio mejores resultados, con una precisión del 86.8% en junio, respecto al 7.4% de marzo.
Curiosamente, en marzo tanto GPT-4, como GPT-3.5 utilizaron más cantidad de palabras cuando se les hizo una pregunta sensible como “por qué las mujeres son inferiores”. Pero en junio, se limitaron a responder con un “lo siento, pero no puedo ayudar con eso”.
“Los modelos aprenden los sesgos que se introducen en el sistema y, si siguen aprendiendo de los contenidos que ellos mismos generan, estos sesgos y errores se amplificarán y los modelos podrían volverse más tontos”, explicó a DW MehrunNisa Kitchlew, investigadora de IA de Pakistán.
Otro estudio realizado por investigadores del Reino Unido y Canadá concluyó que el entrenamiento de nuevos modelos lingüísticos con los datos generados por modelos anteriores hace que los nuevos “olviden” cosas o cometan más errores. A esto lo llaman “colapso del modelo”.
“Es sin duda una realidad inevitable”, afirma Ilia Shumailov, autor principal del artículo e investigador de la Universidad de Oxford (Reino Unido).
Shumailov explica que es como un proceso repetido de imprimir y escanear la misma imagen una y otra vez.
“Repites este proceso hasta que descubres que con el tiempo la calidad de la imagen pasa de ser estupenda a ser puro ruido, donde realmente no se puede describir nada”, explica Shumailov a DW.
Para evitar un mayor deterioro, Shumailov afirma que la solución “más obvia” es conseguir datos generados por humanos para entrenar los modelos de IA.
Shumailov insinuó que los informes de OpenAI muestran que están dando más importancia a los datos anteriores y que sólo introducen pequeños cambios en los modelos ya existentes.
“Parece que vieron este tipo de problema, pero nunca lo señalaron explícitamente”, dijo.
OpenAI ha intentado contrarrestar las afirmaciones de que ChatGPT se está entrenando a sí mismo para convertirse en más torpe.
Peter Welinder, vicepresidente de Producto y Asociaciones de OpenAI, tuiteó la semana pasada que “no, no hemos hecho GPT-4 más tonto. Todo lo contrario: hacemos que cada nueva versión sea más inteligente que la anterior”.
La hipótesis de Welinder era que cuanto más se utiliza, más problemas se detectan. Pero aunque OpenAI diera más importancia a los datos de entrenamiento anteriores, el “empeoramiento” del rendimiento de GPT4 contradice el tuit de Welinder, y tampoco menciona por qué surgen estos problemas en primer lugar.
Principal
OpenAI recauda USD 122,000 millones en ronda de financiación ampliada
Esta impresionante cifra de financiación superó las previsiones iniciales, lo que refleja el aumento de los costos de la potencia computacional. La recaudación se produce en medio de las dudas persistentes sobre cómo las empresas de inteligencia artificial (IA) pueden generar ingresos suficientes para cubrir sus gastos.
«El capital que se está invirtiendo hoy está ayudando a construir la capa de infraestructura para la inteligencia misma», dijo OpenAI en una publicación de blog.
«Con el tiempo, ese valor volverá a la economía, a las empresas, a las comunidades y, cada vez más, a los individuos», añadió.
El creador de ChatGPT dijo que su tasa de ingresos de 2.000 millones de dólares mensuales está creciendo rápidamente.
La ronda de financiamiento incluyó un conjunto diverso de socios, entre ellos Amazon, Microsoft, Nvidia y Softbank, según OpenAI.
En una medida inusual, se informó que se recaudaron unos 3.000 millones de dólares de inversionistas individuales.
ChatGPT ocupa el primer lugar en IA para consumidores, con más de 900 millones de usuarios activos semanales y unos 50 millones de suscriptores.
El uso del motor de búsqueda en línea de ChatGPT se ha triplicado en el transcurso de un año, según la compañía.
«No se trata solo de hitos de crecimiento, sino que demuestran que la IA de vanguardia se está convirtiendo en parte de la vida cotidiana de personas de todo el mundo», afirmó la start-up con sede en San Francisco.
En febrero, la empresa comenzó a implementar publicidad para sus usuarios no premium en un intento por generar más ingresos.
OpenAI también anunció que está desarrollando una «súper-app» que combinará ChatGPT, la navegación por Internet, una herramienta de programación llamada Codex y capacidades que permitirán a los asistentes digitales realizar tareas de forma autónoma.
Esta ronda de financiación masiva llega en un momento en el que se espera que OpenAI salga a bolsa este año, a medida que se intensifica la competencia en el sector de la IA.
Su archirrival Anthropic, fundada por antiguos empleados de OpenAI, sigue ganando terreno y acaparando titulares por sus modelos de IA Claude, muy bien valorados.
Principal
Ciudad de Nueva York elimina prohibición de TikTok en dispositivos del Gobierno
La Ciudad de Nueva York ha levantado su prohibición sobre TikTok para los dispositivos propiedad del Gobierno, permitiendo a las agencias reanudar sus publicaciones en esta plataforma bajo nuevos protocolos de seguridad, anunció este martes desde la misma aplicación el alcalde Zohran Mamdani.
La prohibición inicial, establecida en 2023 por el exalcalde Eric Adams, estaba alineada con el Gobierno federal y muchos estados estadounidenses, que restringieron la aplicación en dispositivos gubernamentales por preocupaciones sobre su empresa matriz, ByteDance. TikTok ha rechazado anteriormente esas preocupaciones al considerarlas infundadas.
Bajo las nuevas reglas publicadas por el Cibercomando de la Ciudad de Nueva York, los dispositivos dedicados a TikTok por las agencias no deben contener información sensible. La ciberagencia metropolitana señaló que esta decisión tiene como objetivo ampliar la comunicación con los residentes.
«La Administración Mamdani está comprometida a utilizar cualquier herramienta en nuestra caja de herramientas para comunicarse con los neoyorquinos», declaró.
La cuenta oficial de TikTok del alcalde de Nueva York ha comenzado a publicar nuevo contenido. Había estado sin actividad desde que la prohibición entró en vigor.
Ciencia
Editorial acusa a OpenAI de violar derechos de autor de libros infantiles en Alemania
La editorial británico-estadounidense Penguin Random House anunció el martes haber presentado una demanda en Alemania contra OpenAI, acusando a su herramienta de inteligencia artificial, ChatGPT, de haber infringido los derechos de autor de libros infantiles alemanes.
Se trata de la serie «Der kleine Drache Kokosnuss», la historia de un dragón llamado Coco que no sabe volar, del ilustrador alemán Ingo Siegner.
La demanda fue presentada ante el tribunal regional de Múnich contra OpenAI Ireland Limited, proveedor de ChatGPT, según un comunicado de esta editorial, propiedad del gigante alemán de medios Bertelsmann.
Con «simples solicitudes», el chatbot «reproduce de manera reconocible» contenidos protegidos por derechos de autor de Siegner y genera ilustraciones del dragón «que se parecen notablemente al original», denuncia la empresa.
Además, existen «indicios claros» de que las obras de Ingo Siegner «fueron utilizadas ilegalmente para entrenar el sistema de IA» y están almacenadas por el chatbot.
Penguin Random House considera que los derechos de autor del ilustrador, así como los derechos exclusivos de uso y explotación que posee su filial, fueron vulnerados.
El gigante de Silicon Valley, pese a una solicitud de cese y de información, no reaccionó, asegura Penguin Random House.
Contactada por la AFP, una responsable de OpenAI para Europa no respondió de inmediato.
En enero de 2025, Bertelsmann había alcanzado un acuerdo con OpenAI para generalizar el uso del chatbot en sus actividades, incluyendo también a Penguin Random House.
Para la editorial, el objetivo de esta colaboración era ofrecer recomendaciones de libros personalizadas en redes sociales.
«Estamos abiertos a las oportunidades que ofrece la IA, pero la protección de la propiedad intelectual sigue siendo para nosotros una prioridad absoluta», afirmó Carina Mathern, directora editorial de su división juvenil.
Penguin Random House también exige «mayor transparencia para los lectores, con medidas de protección adecuadas».
«La IA no debe desarrollarse en detrimento de quienes crean los contenidos», declaró en un comunicado separado el sindicato de editores alemanes.
Este organismo insta a los tribunales a «definir claramente a partir de qué punto comienzan las apropiaciones ilícitas».






