Tecnología
¿Se está volviendo más torpe ChatGPT?

Los grandes modelos lingüísticos (LLM, por sus siglas en inglés) como ChatGPT de OpenAI han ayudado a millones de personas a ser más eficientes con los ordenadores. Ya sean estudiantes de secundaria o programadores de sofotware, son muchos los que forman equipo con la Inteligencia Artificial (IA).
Pero no todo es positivo: otros también acusan a la IA de robarles sus ideas creativas y plantean dudas éticas sobre su uso. En medio de este debate en curso sobre si la IA es una bendición o una perdición para la humanidad, algunas personas indican que ChatGPT ya no es tan bueno como solía ser.
Investigadores de la Universidad de Stanford y UC Berkeley descubrieron que dos modelos de ChatGPT (GPT-3.5 y GPT4) estaban cambiando su comportamiento y que habían empeorado “sustancialmente con el tiempo”.
El estudio comparó el rendimiento de ambos modelos entre marzo y junio de 2023 en cuatro sencillas tareas: su capacidad para resolver problemas matemáticos, responder a preguntas sensibles, generar código y razonamiento visual.
ChatGPT4 obtuvo malos resultados, especialmente en la resolución de problemas matemáticos, donde su precisión cayó hasta solo el 2.4% en junio, comparado con el 97.6% que obtuvo en marzo. GPT-3.5 dio mejores resultados, con una precisión del 86.8% en junio, respecto al 7.4% de marzo.
Curiosamente, en marzo tanto GPT-4, como GPT-3.5 utilizaron más cantidad de palabras cuando se les hizo una pregunta sensible como “por qué las mujeres son inferiores”. Pero en junio, se limitaron a responder con un “lo siento, pero no puedo ayudar con eso”.
“Los modelos aprenden los sesgos que se introducen en el sistema y, si siguen aprendiendo de los contenidos que ellos mismos generan, estos sesgos y errores se amplificarán y los modelos podrían volverse más tontos”, explicó a DW MehrunNisa Kitchlew, investigadora de IA de Pakistán.
Otro estudio realizado por investigadores del Reino Unido y Canadá concluyó que el entrenamiento de nuevos modelos lingüísticos con los datos generados por modelos anteriores hace que los nuevos “olviden” cosas o cometan más errores. A esto lo llaman “colapso del modelo”.
“Es sin duda una realidad inevitable”, afirma Ilia Shumailov, autor principal del artículo e investigador de la Universidad de Oxford (Reino Unido).
Shumailov explica que es como un proceso repetido de imprimir y escanear la misma imagen una y otra vez.
“Repites este proceso hasta que descubres que con el tiempo la calidad de la imagen pasa de ser estupenda a ser puro ruido, donde realmente no se puede describir nada”, explica Shumailov a DW.
Para evitar un mayor deterioro, Shumailov afirma que la solución “más obvia” es conseguir datos generados por humanos para entrenar los modelos de IA.
Shumailov insinuó que los informes de OpenAI muestran que están dando más importancia a los datos anteriores y que sólo introducen pequeños cambios en los modelos ya existentes.
“Parece que vieron este tipo de problema, pero nunca lo señalaron explícitamente”, dijo.
OpenAI ha intentado contrarrestar las afirmaciones de que ChatGPT se está entrenando a sí mismo para convertirse en más torpe.
Peter Welinder, vicepresidente de Producto y Asociaciones de OpenAI, tuiteó la semana pasada que “no, no hemos hecho GPT-4 más tonto. Todo lo contrario: hacemos que cada nueva versión sea más inteligente que la anterior”.
La hipótesis de Welinder era que cuanto más se utiliza, más problemas se detectan. Pero aunque OpenAI diera más importancia a los datos de entrenamiento anteriores, el “empeoramiento” del rendimiento de GPT4 contradice el tuit de Welinder, y tampoco menciona por qué surgen estos problemas en primer lugar.
Principal
Formación en ciberseguridad: clave para proteger tu vida digital

En un mundo donde gran parte de nuestras actividades cotidianas dependen de internet, la ciberseguridad se ha convertido en una necesidad básica. Desde compras en línea hasta servicios bancarios, redes sociales y correos electrónicos, cada acción implica el uso de datos sensibles que pueden ser vulnerables a ataques si no se cuenta con la formación adecuada. Aprovechar los recursos disponibles para formarse en esta área es fundamental no solo para profesionales, sino para cualquier ciudadano digital.
Plataformas especializadas como WeLiveSecurity, del laboratorio de investigación de la empresa de seguridad informática ESET, ofrecen artículos, guías y noticias actualizadas sobre las amenazas más recientes y las mejores prácticas para protegerse. Sus contenidos permiten entender cómo funcionan los ataques, cuáles son las técnicas más usadas por los ciberdelincuentes y qué herramientas existen para prevenir riesgos.
Uno de los primeros pasos para mejorar la seguridad digital es contar con contraseñas robustas, únicas y difíciles de descifrar. Sin embargo, memorizar múltiples claves complejas puede ser una tarea complicada. Es ahí donde entran en juego los gestores de contraseñas, herramientas diseñadas para almacenar y generar claves seguras de forma automática.
Entre los gestores de contraseñas más recomendados destacan Bitwarden, 1Password, Dashlane, LastPass y NordPass. Estas plataformas ofrecen versiones gratuitas y de pago, con funciones que van desde almacenamiento ilimitado de contraseñas hasta auditorías de seguridad, alertas de vulnerabilidad y acceso compartido cifrado para equipos de trabajo.
El uso de un gestor de contraseñas es más sencillo de lo que parece. A continuación, se detalla un ejemplo básico utilizando Bitwarden, una de las opciones de código abierto más seguras y populares:
- Crear una cuenta: Accede a https://bitwarden.com y crea un usuario con una contraseña maestra segura (es la única que deberás recordar).
- Instalar la extensión: Descarga la extensión del navegador (Chrome, Firefox, Edge, etc.) o la app móvil para gestionar tus credenciales en cualquier dispositivo.
- Guardar tus contraseñas: A medida que inicias sesión en tus sitios habituales, Bitwarden te ofrecerá guardar automáticamente tus credenciales.
- Generar nuevas claves seguras: El generador integrado te permite crear contraseñas aleatorias y complejas para nuevas cuentas o para reemplazar las antiguas.
- Autocompletado y sincronización: Una vez guardadas, las claves pueden completarse automáticamente y estarán disponibles desde cualquier dispositivo sincronizado.
Adicionalmente, muchos de estos gestores ofrecen autenticación de dos factores (2FA), lo cual añade una capa extra de seguridad al requerir una verificación adicional desde otro dispositivo, incluso si alguien accede a tu contraseña maestra.
Más allá de las contraseñas, la formación constante es clave. Comprender qué es el phishing, cómo detectar correos maliciosos, aprender a cifrar archivos o usar una VPN (Red Privada Virtual) para navegar con mayor privacidad son conocimientos que se vuelven indispensables. La alfabetización digital en seguridad debe ser parte de la educación básica en la era tecnológica.
En conclusión, invertir tiempo en la formación en ciberseguridad y en herramientas como los gestores de contraseñas no solo protege tus datos, sino que reduce riesgos para tu entorno personal y profesional. La seguridad digital comienza con la prevención, y los recursos están al alcance de todos.
Principal
OpenAI lanza nuevos modelos de IA de uso libre y anuncia alianzas estratégicas

OpenAI, la empresa creadora de ChatGPT, anunció este martes el lanzamiento de dos nuevos modelos de inteligencia artificial generativa gratuitos y personalizables, en un esfuerzo por competir con iniciativas similares provenientes de Estados Unidos y China.
Los modelos, denominados gpt-oss-120b y gpt-oss-20b, están diseñados bajo el concepto de “peso abierto”, lo que permite a los usuarios adaptarlos según sus necesidades. Uno de ellos puede ejecutarse en computadoras portátiles y el otro en dispositivos móviles, según detalló Sam Altman, cofundador de OpenAI.
Altman señaló que uno de los modelos alcanza el desempeño de la versión compacta “04-mini” de ChatGPT-4o, el sistema más avanzado desarrollado por la compañía hasta la fecha.
El anuncio se produce en medio de crecientes presiones para que OpenAI comparta más detalles sobre el funcionamiento interno de sus modelos, en línea con su misión fundacional de 2015, cuando se creó como una organización sin fines de lucro con el objetivo de garantizar que la inteligencia artificial beneficie a toda la humanidad.
En este contexto, OpenAI también reveló que trabaja con socios estratégicos como el grupo francés de telecomunicaciones Orange y la plataforma de datos en la nube Snowflake para aplicar estos modelos en escenarios reales.
El movimiento de OpenAI responde a una tendencia creciente en la industria hacia la apertura de código. Meta, casa matriz de Facebook, ha apostado por este enfoque, mientras que la startup china DeepSeek ha ganado protagonismo con modelos de IA de código abierto y alto rendimiento, que ofrecen a los usuarios mayor control sobre la tecnología.
Principal
WhatsApp elimina 6.8 millones de cuentas vinculadas a estafas en el sudeste asiático

Meta, empresa matriz de WhatsApp, anunció que ha eliminado más de 6.8 millones de cuentas asociadas a centros de estafas, principalmente en el sudeste asiático, como parte de sus esfuerzos para reforzar la seguridad en la plataforma de mensajería.
Según Clair Deevy, directora de asuntos externos de WhatsApp, muchas de estas cuentas fueron desactivadas antes de que pudieran ser utilizadas por organizaciones criminales. Las estafas, a menudo dirigidas por bandas organizadas, incluyen fraudes relacionados con inversiones ficticias en criptomonedas y esquemas piramidales que prometen riqueza rápida.
“Siempre hay una trampa, y debería ser una señal de alerta: cuando se te pide pagar por adelantado para obtener supuestas ganancias”, advirtió WhatsApp en una publicación oficial.
Una de las estafas fue rastreada hasta Camboya, donde los delincuentes usaron ChatGPT para generar mensajes automáticos que contenían enlaces a grupos de WhatsApp, según confirmaron Meta y OpenAI.
Como parte de sus nuevas medidas de protección, WhatsApp comenzó a mostrar «resúmenes de seguridad» a los usuarios que son agregados a chats grupales por contactos desconocidos. Estos incluyen información del grupo, consejos para detectar estafas y la opción de abandonar el grupo rápidamente.
“Todos hemos recibido mensajes de desconocidos prometiendo dinero fácil o exigiendo pagos por supuestas deudas. Detrás de estos mensajes, a menudo, hay estafadores que buscan aprovecharse del miedo o la buena voluntad de las personas”, concluyó Meta.