Principal
Desbloqueando la IA empresarial con innovación open source: cualquier modelo, acelerador o nube
Por: Chris Wright, director de tecnología y vicepresidente sénior, Ingeniero Global, Red Hat
“Cualquier carga de trabajo, cualquier aplicación, en cualquier lugar” fue el mantra del Red Hat Summit 2023. Es cierto que, en los últimos dos años, hemos visto algunos cambios en TI. Pero la visión de Red Hat no ha cambiado, ha evolucionado.
“Cualquier modelo, acelerador o nube”.
Ese es el mensaje de la nube híbrida para la era de la IA. Y la mejor parte es que, al igual que la “antigua” nube híbrida, la innovación open source es la que impulsa todo. En el Red Hat Summit mostramos cómo los ecosistemas de IA estructurados en torno al open source y a modelos abiertos pueden generar nuevas opciones para las empresas.
La apertura trae consigo la posibilidad de elegir y esta libertad da paso a una mayor flexibilidad: desde el modelo que mejor responde a las necesidades de la empresa hasta el acelerador subyacente y el lugar donde se ejecutará efectivamente la carga de trabajo. Las estrategias de IA exitosas seguirán a los datos, dondequiera que se encuentren en la nube híbrida.
¿Y qué impulsa a la nube híbrida? El open source.
La inferencia potencia la IA
En mi opinión, debemos empezar a mirar más allá de los modelos. Sí, es verdad que los modelos son muy importantes para las estrategias de IA. Pero sin la inferencia, la faceta «práctica» de la IA, los modelos son simplemente conjuntos de datos que no «hacen» nada. La inferencia se refiere a la rapidez con la que un modelo responde a la información ingresada por el usuario y a la eficiencia con la que se pueden tomar decisiones en recursos informáticos acelerados. En última instancia, las respuestas lentas y la poca eficiencia cuestan dinero y generan desconfianza en el cliente.
Es por eso que me entusiasma mucho que Red Hat priorice la inferencia en nuestro trabajo con la IA open source, comenzando con el lanzamiento de Red Hat AI Inference Server. Esta solución, que surge a partir del proyecto open source vLLM líder y está optimizada con tecnologías Neural Magic, ofrece a las implementaciones de IA un servidor de inferencia con soporte, ciclo de vida completo y listo para producción. Lo mejor de todo es que puede rastrear tus datos dondequiera que se encuentren, ya que la solución funcionará con cualquier plataforma de Linux, cualquier distribución de Kubernetes, Red Hat o de cualquier otro modo.
¿Qué es mejor que la IA empresarial? La IA empresarial a gran escala
La aplicación estrella de la TI empresarial no es una única carga de trabajo unificada ni un nuevo servicio en la nube: es la capacidad de escalar de forma rápida y eficiente. Esto también se aplica a la IA. Sin embargo, la IA presenta una particularidad: los recursos informáticos acelerados que sustentan las cargas de trabajo de IA también deben escalarse. Esta no es una tarea fácil, en vista de los gastos y las habilidades necesarias para implementar este hardware en la forma debida.
Lo que necesitamos no es solo la capacidad de escalar la IA, sino también de distribuir cargas de trabajo masivas de IA entre múltiples clústeres de computación acelerada. Esto se ve agravado por el escalado del tiempo de inferencia que requieren los modelos de razonamiento y la IA agéntica. Al compartir la carga, se pueden reducir los problemas de rendimiento, mejorar la eficiencia y, en última instancia, la experiencia del usuario. Con el proyecto llm-d de código abierto, Red Hat ha tomado medidas para hacer frente a este problema.
El proyecto llm-d, dirigido por Red Hat y respaldado por líderes del sector de la IA en aceleración de hardware, desarrollo de modelos y cloud computing, combina el poder comprobado de la orquestación de Kubernetes con vLLM, uniendo dos referentes del open source para responder a una necesidad muy real. Junto con tecnologías como el enrutamiento de redes con IA y la descarga de caché KV, entre otras, llm-d descentraliza y democratiza la inferencia de IA y, de ese modo, ayuda a las empresas a optimizar sus recursos informáticos y disponer de cargas de trabajo de IA más efectivas y de menor costo.
Abierto a lo que se viene en IA, no solo al código
Llm-d y vLLM, incluidos en Red Hat AI Inference Server, son tecnologías open source preparadas para responder a los desafíos de la IA empresarial de hoy. Sin embargo, las comunidades de desarrollo no se limitan a analizar lo que se necesita hacer ahora. Las tecnologías de IA tienen una forma particular de acortar los plazos: el vértigo de la innovación implica que algo que se creía que no plantearía un desafío en años, de repente debe afrontarse de lleno.
Por ese motivo es que Red Hat está destinando recursos a la fase de desarrollo inicial de Llama Stack, el proyecto liderado por Meta que ofrece componentes básicos y API estandarizados para los ciclos de vida de las aplicaciones de IA generativa. Además, Llama Stack es ideal para crear aplicaciones de IA agénticas, que representan una nueva evolución de las potentes cargas de trabajo de IA generativa que vemos hoy en día. Más allá de su desarrollo inicial, Llama Stack está disponible como versión preliminar para desarrolladores dentro de Red Hat AI, para aquellas empresas que hoy quieran comprometerse con el futuro.
En lo que respecta a los agentes de IA, aún no contamos con un protocolo común para el modo en que otras aplicaciones les proporcionan contexto e información. Aquí es donde entra en juego el protocolo de contexto de modelo (MCP). Desarrollado y convertido en open source por Anthropic a fines de 2024, se trata de un protocolo estandarizado para las interacciones entre agente y aplicación, similar a los protocolos cliente-servidor de la informática tradicional. Pero lo más importante es que las actuales aplicaciones pueden, de improviso, valerse de la IA sin necesidad de una reimplementación a gran escala. Esto es importantísimo y no sería posible si no fuera por el poder del open source. Al igual que Llama Stack, MCP está disponible como versión preliminar para desarrolladores en la plataforma de Red Hat AI.
Los modelos propietarios de IA pueden haber logrado una ventaja inicial, pero no hay duda de que los ecosistemas abiertos los han superado, en especial en cuanto al software que sustenta estos modelos de IA de próxima generación. Gracias a vLLM y llm-d, junto con productos empresariales open source con seguridad reforzada, el futuro de la IA es prometedor, independientemente del modelo, el acelerador o la nube, y está impulsado por el open source y por Red Hat.
Internacionales
Orion de Artemis II ameriza con éxito en el Pacífico tras rodear la Luna: los cuatro astronautas están sanos y salvos
La cápsula Orion, apodada “Integrity” por su tripulación, amerizó con precisión en el Océano Pacífico frente a las costas de San Diego (California) el viernes 10 de abril de 2026 a las 8:07 p.m. EDT (00:07 UTC del 11 de abril), culminando con éxito la misión Artemis II de la NASA. Cuatro astronautas —tres estadounidenses y un canadiense— completaron así el primer vuelo tripulado más allá de la órbita baja terrestre desde las misiones Apollo de hace más de medio siglo.
La tripulación, compuesta por el comandante Reid Wiseman (NASA), el piloto Victor Glover (NASA), la especialista de misión Christina Koch (NASA) y el especialista de misión Jeremy Hansen (Agencia Espacial Canadiense), regresó sana y salva tras una odisea de casi diez días que incluyó un histórico sobrevuelo lunar el 6 de abril. Durante su punto más alejado de la Tierra, los astronautas alcanzaron una distancia récord de 252.757 millas (aproximadamente 406.773 kilómetros), superando la marca establecida por la Apollo 13.
El regreso fue un ejercicio de alta precisión y riesgo máximo. A las 7:33 p.m. EDT, el módulo de tripulación se separó del módulo de servicio, que se desintegró de forma controlada en la atmósfera sobre el Pacífico. Orion inició su reingreso a la atmósfera terrestre a las 7:53 p.m. EDT a una velocidad de aproximadamente 25.000 millas por hora (unos 40.000 km/h, o Mach 33), soportando temperaturas de hasta 2.760 °C en su escudo térmico. Durante seis minutos, la comunicación con la Tierra se interrumpió por el plasma generado alrededor de la cápsula.
A 23.400 pies de altitud se desplegaron los paracaídas de freno (drogue), reduciendo la velocidad a 479 pies por segundo. A 5.400 pies, se soltaron los drogue y se abrieron los tres paracaídas principales, frenando la cápsula hasta unos 20 millas por hora (32 km/h) en el momento del amerizaje. “Un perfecto bull’s-eye splashdown”, confirmó el control de misión.
Equipos conjuntos de la NASA, la Marina y la Fuerza Aérea de EE.UU. recuperaron la cápsula y a la tripulación a bordo del buque USS John P. Murtha. Los astronautas fueron extraídos mediante balsas inflables y helicópteros, y trasladados al buque para evaluaciones médicas iniciales antes de volar a Houston. La Orion será transportada al Naval Base San Diego y, posteriormente, al Centro Espacial Kennedy para un análisis exhaustivo de datos y hardware.
Artemis II, lanzada el 1 de abril de 2026 desde el Complejo de Lanzamiento 39B del Centro Espacial Kennedy a bordo del cohete SLS, fue una misión de prueba tripulada clave. Su objetivo principal: validar los sistemas de Orion en el entorno del espacio profundo de cara a Artemis III, la primera misión que intentará un alunizaje tripulado a finales de la década.
“La humanidad ha vuelto a la Luna”, resumió la NASA en su conferencia post-amerizaje. Con Artemis II, Estados Unidos y sus socios internacionales (incluida Canadá) dan un paso firme hacia una presencia sostenida en la Luna y, eventualmente, hacia Marte. El escudo térmico, los paracaídas y los sistemas de navegación demostraron un rendimiento impecable, superando las expectativas de los ingenieros.Mientras el mundo celebra este hito —el primero de una nueva era de exploración lunar tripulada—, los ojos ya se posan en los próximos pasos del programa Artemis. La cápsula Orion ha regresado, pero la ambición de la humanidad por expandir sus fronteras en el espacio apenas comienza.
Principal
Capturan en El Salvador a pandillero de la MS-13 detenido previamente en EE. UU.
Las autoridades de seguridad de El Salvador reportaron la captura de Elvis Saúl Flores Sánchez, identificado como miembro activo de la estructura criminal MS-13.
De acuerdo con el ministro Gustavo Villatoro, la detención fue posible gracias al trabajo conjunto entre la Policía Nacional Civil (PNC) y autoridades mexicanas, lo que permitió ubicar al sospechoso y proceder con su captura.
El funcionario también detalló que Flores Sánchez había sido previamente detenido por el Servicio de Inmigración y Control de Aduanas (ICE) en Los Ángeles, California, en Estados Unidos.
Tras su captura, el sujeto ya se encuentra en territorio salvadoreño, donde enfrentará los procesos judiciales correspondientes por los delitos que se le atribuyen.
«Ahora que se encuentra en territorio salvadoreño, nos encargaremos de que pague por cada uno de los delitos que ha cometido», destacó el funcionario, quien añadió: «Contamos con todas las herramientas necesarias para poder detectarlos y asegurarnos de que lleguen a su único destino: la cárcel».
Jetset
El sector hostelero de París espera una lluvia de millones con la nueva gira de Céline Dion
Los fans de Céline Dion no son los únicos entusiasmados con la nueva gira de la megaestrella en París: hoteles, restaurantes y tiendas esperan un impulso de varios millones de euros gracias a los asistentes a los conciertos en la capital francesa.
La cantante canadiense de 58 años anunció en marzo que volvía a los escenarios con 16 conciertos tras una larga pausa motivada por una rara enfermedad, que rompió con su actuación desde la Torre Eiffel durante la ceremonia inaugural de los Juegos Olímpicos de París-2024.
La Torre Eiffel se iluminó en marzo para homenajear el regreso de la cantante –que interpreta temas tanto en francés como en inglés– y, con la ciudad cubierta de vallas publicitarias y carteles, los comercios parisinos esperan que la gira sea una importante máquina de hacer dinero.
Su gira prevista en septiembre y octubre podría aportar entre 300 y 500 millones de euros adicionales ($351 a $585 millones) a la ciudad, afirmó a AFP Alexandra Dublanche, presidenta de Choose Paris Region, la organización que promueve el área metropolitana de París.
Esta cifra incluye la venta de entradas, las reservas de hotel y restaurantes, el gasto en comercios y más, explicó Dublanche, añadiendo que los visitantes internacionales tienden a gastar más que los viajeros nacionales.
Cuando Taylor Swift ofreció cuatro conciertos en París en 2024, la ciudad registró un impacto económico de unos 150 a 180 millones de euros, agregó.
Las últimas entradas para los conciertos de Dion, que lucha contra el síndrome de la persona rígida, salieron a la venta el viernes y se espera que asistan alrededor de medio millón de fans, un tercio de ellos procedentes del extranjero, según Dublanche.
Los beneficios económicos podrían alcanzar incluso los 1,200 millones de euros si se tienen en cuenta los transportes, así como todos los gastos y la logística asociados al equipo de apoyo de Dion y a los fans, según el analista de la consultora MKG Vanguelis Panayotis.
«Los grandes eventos musicales impulsan los viajes», aseguró Vanessa Heydorff, directora general para Francia de Booking.com. Este sitio de reservas de hoteles registró un aumento del 49% de las búsquedas en París alrededor de las fechas de los conciertos de Dion.
Arthur Lemoine, director ejecutivo de los grandes almacenes de lujo Galeries Lafayette, dijo que vieron un aumento de clientes durante los conciertos de Taylor Swift y espera un movimiento similar cuando Dion esté en la ciudad.





