Principal
Desbloqueando la IA empresarial con innovación open source: cualquier modelo, acelerador o nube
Por: Chris Wright, director de tecnología y vicepresidente sénior, Ingeniero Global, Red Hat
“Cualquier carga de trabajo, cualquier aplicación, en cualquier lugar” fue el mantra del Red Hat Summit 2023. Es cierto que, en los últimos dos años, hemos visto algunos cambios en TI. Pero la visión de Red Hat no ha cambiado, ha evolucionado.
“Cualquier modelo, acelerador o nube”.
Ese es el mensaje de la nube híbrida para la era de la IA. Y la mejor parte es que, al igual que la “antigua” nube híbrida, la innovación open source es la que impulsa todo. En el Red Hat Summit mostramos cómo los ecosistemas de IA estructurados en torno al open source y a modelos abiertos pueden generar nuevas opciones para las empresas.
La apertura trae consigo la posibilidad de elegir y esta libertad da paso a una mayor flexibilidad: desde el modelo que mejor responde a las necesidades de la empresa hasta el acelerador subyacente y el lugar donde se ejecutará efectivamente la carga de trabajo. Las estrategias de IA exitosas seguirán a los datos, dondequiera que se encuentren en la nube híbrida.
¿Y qué impulsa a la nube híbrida? El open source.
La inferencia potencia la IA
En mi opinión, debemos empezar a mirar más allá de los modelos. Sí, es verdad que los modelos son muy importantes para las estrategias de IA. Pero sin la inferencia, la faceta «práctica» de la IA, los modelos son simplemente conjuntos de datos que no «hacen» nada. La inferencia se refiere a la rapidez con la que un modelo responde a la información ingresada por el usuario y a la eficiencia con la que se pueden tomar decisiones en recursos informáticos acelerados. En última instancia, las respuestas lentas y la poca eficiencia cuestan dinero y generan desconfianza en el cliente.
Es por eso que me entusiasma mucho que Red Hat priorice la inferencia en nuestro trabajo con la IA open source, comenzando con el lanzamiento de Red Hat AI Inference Server. Esta solución, que surge a partir del proyecto open source vLLM líder y está optimizada con tecnologías Neural Magic, ofrece a las implementaciones de IA un servidor de inferencia con soporte, ciclo de vida completo y listo para producción. Lo mejor de todo es que puede rastrear tus datos dondequiera que se encuentren, ya que la solución funcionará con cualquier plataforma de Linux, cualquier distribución de Kubernetes, Red Hat o de cualquier otro modo.
¿Qué es mejor que la IA empresarial? La IA empresarial a gran escala
La aplicación estrella de la TI empresarial no es una única carga de trabajo unificada ni un nuevo servicio en la nube: es la capacidad de escalar de forma rápida y eficiente. Esto también se aplica a la IA. Sin embargo, la IA presenta una particularidad: los recursos informáticos acelerados que sustentan las cargas de trabajo de IA también deben escalarse. Esta no es una tarea fácil, en vista de los gastos y las habilidades necesarias para implementar este hardware en la forma debida.
Lo que necesitamos no es solo la capacidad de escalar la IA, sino también de distribuir cargas de trabajo masivas de IA entre múltiples clústeres de computación acelerada. Esto se ve agravado por el escalado del tiempo de inferencia que requieren los modelos de razonamiento y la IA agéntica. Al compartir la carga, se pueden reducir los problemas de rendimiento, mejorar la eficiencia y, en última instancia, la experiencia del usuario. Con el proyecto llm-d de código abierto, Red Hat ha tomado medidas para hacer frente a este problema.
El proyecto llm-d, dirigido por Red Hat y respaldado por líderes del sector de la IA en aceleración de hardware, desarrollo de modelos y cloud computing, combina el poder comprobado de la orquestación de Kubernetes con vLLM, uniendo dos referentes del open source para responder a una necesidad muy real. Junto con tecnologías como el enrutamiento de redes con IA y la descarga de caché KV, entre otras, llm-d descentraliza y democratiza la inferencia de IA y, de ese modo, ayuda a las empresas a optimizar sus recursos informáticos y disponer de cargas de trabajo de IA más efectivas y de menor costo.
Abierto a lo que se viene en IA, no solo al código
Llm-d y vLLM, incluidos en Red Hat AI Inference Server, son tecnologías open source preparadas para responder a los desafíos de la IA empresarial de hoy. Sin embargo, las comunidades de desarrollo no se limitan a analizar lo que se necesita hacer ahora. Las tecnologías de IA tienen una forma particular de acortar los plazos: el vértigo de la innovación implica que algo que se creía que no plantearía un desafío en años, de repente debe afrontarse de lleno.
Por ese motivo es que Red Hat está destinando recursos a la fase de desarrollo inicial de Llama Stack, el proyecto liderado por Meta que ofrece componentes básicos y API estandarizados para los ciclos de vida de las aplicaciones de IA generativa. Además, Llama Stack es ideal para crear aplicaciones de IA agénticas, que representan una nueva evolución de las potentes cargas de trabajo de IA generativa que vemos hoy en día. Más allá de su desarrollo inicial, Llama Stack está disponible como versión preliminar para desarrolladores dentro de Red Hat AI, para aquellas empresas que hoy quieran comprometerse con el futuro.
En lo que respecta a los agentes de IA, aún no contamos con un protocolo común para el modo en que otras aplicaciones les proporcionan contexto e información. Aquí es donde entra en juego el protocolo de contexto de modelo (MCP). Desarrollado y convertido en open source por Anthropic a fines de 2024, se trata de un protocolo estandarizado para las interacciones entre agente y aplicación, similar a los protocolos cliente-servidor de la informática tradicional. Pero lo más importante es que las actuales aplicaciones pueden, de improviso, valerse de la IA sin necesidad de una reimplementación a gran escala. Esto es importantísimo y no sería posible si no fuera por el poder del open source. Al igual que Llama Stack, MCP está disponible como versión preliminar para desarrolladores en la plataforma de Red Hat AI.
Los modelos propietarios de IA pueden haber logrado una ventaja inicial, pero no hay duda de que los ecosistemas abiertos los han superado, en especial en cuanto al software que sustenta estos modelos de IA de próxima generación. Gracias a vLLM y llm-d, junto con productos empresariales open source con seguridad reforzada, el futuro de la IA es prometedor, independientemente del modelo, el acelerador o la nube, y está impulsado por el open source y por Red Hat.
Principal
Gobierno da reconocimiento al nuncio apostólico Luigi Cona tras finalizar su misión
El Gobierno de El Salvador entregó la Orden Nacional José Matías Delgado, en el Grado de Gran Cruz Placa de Plata, al nuncio apostólico Luigi Cona, como reconocimiento a su trabajo en El Salvador tras finalizar su misión diplomática.
La ministra de Relaciones Exteriores, Alexandra Hill, presidió la ceremonia en compañía de otras autoridades de la cancillería para entregar el reconocimiento.
«Fue un honor entregar al excelentísimo y reverendísimo monseñor Luigi Roberto Cona, nuncio apostólico de Su Santidad, la Orden Nacional José Matías Delgado, en el Grado de “Gran Cruz Placa de Plata”. Sin duda su trayectoria deja una huella imperecedera en nuestra nación», indicó Hill.
La canciller recordó que desde la llegada de Cona a El Salvador, en 2023, hizo de la cercanía una forma de servicio, y del diálogo una herramienta de encuentro.
«Su gestión, marcada por la escucha y el entendimiento, fortaleció los lazos de fraternidad entre El Salvador y la Santa Sede», indicó la funcionaria.
Y agregó: «En el marco de los 105 años de relaciones, su gestión fortaleció vínculos basados en respeto y cooperación. La sensibilidad y visión compartida convirtieron su misión pastoral y diplomática en un legado de humildad que honra la amistad entre nuestros Estados».
De igual manera, la viceministra de Relaciones Exteriores, Adriana Mira, resaltó el trabajo del nuncio apostólico durante el tiempo que estuvo en el país.
«Un honor reconocer la valiosa labor de monseñor Luigi Roberto Cona, cuya dedicación y servicio han fortalecido los lazos de amistad y cooperación. Su legado permanecerá como ejemplo de compromiso y cercanía con nuestro país», aseveró la vicecanciller.
De acuerdo con un comunicado de la Nunciatura Apostólica de El Salvador, el próximo 10 de mayo Cona será despedido con una misa solemne en Catedral Metropolitana, San Salvador.
En marzo de este año El Vaticano anunció un cambio en la representación diplomática de la Santa Sede en El Salvador, con el nombramiento de monseñor Cona como nuncio apostólico en Siria.
Internacionales -deportes
Flick ve al lesionado Lamine Yamal en el Mundial
El entrenador del Barcelona, Hansi Flick, afirmó este viernes que ve al lesionado Lamine Yamal llegar para el Mundial de Canadá, Estados Unidos y México.
«Va evolucionando bien. Creo que lo veremos en la Copa del Mundo», dijo Flick en la rueda de prensa previa al partido de Liga contra Osasuna del sábado.
«Tiene más tiempo para poder recuperarse, estar de vuelta y es lo que él quiere», añadió el técnico azulgrana, sobre su jugador, víctima de una lesión muscular.
Sin posibilidad de volver a jugar con el club esta temporada, el objetivo de Lamine Yamal es poder jugar su primer Mundial.
Flick también se mostró esperanzado con la vuelta del brasileño Raphinha, tras sufrir una lesión muscular con su selección en marzo.
«Raphinha es un jugador que siempre nos da el 100%. Cuando está en el campo o en los entrenamientos», explicó Flick.
«Para nosotros es importante tenerlo de vuelta. También viajará con nosotros y veremos qué pasa mañana» en Pamplona, añadió.
«Pero, al final, creo que también para el equipo es genial tenerlo de vuelta, porque es uno de nuestros capitanes, es positivo y puede darnos, quizá, esas cosas que necesitamos», insistió.
El Barcelona ya podría proclamarse campeón de Liga este mismo fin de semana si gana contra Osasuna y el Real Madrid no lo hace contra el Espanyol, pero Flick pide prudencia.
«No hemos acabado todavía. Sólo hemos ganado una Liga (2024/2025). Hasta ahora vamos bien, pero tenemos que ganar algunos partidos más», advirtió el alemán.
El Barcelona perdió el pasado año contra Osasuna, pero Flick recuerda que «aquel día hicimos muchos cambios en el 11 inicial, y eso no va a pasar mañana».
«Para mí son dos partidos, dos situaciones diferentes. Estamos preparados para este partido y como siempre, tenemos que dar lo mejor de nosotros mismos», afirmó.
Ante el reto de llegar a los 100 puntos, Flick se muestra cauto: «nos centramos en el siguiente partido. Obviamente queremos ganar cada partido que queda hasta final de temporada».
Principal
Autoridades destruyen droga valorada en más de $333 mil
La Fiscalía General de la República (FGR), en coordinación con la Policía Nacional Civil (PNC), destruyó un total de 85,224.93 gramos de droga, valorados en $333,786.85, como parte de sus acciones contra el narcotráfico.
Según informaron las autoridades, la droga fue decomisada en distintos procedimientos realizados en Santa Ana, San Miguel y San Salvador.
Los casos corresponden a procesos en los que los responsables ya cumplen condenas en prisión, mientras que otros aún enfrentan procesos judiciales por el delito de tráfico ilícito.
Durante el procedimiento, la droga fue clasificada en 83,712.07 gramos de marihuana, 13 plantas de marihuana, 1,487.51 gramos de cocaína y 25.35 gramos de metanfetamina.




