Connect with us

Principal

Desbloqueando la IA empresarial con innovación open source: cualquier modelo, acelerador o nube

Publicado

el

Por: Chris Wright, director de tecnología y vicepresidente sénior, Ingeniero Global, Red Hat

“Cualquier carga de trabajo, cualquier aplicación, en cualquier lugar” fue el mantra del Red Hat Summit 2023. Es cierto que, en los últimos dos años, hemos visto algunos cambios en TI. Pero la visión de Red Hat no ha cambiado, ha evolucionado.

“Cualquier modelo, acelerador o nube”.

Ese es el mensaje de la nube híbrida para la era de la IA. Y la mejor parte es que, al igual que la “antigua” nube híbrida, la innovación open source es la que impulsa todo. En el Red Hat Summit mostramos cómo los ecosistemas de IA estructurados en torno al open source y a modelos abiertos pueden generar nuevas opciones para las empresas.

La apertura trae consigo la posibilidad de elegir y esta libertad da paso a una mayor flexibilidad: desde el modelo que mejor responde a las necesidades de la empresa hasta el acelerador subyacente y el lugar donde se ejecutará efectivamente la carga de trabajo. Las estrategias de IA exitosas seguirán a los datos, dondequiera que se encuentren en la nube híbrida.

¿Y qué impulsa a la nube híbrida? El open source.

La inferencia potencia la IA

En mi opinión, debemos empezar a mirar más allá de los modelos. Sí, es verdad que los modelos son muy importantes para las estrategias de IA. Pero sin la inferencia, la faceta «práctica» de la IA, los modelos son simplemente conjuntos de datos que no «hacen» nada. La inferencia se refiere a la rapidez con la que un modelo responde a la información ingresada por el usuario y a la eficiencia con la que se pueden tomar decisiones en recursos informáticos acelerados. En última instancia, las respuestas lentas y la poca eficiencia cuestan dinero y generan desconfianza en el cliente.

Es por eso que me entusiasma mucho que Red Hat priorice la inferencia en nuestro trabajo con la IA open source, comenzando con el lanzamiento de Red Hat AI Inference Server. Esta solución, que surge a partir del proyecto open source vLLM líder y está optimizada con tecnologías Neural Magic, ofrece a las implementaciones de IA un servidor de inferencia con soporte, ciclo de vida completo y listo para producción. Lo mejor de todo es que puede rastrear tus datos dondequiera que se encuentren, ya que la solución funcionará con cualquier plataforma de Linux, cualquier distribución de Kubernetes, Red Hat o de cualquier otro modo.

¿Qué es mejor que la IA empresarial? La IA empresarial a gran escala

La aplicación estrella de la TI empresarial no es una única carga de trabajo unificada ni un nuevo servicio en la nube: es la capacidad de escalar de forma rápida y eficiente. Esto también se aplica a la IA. Sin embargo, la IA presenta una particularidad: los recursos informáticos acelerados que sustentan las cargas de trabajo de IA también deben escalarse. Esta no es una tarea fácil, en vista de los gastos y las habilidades necesarias para implementar este hardware en la forma debida.

Lo que necesitamos no es solo la capacidad de escalar la IA, sino también de distribuir cargas de trabajo masivas de IA entre múltiples clústeres de computación acelerada. Esto se ve agravado por el escalado del tiempo de inferencia que requieren los modelos de razonamiento y la IA agéntica. Al compartir la carga, se pueden reducir los problemas de rendimiento, mejorar la eficiencia y, en última instancia, la experiencia del usuario. Con el proyecto llm-d de código abierto, Red Hat ha tomado medidas para hacer frente a este problema.

El proyecto llm-d, dirigido por Red Hat y respaldado por líderes del sector de la IA en aceleración de hardware, desarrollo de modelos y cloud computing, combina el poder comprobado de la orquestación de Kubernetes con vLLM, uniendo dos referentes del open source para responder a una necesidad muy real. Junto con tecnologías como el enrutamiento de redes con IA y la descarga de caché KV, entre otras, llm-d descentraliza y democratiza la inferencia de IA y, de ese modo, ayuda a las empresas a optimizar sus recursos informáticos y disponer de cargas de trabajo de IA más efectivas y de menor costo.

Abierto a lo que se viene en IA, no solo al código

Llm-d y vLLM, incluidos en Red Hat AI Inference Server, son tecnologías open source preparadas para responder a los desafíos de la IA empresarial de hoy. Sin embargo, las comunidades de desarrollo no se limitan a analizar lo que se necesita hacer ahora. Las tecnologías de IA tienen una forma particular de acortar los plazos: el vértigo de la innovación implica que algo que se creía que no plantearía un desafío en años, de repente debe afrontarse de lleno.

Por ese motivo es que Red Hat está destinando recursos a la fase de desarrollo inicial de Llama Stack, el proyecto liderado por Meta que ofrece componentes básicos y API estandarizados para los ciclos de vida de las aplicaciones de IA generativa. Además, Llama Stack es ideal para crear aplicaciones de IA agénticas, que representan una nueva evolución de las potentes cargas de trabajo de IA generativa que vemos hoy en día. Más allá de su desarrollo inicial, Llama Stack está disponible como versión preliminar para desarrolladores dentro de Red Hat AI, para aquellas empresas que hoy quieran comprometerse con el futuro.

En lo que respecta a los agentes de IA, aún no contamos con un protocolo común para el modo en que otras aplicaciones les proporcionan contexto e información. Aquí es donde entra en juego el protocolo de contexto de modelo (MCP). Desarrollado y convertido en open source por Anthropic a fines de 2024, se trata de un protocolo estandarizado para las interacciones entre agente y aplicación, similar a los protocolos cliente-servidor de la informática tradicional. Pero lo más importante es que las actuales aplicaciones pueden, de improviso, valerse de la IA sin necesidad de una reimplementación a gran escala. Esto es importantísimo y no sería posible si no fuera por el poder del open source. Al igual que Llama Stack, MCP está disponible como versión preliminar para desarrolladores en la plataforma de Red Hat AI.

Los modelos propietarios de IA pueden haber logrado una ventaja inicial, pero no hay duda de que los ecosistemas abiertos los han superado, en especial en cuanto al software que sustenta estos modelos de IA de próxima generación. Gracias a vLLM y llm-d, junto con productos empresariales open source con seguridad reforzada, el futuro de la IA es prometedor, independientemente del modelo, el acelerador o la nube, y está impulsado por el open source y por Red Hat.

Continuar Leyendo
PUBLICIDAD
Publicidad

Principal

Samsung prepara nueva capa de privacidad para proteger la pantalla en espacios públicos

Publicado

el

Samsung se prepara para presentar una nueva capa de privacidad diseñada para proteger la información personal de los usuarios de miradas indiscretas, especialmente en espacios públicos como el transporte colectivo.

Esta función permitirá revisar mensajes, ingresar contraseñas u otras acciones sensibles con mayor tranquilidad, sin preocuparse por quién pueda estar observando la pantalla.

«Esta nueva capa te da la opción de decidir qué funciona mejor para ti. Puedes personalizarla para aumentar la protección con aplicaciones específicas o al ingresar detalles de acceso para áreas más privadas de tu teléfono», detalla la marca en un comunicado de prensa.

Entre las opciones disponibles, los usuarios podrán proteger elementos concretos de su experiencia móvil, como las ventanas emergentes de notificaciones, evitando un sistema generalizado y optando por controles puntuales que incluso podrán desactivarse por completo si así lo desean.

Samsung detalló que el desarrollo de esta capa de privacidad tomó más de cinco años de trabajo, que incluyeron procesos de ingeniería, pruebas y refinamiento. Durante este tiempo, la empresa analizó cómo las personas utilizan sus teléfonos, qué consideran información privada y cómo la seguridad debe integrarse de forma natural en la vida cotidiana.

El resultado es una solución que combina hardware y software para ofrecer protección sin afectar la experiencia de uso.

Esta nueva capa se lanzará en el primer unpacked de este 2026.

Continuar Leyendo

Principal

Gremiales resaltan liderazgo del Gobierno ante acuerdo arancelario con Estados Unidos

Publicado

el

El Salvador firmó esta semana un acuerdo que brinda condiciones preferenciales para la exportación de productos salvadoreños hacia Estados Unidos.

Se trata del primer Acuerdo Comercial Recíproco en el hemisferio occidental, que formaliza la eliminación del arancel generalizado del 10 % que estableció el año pasado la nación norteamericana a los productos que compra desde el extranjero.

Ante el anuncio, la Corporación de Exportadores de El Salvador (Coexport) resaltó el desempeño del Gobierno para lograr este tipo de acercamientos que favorecen el desarrollo económico del país.

«Felicitamos al Gobierno de El Salvador, liderado por el presidente Nayib Bukele, por la firma del primer Acuerdo Comercial Recíproco en el hemisferio occidental, el cual representa un avance de alto valor estratégico para el fortalecimiento del comercio bilateral y la competitividad del sector exportador», expresó la presidenta de la gremial, Silvia Cuéllar.

«Esto es el reflejo de una excelente relación de El Salvador con Estados Unidos. […] Estados Unidos es nuestro principal socio para las exportaciones, casi el 80 % son exportaciones de textiles, el resto son de alimentos, farmacéuticos, manufacturas varias, empaques, entre otros», añadió.

En este sentido, apuntó que estas buenas noticias incentivan al sector productivo salvadoreño para incrementar los esfuerzos, ampliar la penetración de productos salvadoreños en el mercado estadounidense. También señaló que la posición competitiva en la que coloca este acuerdo a El Salvador puede ser un parteaguas para la recepción de más inversiones.

Por su parte, la Cámara de Comercio e Industria de El Salvador (Camarasal) coincidió en que la alianza oficializada permitirá mejorar las condiciones de acceso al mercado estadounidense y reducir de manera significativa las barreras comerciales.

«Desde Camarasal reconocemos que este acuerdo fortalece la posición de El Salvador como un socio comercial confiable y dinámico, contribuyendo al impulso del crecimiento económico y la generación de empleo», dio a conocer mediante un comunicado de prensa.

En coincidencia, la Cámara Americana de Comercio de El Salvador (AmCham) también resaltó que esta noticia genera mayores oportunidades de crecimiento y desarrollo para El Salvador. Un mensaje similar emitió la Cámara de la Industria Textil y Confección de El Salvador (Camtex), la cual resaltó que el acuerdo genera competitividad a las empresas nacionales frente a otros países.

Los grupos empresariales indicaron que se encuentran en disposición de continuar trabajando de manera coordinada con las autoridades gubernamentales para maximizar los beneficios de este acuerdo y contribuir al desarrollo sostenible.

Continuar Leyendo

Nacionales -deportes

Portera salvadoreña jugará en la primera división de Argentina

Publicado

el

El Salvador ha ha sumado una legionaria más en las últimas horas. Se trata de Riley Meléndez, portera que ya jugó con la selección femenina mayor, estampó su firma con Ferro Carril Oeste, equipo que milita en la primera nacional de Argentina.

«La jugadora de 23 años, arquera de la selección de El Salvador y nacida en Estados Unidos, llega a Caballito desde Towson University», informó el club en su cuenta de X este mismo sábado.

El rumor de que Meléndez iba a jugar en el fútbol argentino corrió desde hace tres semanas, pero ha sido hasta este 31 de enero que lo ha comunicado el club, acompañado de una fotografía de la jugadora estampando su firma, pero sin precisar el tiempo que estará vinculada.

Así, El Salvador vuelve a tener una jugadora en el balompié gaucho, después de que lo hiciera Alejandra Reyes, quien militó en el River Plate.

Además, se suman más legionarias salvadoreñas al abanico de opciones que tendrá Éric Acuña para conformar su selección para los próximos encuentros de eliminatorias mundialistas previstos para marzo y abril de este año, rumbo a Brasil 2027

Continuar Leyendo

Publicidad

Lo Más Leído