2

Connect with us

Principal

Desbloqueando la IA empresarial con innovación open source: cualquier modelo, acelerador o nube

Publicado

el

Por: Chris Wright, director de tecnología y vicepresidente sénior, Ingeniero Global, Red Hat

“Cualquier carga de trabajo, cualquier aplicación, en cualquier lugar” fue el mantra del Red Hat Summit 2023. Es cierto que, en los últimos dos años, hemos visto algunos cambios en TI. Pero la visión de Red Hat no ha cambiado, ha evolucionado.

“Cualquier modelo, acelerador o nube”.

Ese es el mensaje de la nube híbrida para la era de la IA. Y la mejor parte es que, al igual que la “antigua” nube híbrida, la innovación open source es la que impulsa todo. En el Red Hat Summit mostramos cómo los ecosistemas de IA estructurados en torno al open source y a modelos abiertos pueden generar nuevas opciones para las empresas.

La apertura trae consigo la posibilidad de elegir y esta libertad da paso a una mayor flexibilidad: desde el modelo que mejor responde a las necesidades de la empresa hasta el acelerador subyacente y el lugar donde se ejecutará efectivamente la carga de trabajo. Las estrategias de IA exitosas seguirán a los datos, dondequiera que se encuentren en la nube híbrida.

¿Y qué impulsa a la nube híbrida? El open source.

La inferencia potencia la IA

En mi opinión, debemos empezar a mirar más allá de los modelos. Sí, es verdad que los modelos son muy importantes para las estrategias de IA. Pero sin la inferencia, la faceta «práctica» de la IA, los modelos son simplemente conjuntos de datos que no «hacen» nada. La inferencia se refiere a la rapidez con la que un modelo responde a la información ingresada por el usuario y a la eficiencia con la que se pueden tomar decisiones en recursos informáticos acelerados. En última instancia, las respuestas lentas y la poca eficiencia cuestan dinero y generan desconfianza en el cliente.

Es por eso que me entusiasma mucho que Red Hat priorice la inferencia en nuestro trabajo con la IA open source, comenzando con el lanzamiento de Red Hat AI Inference Server. Esta solución, que surge a partir del proyecto open source vLLM líder y está optimizada con tecnologías Neural Magic, ofrece a las implementaciones de IA un servidor de inferencia con soporte, ciclo de vida completo y listo para producción. Lo mejor de todo es que puede rastrear tus datos dondequiera que se encuentren, ya que la solución funcionará con cualquier plataforma de Linux, cualquier distribución de Kubernetes, Red Hat o de cualquier otro modo.

¿Qué es mejor que la IA empresarial? La IA empresarial a gran escala

La aplicación estrella de la TI empresarial no es una única carga de trabajo unificada ni un nuevo servicio en la nube: es la capacidad de escalar de forma rápida y eficiente. Esto también se aplica a la IA. Sin embargo, la IA presenta una particularidad: los recursos informáticos acelerados que sustentan las cargas de trabajo de IA también deben escalarse. Esta no es una tarea fácil, en vista de los gastos y las habilidades necesarias para implementar este hardware en la forma debida.

Lo que necesitamos no es solo la capacidad de escalar la IA, sino también de distribuir cargas de trabajo masivas de IA entre múltiples clústeres de computación acelerada. Esto se ve agravado por el escalado del tiempo de inferencia que requieren los modelos de razonamiento y la IA agéntica. Al compartir la carga, se pueden reducir los problemas de rendimiento, mejorar la eficiencia y, en última instancia, la experiencia del usuario. Con el proyecto llm-d de código abierto, Red Hat ha tomado medidas para hacer frente a este problema.

El proyecto llm-d, dirigido por Red Hat y respaldado por líderes del sector de la IA en aceleración de hardware, desarrollo de modelos y cloud computing, combina el poder comprobado de la orquestación de Kubernetes con vLLM, uniendo dos referentes del open source para responder a una necesidad muy real. Junto con tecnologías como el enrutamiento de redes con IA y la descarga de caché KV, entre otras, llm-d descentraliza y democratiza la inferencia de IA y, de ese modo, ayuda a las empresas a optimizar sus recursos informáticos y disponer de cargas de trabajo de IA más efectivas y de menor costo.

Abierto a lo que se viene en IA, no solo al código

Llm-d y vLLM, incluidos en Red Hat AI Inference Server, son tecnologías open source preparadas para responder a los desafíos de la IA empresarial de hoy. Sin embargo, las comunidades de desarrollo no se limitan a analizar lo que se necesita hacer ahora. Las tecnologías de IA tienen una forma particular de acortar los plazos: el vértigo de la innovación implica que algo que se creía que no plantearía un desafío en años, de repente debe afrontarse de lleno.

Por ese motivo es que Red Hat está destinando recursos a la fase de desarrollo inicial de Llama Stack, el proyecto liderado por Meta que ofrece componentes básicos y API estandarizados para los ciclos de vida de las aplicaciones de IA generativa. Además, Llama Stack es ideal para crear aplicaciones de IA agénticas, que representan una nueva evolución de las potentes cargas de trabajo de IA generativa que vemos hoy en día. Más allá de su desarrollo inicial, Llama Stack está disponible como versión preliminar para desarrolladores dentro de Red Hat AI, para aquellas empresas que hoy quieran comprometerse con el futuro.

En lo que respecta a los agentes de IA, aún no contamos con un protocolo común para el modo en que otras aplicaciones les proporcionan contexto e información. Aquí es donde entra en juego el protocolo de contexto de modelo (MCP). Desarrollado y convertido en open source por Anthropic a fines de 2024, se trata de un protocolo estandarizado para las interacciones entre agente y aplicación, similar a los protocolos cliente-servidor de la informática tradicional. Pero lo más importante es que las actuales aplicaciones pueden, de improviso, valerse de la IA sin necesidad de una reimplementación a gran escala. Esto es importantísimo y no sería posible si no fuera por el poder del open source. Al igual que Llama Stack, MCP está disponible como versión preliminar para desarrolladores en la plataforma de Red Hat AI.

Los modelos propietarios de IA pueden haber logrado una ventaja inicial, pero no hay duda de que los ecosistemas abiertos los han superado, en especial en cuanto al software que sustenta estos modelos de IA de próxima generación. Gracias a vLLM y llm-d, junto con productos empresariales open source con seguridad reforzada, el futuro de la IA es prometedor, independientemente del modelo, el acelerador o la nube, y está impulsado por el open source y por Red Hat.

Principal

Enjuician a hijo de Catalino Miranda por estafa con $1.3 millones de un préstamo

Publicado

el

Adalberto Antonio Miranda enfrenta juicio en el Tribunal Segundo de Sentencia de San Salvador por el delito de estafa agravada en perjuicio de una víctima.

La Fiscalía General de la República (FGR) lo acusa haber cometido ilegalidades en su calidad de representante de la cooperativa de transporte público Acostes de El Salvador, S.A. de C.V. y de la Asociación Cooperativa de Transporte de R.L. en 2019.

El imputado, quien es hijo del busero fallecido Catalino Miranda, realizó un préstamo por un monto de $1,800.000; el cual dejó de pagar al falsificar la cancelación de la hipoteca de dos inmuebles a través de documentación falsa y de forma fraudulenta logró la liberación de los registros del Centro Nacional de Registros (CNR) y el Viceministerio de Transporte (VMT) de las 78 unidades de transporte que en su momento ofrecieron en calidad de garantía.

Miranda estafó a la víctima con $1,300.000, que fue la cantidad restante de la deuda tramitada como cancelada de forma fraudulenta. La Fiscalía detalló que con abundantes elementos probatorios solicitó una condena de carácter condenatorio en contra el procesado.

El ministerio público informó que se prevé que el fallo se dé el 27 de marzo.

En febrero de este año, René Ventura Alvarado fue condenado a cinco años de prisión y a pagar $375,360.04 en concepto de responsabilidad civil a favor de una víctima de estafa.

La investigación fiscal estableció que a finales de 2018 y a inicio de 2019, el imputado se reunió con la víctima y le dijo que necesitaba surtir con llantas su negocio de talleres y venta de accesorios para autos. La víctima le ofreció seis contenedores con llantas con valor de $375,360.04.

El afectado entregó en cuatro pedidos lo solicitado y al vencer el plazo establecido para cancelar la deuda, Ventura Alvarado no realizó ni un abono, ni pagó y ponía excusas, por lo que la víctima decidió denunciarlo ante la FGR.

Continue Reading

Principal

Capturan a dos mujeres que escondían drogas en materiales de construcción en San Salvador

Publicado

el

La Fiscalía General de la República (FGR) ordenó la captura de Silvia Beatriz Araniva y Jenifer Loseth Manzano, por el delito de tráfico ilícito.

El reporte oficial detalla que en un trabajo coordinado con la Policía llevaron a cabo un allanamiento al interior de un mesón de San Salvador Centro, en el cual se encontraron drogas ocultas bajo materiales de construcción.

Las autoridades decomisaron 20 porciones medianas de cocaína listas para su venta, metanfetaminas y anfetaminas, además de $780 en efectivo, jeringas y bolsas plásticas que utilizaban para comercializar la droga.

«Las imputadas serán puestas ante la justicia en las próximas horas», indicó el ministerio público.

En otro caso registrado esta semana, el personal de la Fuerza Armada junto con la Policía detuvo a Gerardo Eliseo Calderón Acevedo, de 18 años, a quien le incautaron tres porciones de marihuana.

El hombre fue ubicado en el distrito de Verapaz, en San Vicente Sur. Será remitido por el delito de posesión y tenencia de drogas.

Mientras que en el distrito de Mejicanos arrestaron a Aldair Omar Cerón López, de 21 años, a quien le encontraron en el interior de un vehículo: una bolsa con marihuana; una báscula digital; una laptop y un celular

Calderón Acevedo es procesado por el delito de posesión y tenencia con fines de tráfico.

Continue Reading

Internacionales

Precio del petróleo Brent sube 5 % por temor a escalada en Oriente Medio

Publicado

el

El precio del petróleo Brent del mar del Norte se disparó más de 5 % el jueves, luego de que Irán amenazara con atacar instalaciones de sus vecinos en el Golfo en represalia por el bombardeo de uno de sus campos gasíferos.

La escalada en la guerra de Israel y Estados Unidos contra Irán agravó los temores por el suministro de hidrocarburos desde Oriente Medio.

Hacia las 02H15 GMT, el precio del Brent del mar del Norte, referencia del mercado mundial, subía 5,02% a 112,77 dólares por barril en el comercio asiático.

El de West Texas Intermediate (WTI), referencia del mercado estadounidense, subía 2,67% a 98,89 dólares por barril.

En medio de la escalada, el presidente estadounidense Donald Trump amenazó con destruir el campo gasífero iraní South Pars si la planta de Catar Ras Laffan es atacada de nuevo.

Los mercados han oscilado con el desarrollo del conflicto en Oriente Medio, alarmado por los ataques contra infraestructuras energéticas susceptibles de perturbar la oferta de crudo.

En tanto, el índice Nikkei de la bolsa de Tokio perdía 2,69 %, mientras el índice Kospi de la bolsa de Seúl caía 2,65%.

Continue Reading

Publicidad

Lo Más Leído