Tecnología
Exoesqueleto, el innovador traje que ayudó a un hombre paralítico a mover sus cuatro extremidades

Un hombre completamente paralítico pudo mover sus cuatro extremidades gracias a un traje de exoesqueleto controlado mentalmente, según investigadores franceses.
Thibault, de 30 años, dijo que dar sus primeros pasos dentro del traje lo había hecho sentir como el “primer hombre en la Luna”.
Sus movimientos, particularmente el caminar, están lejos de ser perfectos y el traje que los permitió solo puede ser usado dentro de un laboratorio.
Sin embargo, los investigadores a cargo del experimento aseguran que esta innovación algún día podría mejorar la calidad de vida de los pacientes que sufren de parálisis.
Thibault, quien no desea revelar su apellido, trabajaba como oculista hace cuatro años, antes de sufrir una caída de 15 metros, en un accidente en un club nocturno.
La lesión en su médula espinal lo dejó paralizado y, como consecuencia, tuvo que pasar los dos años siguientes en el hospital.
“Olvidé lo que era estar de pie”
Pero en 2017, participó en un ensayo con un traje de exoesqueleto, desarrollado por el centro francés de investigaciones biomédicas Clinatec y la Universidad de Grenoble.
Al principio tuvo que entrenarse en el uso de implantes cerebrales para controlar un personaje virtual (o avatar) en un juego de computadora. Luego pasó a caminar dentro del traje.

“Fue como (ser el) primer hombre en la Luna. No había caminado durante dos años. Olvidé lo que era estar de pie, olvidé que era más alto que muchas personas en la habitación”, dijo.
Aprender a controlar los brazos le tomó mucho más tiempo.
“Fue muy difícil porque es una combinación de múltiples músculos y movimientos”, dijo.
Pero, ¿cómo funciona el innovador equipo?
Primeramente, Thibault se sometió a una cirugía para insertarle dos implantes en la superficie del cerebro, cubriendo las partes que controlan el movimiento.

64 electrodos dispuestos en cada implante se encargan de leer la actividad cerebral y transmiten las instrucciones a una computadora, donde un sofisticado software lee las ondas cerebrales y las convierte en instrucciones para controlar el exoesqueleto, al que la persona es atada.
De esta manera, cuando la persona piensa “camina”, las ondas cerebrales desencadenan una serie de instrucciones para mover las piernas. Lo mismo sucede con los brazos.
Limitaciones
Los 65 kilogramos de sofisticada robótica que pesa el exoesqueleto no son capaces de restaurar completamente las funciones motoras de quienes lo usan.
Sin embargo, es un avance notable para enfoques similares que permiten a las personas controlar una sola extremidad con la mente.
Thibault necesita estar conectado a un arnés agarrado del techo para minimizar el riesgo de que se caiga mientras usa el aparato, lo que significa que el dispositivo aún no está listo para funcionar fuera del laboratorio.

“Esto está lejos de ser una caminata autónoma”, dijo a la BBC el profesor Alim-Louis Benabid, presidente de la Junta Ejecutiva de Clinatec.
En las tareas en las que Thibault debía mover los brazos superior e inferior y rotar las muñecas para tocar objetos específicos, tuvo éxito el 71% del tiempo.
“Hemos resuelto este problema y hemos demostrado que el principio es correcto. Esta es una prueba de que podemos extender la movilidad de los pacientes en un exoesqueleto“, dijo a la BBC el profesor Benabid, quien desarrolló una estimulación cerebral profunda para la enfermedad de Parkinson.
“Esto está encaminado a ofrecer una mejor calidad de vida”.
Próximos pasos
Los científicos franceses dicen que pueden continuar mejorando esta tecnología.
Por el momento están limitados por la cantidad de datos que pueden leer desde el cerebro, enviar a una computadora, interpretar y enviar al exoesqueleto en tiempo real.

Los investigadores solo tienen unos 350 milisegundos para pasar del pensamiento al movimiento; de lo contrario, el sistema se vuelve difícil de controlar.
Esto significa que de los 64 electrodos en cada implante, los investigadores están usando solo 32.
Por lo tanto, todavía existe el potencial de leer el cerebro con más detalle utilizando computadoras más potentes e Inteligencia Artificial (IA) para interpretar la información del cerebro.
Los científicos también tienen planes para desarrollar el control de los dedos y permitir con esto que Thibault recoja y mueva objetos.
El hombre ya ha usado el implante para controlar una silla de ruedas.
“Peligro de exageración”
El profesor Tom Shakespeare, de la Escuela de Higiene y Medicina Tropical de Londres, dijo a la BBC que aunque este estudio presenta un avance positivo y emocionante, “debemos recordar que la prueba de concepto está muy lejos de la posibilidad de uso clínico”.
“Siempre existe un peligro de exageración en este campo”, agregó.

“Incluso si alguna vez es viable, las limitaciones de costos significan que las opciones de alta tecnología nunca estarán disponibles para la mayoría de las personas en el mundo con lesiones de la médula espinal”.
Según el profesor, solo el 15% de las personas con discapacidad cuenta con una silla de ruedas u otros dispositivos de asistencia.
Los detalles del exoesqueleto se han publicado en la revista The Lancet Neurology.
Principal
Desbloqueando la IA empresarial con innovación open source: cualquier modelo, acelerador o nube

Por: Chris Wright, director de tecnología y vicepresidente sénior, Ingeniero Global, Red Hat
“Cualquier carga de trabajo, cualquier aplicación, en cualquier lugar” fue el mantra del Red Hat Summit 2023. Es cierto que, en los últimos dos años, hemos visto algunos cambios en TI. Pero la visión de Red Hat no ha cambiado, ha evolucionado.
“Cualquier modelo, acelerador o nube”.
Ese es el mensaje de la nube híbrida para la era de la IA. Y la mejor parte es que, al igual que la “antigua” nube híbrida, la innovación open source es la que impulsa todo. En el Red Hat Summit mostramos cómo los ecosistemas de IA estructurados en torno al open source y a modelos abiertos pueden generar nuevas opciones para las empresas.
La apertura trae consigo la posibilidad de elegir y esta libertad da paso a una mayor flexibilidad: desde el modelo que mejor responde a las necesidades de la empresa hasta el acelerador subyacente y el lugar donde se ejecutará efectivamente la carga de trabajo. Las estrategias de IA exitosas seguirán a los datos, dondequiera que se encuentren en la nube híbrida.
¿Y qué impulsa a la nube híbrida? El open source.
La inferencia potencia la IA
En mi opinión, debemos empezar a mirar más allá de los modelos. Sí, es verdad que los modelos son muy importantes para las estrategias de IA. Pero sin la inferencia, la faceta «práctica» de la IA, los modelos son simplemente conjuntos de datos que no «hacen» nada. La inferencia se refiere a la rapidez con la que un modelo responde a la información ingresada por el usuario y a la eficiencia con la que se pueden tomar decisiones en recursos informáticos acelerados. En última instancia, las respuestas lentas y la poca eficiencia cuestan dinero y generan desconfianza en el cliente.
Es por eso que me entusiasma mucho que Red Hat priorice la inferencia en nuestro trabajo con la IA open source, comenzando con el lanzamiento de Red Hat AI Inference Server. Esta solución, que surge a partir del proyecto open source vLLM líder y está optimizada con tecnologías Neural Magic, ofrece a las implementaciones de IA un servidor de inferencia con soporte, ciclo de vida completo y listo para producción. Lo mejor de todo es que puede rastrear tus datos dondequiera que se encuentren, ya que la solución funcionará con cualquier plataforma de Linux, cualquier distribución de Kubernetes, Red Hat o de cualquier otro modo.
¿Qué es mejor que la IA empresarial? La IA empresarial a gran escala
La aplicación estrella de la TI empresarial no es una única carga de trabajo unificada ni un nuevo servicio en la nube: es la capacidad de escalar de forma rápida y eficiente. Esto también se aplica a la IA. Sin embargo, la IA presenta una particularidad: los recursos informáticos acelerados que sustentan las cargas de trabajo de IA también deben escalarse. Esta no es una tarea fácil, en vista de los gastos y las habilidades necesarias para implementar este hardware en la forma debida.
Lo que necesitamos no es solo la capacidad de escalar la IA, sino también de distribuir cargas de trabajo masivas de IA entre múltiples clústeres de computación acelerada. Esto se ve agravado por el escalado del tiempo de inferencia que requieren los modelos de razonamiento y la IA agéntica. Al compartir la carga, se pueden reducir los problemas de rendimiento, mejorar la eficiencia y, en última instancia, la experiencia del usuario. Con el proyecto llm-d de código abierto, Red Hat ha tomado medidas para hacer frente a este problema.
El proyecto llm-d, dirigido por Red Hat y respaldado por líderes del sector de la IA en aceleración de hardware, desarrollo de modelos y cloud computing, combina el poder comprobado de la orquestación de Kubernetes con vLLM, uniendo dos referentes del open source para responder a una necesidad muy real. Junto con tecnologías como el enrutamiento de redes con IA y la descarga de caché KV, entre otras, llm-d descentraliza y democratiza la inferencia de IA y, de ese modo, ayuda a las empresas a optimizar sus recursos informáticos y disponer de cargas de trabajo de IA más efectivas y de menor costo.
Abierto a lo que se viene en IA, no solo al código
Llm-d y vLLM, incluidos en Red Hat AI Inference Server, son tecnologías open source preparadas para responder a los desafíos de la IA empresarial de hoy. Sin embargo, las comunidades de desarrollo no se limitan a analizar lo que se necesita hacer ahora. Las tecnologías de IA tienen una forma particular de acortar los plazos: el vértigo de la innovación implica que algo que se creía que no plantearía un desafío en años, de repente debe afrontarse de lleno.
Por ese motivo es que Red Hat está destinando recursos a la fase de desarrollo inicial de Llama Stack, el proyecto liderado por Meta que ofrece componentes básicos y API estandarizados para los ciclos de vida de las aplicaciones de IA generativa. Además, Llama Stack es ideal para crear aplicaciones de IA agénticas, que representan una nueva evolución de las potentes cargas de trabajo de IA generativa que vemos hoy en día. Más allá de su desarrollo inicial, Llama Stack está disponible como versión preliminar para desarrolladores dentro de Red Hat AI, para aquellas empresas que hoy quieran comprometerse con el futuro.
En lo que respecta a los agentes de IA, aún no contamos con un protocolo común para el modo en que otras aplicaciones les proporcionan contexto e información. Aquí es donde entra en juego el protocolo de contexto de modelo (MCP). Desarrollado y convertido en open source por Anthropic a fines de 2024, se trata de un protocolo estandarizado para las interacciones entre agente y aplicación, similar a los protocolos cliente-servidor de la informática tradicional. Pero lo más importante es que las actuales aplicaciones pueden, de improviso, valerse de la IA sin necesidad de una reimplementación a gran escala. Esto es importantísimo y no sería posible si no fuera por el poder del open source. Al igual que Llama Stack, MCP está disponible como versión preliminar para desarrolladores en la plataforma de Red Hat AI.
Los modelos propietarios de IA pueden haber logrado una ventaja inicial, pero no hay duda de que los ecosistemas abiertos los han superado, en especial en cuanto al software que sustenta estos modelos de IA de próxima generación. Gracias a vLLM y llm-d, junto con productos empresariales open source con seguridad reforzada, el futuro de la IA es prometedor, independientemente del modelo, el acelerador o la nube, y está impulsado por el open source y por Red Hat.