Tecnología
Google trabaja en un sistema para detectar el lenguaje de señas en las videollamadas

Google trabaja en tecnologías para hacer más accesibles las videollamadas y con este objetivo desarrolló un nuevo sistema que permite detectar en tiempo real cuándo un participante utiliza la lengua de signos, con el objetivo de destacarlos en las videollamadas grupales.
La mayor parte de los servicios de videollamadas utilizan sistemas para destacar a las personas que hablan en voz alta en las reuniones grupales, algo que supone inconvenientes para las personas con problemas de audición cuando se comunican mediante lengua de signos.
Para solucionar este problema, un equipo de investigadores de Google Research ha desarrollado un modelo de detección de la lengua de signos en tiempo real basado en la estimación de las poses que puede identificar a las personas como hablantes mientras se comunican con esta lengua.
El sistema desarrollado por Google, presentado en la conferencias europea de visión computarizada ECCV’20, emplea un diseño ligero con el que reduce la cantidad de carga de CPU necesaria para ejecutarlo, para no afectar así a la calidad de las llamadas.
La herramienta utiliza un modelo de estimación de poses de brazos y manos, conocido como PoseNet, que reduce los datos de la imagen a una serie de marcadores en los ojos, nariz, manos y hombros del usuarios, entre otros, de manera que se detecta también el movimiento.
El modelo de Google presenta cerca del 80 por ciento de efectividad detectando a las personas que hablan lengua de signos cuando emplea tan solo 0,000003 segundos de datos, mientras que si se usan los 50 fotogramas anteriores la efectividad asciende hasta el 83,4 por ciento.Lenguaje de señas Google
Asimismo, los investigadores añadieron una capa adicional al modelo, de arquitectura de memoria a largo y corto plazo, que incluye “memoria sobre los pasos de tiempo anteriores, pero sin retroceso”, y con la que logra una efectividad del 91,5 por ciento en apenas 3,5 milisegundos.
Para mejorar la accesibilidad de las plataformas de videoconferencias, los investigadores han hecho su herramienta compatible con ellas, para que pueda usarse para señalar como ‘hablantes’ a quienes utilicen lengua de signos.
Este sistema emite ondas de sonido ultrasónicas cuando advierte a una persona que emplea esta lengua, de forma que las personas no las pueden percibir pero sí sus tecnologías de detección del habla, que destacan así al usuario en las videollamadas.
“Para comprender mejor qué tan bien funciona la demostración en la práctica, realizamos un estudio de experiencia del usuario en el que se pidió a los participantes que usaran nuestra demostración experimental durante una videoconferencia y que se comunicaran a través del lenguaje de señas como de costumbre. También se les pidió que se firmaran entre sí y sobre los participantes que hablaban para probar el comportamiento de cambio de altavoz. Los participantes respondieron de forma postiva cuando que el lenguaje de señas estaba siendo detectado y tratado como un habla audible, y que la demostración identificó exitosamente al asistente que firmaba y activó el ícono del medidor de audio del sistema de conferencias para llamar la atención sobre el asistente que firmaba”, se menciona en el comunicado difundido.
Los investigadores han publicado en código abierto en la plataforma GitHub su modelo de detección y esperan que su tecnología pueda “aprovecharse para permitir que los hablantes de lengua de signos utilicen las videoconferencias de manera más conveniente”.
Principal
Acer lanza seis nuevas laptops Copilot+ con capacidades de inteligencia artificial

La compañía tecnológica Acer ha anunciado el lanzamiento de seis nuevas laptops Copilot+, ampliando así su línea Aspire AI con dispositivos que integran funcionalidades avanzadas de inteligencia artificial. Los nuevos modelos estarán disponibles en versiones de 14 y 16 pulgadas, y contarán con procesadores Intel, AMD y Snapdragon, cada uno optimizado para ofrecer experiencias potenciadas por IA.
Como parte del ecosistema Copilot+ PC, estos dispositivos incluyen herramientas impulsadas por inteligencia artificial diseñadas para mejorar la productividad. Entre las funciones destacadas se encuentran las versiones preliminares de Recall y Click to Do, así como una búsqueda mejorada mediante Windows Search, que permite reanudar tareas y encontrar información de forma más eficiente.
Además, Acer ha integrado sus propias aplicaciones exclusivas con capacidades de IA, como AcerSense, Acer LiveArt 2.0, Acer PurifiedView 2.0 y Acer PurifiedVoice 2.0, que facilitan la gestión del sistema, la edición de contenido, y optimizan la calidad de las videollamadas.
Los nuevos portátiles ofrecen hasta 32 GB de memoria LPDDR5X, 1 TB de almacenamiento SSD PCIe Gen4, y conectividad moderna con Wi-Fi 7 y Bluetooth 5.4. También incorporan pantallas de alta resolución, algunos modelos con OLED WQXGA+ y brillo de hasta 500 nits, además de opciones con pantallas táctiles y resolución WUXGA.
A nivel de puertos, los equipos incluyen USB Tipo-C, USB Tipo-A, HDMI 2.1 y ranura para tarjetas MicroSD, con una tasa de actualización de pantalla de hasta 120 Hz.
Las versiones con procesadores Intel Core Ultra 7 y gráficos Intel Arc están orientadas a creadores de contenido, mientras que los modelos con AMD Ryzen AI 7 350 aprovechan la arquitectura Zen 5 para ejecutar aplicaciones de IA con eficiencia energética. Por su parte, las ediciones con Snapdragon X incorporan CPU Qualcomm Oryon, GPU Adreno y NPU Hexagon, destacando por su rendimiento fluido en tareas cotidianas y multimedia.
Con esta nueva gama, Acer apuesta por integrar de forma nativa la inteligencia artificial en el entorno portátil, en un momento en que la industria tecnológica busca transformar la experiencia de uso tradicional con herramientas más intuitivas, versátiles y conectadas.
Principal
Jony Ive, exdiseñador de Apple, se une a OpenAI para crear nuevos dispositivos con inteligencia artificial

Jony Ive, el reconocido diseñador británico responsable de productos emblemáticos de Apple como el iPhone y la MacBook Pro, se unirá junto a su equipo a OpenAI para diseñar una nueva familia de dispositivos centrados en facilitar el uso cotidiano de la inteligencia artificial (IA), anunció la compañía desarrolladora de ChatGPT.
Según confirmó el CEO de OpenAI, Sam Altman, en un video publicado en la red social X, la start-up LoveFrom —también conocida como io, fundada por Ive tras su salida de Apple— será absorbida por OpenAI. Aunque los términos financieros de la operación no se han hecho públicos, varios medios estiman que la valoración de la empresa ronda los 6.500 millones de dólares.
En el video, que muestra una conversación informal entre Altman e Ive en una cafetería de San Francisco, ambos reflexionan sobre la necesidad de repensar los dispositivos que usamos para interactuar con la tecnología actual.
«Los productos que utilizamos para conectarnos y acceder a una tecnología inimaginable tienen décadas de antigüedad», afirmó Ive. «Por lo tanto, lo lógico es pensar que hay algo más allá».
Altman reveló que OpenAI e Ive han estado colaborando durante dos años y que ya existen «diseños concretos», incluyendo un prototipo que calificó como «la pieza de tecnología más genial que el mundo haya visto jamás», sin ofrecer más detalles.
Ambas partes señalaron que los primeros resultados de esta colaboración podrían presentarse el próximo año.
La alianza se da en un contexto de creciente competencia entre las principales tecnológicas por llevar la inteligencia artificial generativa —capaz de crear textos, imágenes y otros contenidos a partir de comandos— a dispositivos de uso cotidiano. Hasta ahora, los avances se han concentrado en aplicaciones y asistentes digitales, como Alexa+, la nueva versión con IA lanzada recientemente por Amazon.
Con este paso, OpenAI busca no solo innovar en software, sino también en la forma física y experiencial con la que las personas interactúan con la inteligencia artificial, consolidando así su posición como una de las empresas emergentes más influyentes de Silicon Valley desde el lanzamiento de ChatGPT en 2022.
Principal
Microsoft anuncia acuerdo con Musk para albergar su chatbot de IA

Microsoft anunció que su plataforma de almacenamiento en la nube albergará tecnología de la empresa de inteligencia artificial de Elon Musk, xAI, días después de la polémica generada por la referencia de uno de sus modelos a un «genocidio blanco» en Sudáfrica.
Musk dijo en un evento de Microsoft que sus programas «aspiran a la verdad con mínimos errores», pero agregó que «siempre se cometerán algunos errores».
El chatbot Grok, de xAI, generó polémica por afirmar que en Sudáfrica hubo opresión hacia la población blanca.
En una conversación grabada con el consejero delegado de Microsoft, Satya Nadella, Musk dijo que xAI siempre sería transparente a la hora de reconocer errores de sus modelos de IA Grok.
«Es increíblemente importante que los modelos de IA se basen en la realidad», afirmó el magnate de Tesla.
Recientemente se descubrió que el último modelo del líder del sector, OpenAI, daba respuestas demasiado aduladoras hacia el usuario. La empresa salió de inmediato al paso y dijo que estaba introduciendo cambios para revertir esta situación.
Las respuestas proporcionadas por Grok hicieron saltar las alarmas, ya que reflejaban una teoría de la conspiración compartida a menudo por Musk en sus publicaciones en X, la red social del magnate de Tesla.
La empresa aseguró que el problema de estas respuesta fue culpa de una «modificación no autorizada» de Grok que le permitió dar respuestas que violaban las políticas internas y los valores fundamentales de xAI».