Connect with us

Tecnología

Twitter trae un nuevo Espacio para tener interacción exclusiva con seguidores específicos

Publicado

el

 Twitter anunció hoy una novedad muy esperada por los creadores de contenido de la plataforma. Se trata de la capacidad de crear Espacios exclusivos a los que solo pueden acceder aquellos que están suscritos a Super Follows de un usuario específico.

De esta forma, Twitter quiere estrechar la relación entre los creadores con presencia en la red social y aquellos usuarios que avalan y apoyan económicamente sus contenidos.

“Presentamos Super Follows Spaces, una nueva manera de estar incluso más conectado con tus Super Followers, disponible ya para todos los creadores con Super Follows”, mencionan en el blog oficial de Twitter.

Los suscriptores que se unan a estos Espacios en iOS o Android  pueden unirse a las conversaciones como de costumbre. Sin embargo, si se accede a través de la web de Twitter, la única opción es escuchar las conversaciones de otras personas.

Así se puede crear Espacios en Twitter

Hay que presionar la tecla para generar un tuit en la cronología de inicio. Se desplegará un menú en el cual hay que seleccionar el ícono de Espacios.Espacios llega a más usuariosEspacios llega a más usuarios

Para habilitar esta opción hay que activar el acceso al micrófono en la aplicación. Esto se indicará cuando se esté configurando el Espacio. Se puede optar para que la red social siempre tenga este permiso; sólo cuando la app está en uso o bien que se le solicite al usuario cada vez que se vaya a acceder a esta herramienta.

Una vez hecho esto hay que seguir los pasos de configuración que se indican en pantalla, entre ellos, elegir un nombre para el espacio.Para configurar Spaces hay que seguir los pasos en pantallaPara configurar Spaces hay que seguir los pasos en pantalla

Cuando se crea un Espacio se tiene el control respecto de los temas que se abordarán y quién tiene la palabra. Se puede invitar a las otros usuarios a unirse al Espacio por medio de un mensaje directo o compartiendo un tuit al respecto.

Como anfitrión se puede silenciar a los hablantes (a uno por uno o todos al mismo tiempo), o incluso remover por completo a las personas dentro del Espacio creado. Las personas bloqueadas ya no podrán sumarse al Espacio en cuestión. Cabe señalar que cualquier persona puede reportar y bloquear a otro en un Espacio, o reportar el Espacio.

Además, si alguien que se bloqueó toma la palabra en un Espacio en el que uno se unió, se verá etiquetas y avisos que dan cuenta de esto.

Cómo crear Super Follows Spaces

Según la explicación de Twitter, si se quiere crear un Espacio exclusivo para los Súper Followers, solo hay que seguir los siguientes pasos:

1. Entrar a Twitter.

2. Posteriormente, crear un Espacio como se ha especificado anteriormente.

3. Aquí se podrá seleccionar Solo se pueden unir Super Followers.

4. Comenzar el Espacio.Crear Super Follow Spaces. (foto: Blog de Twitter)Crear Super Follow Spaces. (foto: Blog de Twitter)

Listo. Aunque el resto de usuarios y seguidores de la plataforma pueden ver el espacio creado, solo aquellos que tienen una suscripción pueden acceder a él. 

Por supuesto, si quieren participar, Twitter anima a estos seguidores a unirse a la lista de Super Follows para aprovechar todo el contenido exclusivo de su creador favorito.

Otros detalles importantes sobre los Super Follows

Sin embargo, los Super Follows Spaces no son la única forma de crear Spaces exclusivos. El año pasado, Twitter presentó su función Ticketed Spaces, una función que permite a los usuarios ingresar a un espacio mediante un pago por adelantado.

Los precios de estos ‘boletos’ pueden variar desde $1 hasta $999. Además, los creadores tienen la opción de limitar el número de entradas disponibles.

En cualquier caso, puedes suscribirte a los Super Follows de tus usuarios favoritos por una tarifa mensual. Los creadores pueden elegir el precio de la suscripción, que puede variar entre USD$ 2,99, USD$$ 4,99 o USD$ 9,99 por mes.Así se podrán adquirir los boletos para los espacios de audio exclusivos. (Foto: Twitter)Así se podrán adquirir los boletos para los espacios de audio exclusivos. (Foto: Twitter)

Principal

Samsung alista el lanzamiento de su nueva serie Z con inteligencia artificial integrada

Publicado

el

Samsung se prepara para presentar una nueva generación de sus teléfonos plegables de la serie Z —Fold y Flip— con una promesa clara: llevar la experiencia móvil a un nivel “Ultra” que combine diseño, innovación y tecnología basada en inteligencia artificial.

Aunque la compañía aún no ha revelado detalles específicos ni la fecha de lanzamiento, ha adelantado que esta nueva línea buscará integrar arte e ingeniería para mejorar las interacciones cotidianas, más allá de simples mejoras técnicas.

Entre las funciones destacadas se espera una mayor portabilidad, una cámara optimizada y una integración más profunda con herramientas de IA, capaces de asistir al usuario en tareas como responder correos, encontrar lugares por comandos de voz o capturar fotos con mayor precisión.

Con esta apuesta, Samsung pretende redefinir el concepto de experiencia móvil de alta gama. La expectativa crece en torno a una presentación que marcaría un nuevo estándar en dispositivos plegables.

Continuar Leyendo

Principal

Desbloqueando la IA empresarial con innovación open source: cualquier modelo, acelerador o nube

Publicado

el

Por: Chris Wright, director de tecnología y vicepresidente sénior, Ingeniero Global, Red Hat

“Cualquier carga de trabajo, cualquier aplicación, en cualquier lugar” fue el mantra del Red Hat Summit 2023. Es cierto que, en los últimos dos años, hemos visto algunos cambios en TI. Pero la visión de Red Hat no ha cambiado, ha evolucionado.

“Cualquier modelo, acelerador o nube”.

Ese es el mensaje de la nube híbrida para la era de la IA. Y la mejor parte es que, al igual que la “antigua” nube híbrida, la innovación open source es la que impulsa todo. En el Red Hat Summit mostramos cómo los ecosistemas de IA estructurados en torno al open source y a modelos abiertos pueden generar nuevas opciones para las empresas.

La apertura trae consigo la posibilidad de elegir y esta libertad da paso a una mayor flexibilidad: desde el modelo que mejor responde a las necesidades de la empresa hasta el acelerador subyacente y el lugar donde se ejecutará efectivamente la carga de trabajo. Las estrategias de IA exitosas seguirán a los datos, dondequiera que se encuentren en la nube híbrida.

¿Y qué impulsa a la nube híbrida? El open source.

La inferencia potencia la IA

En mi opinión, debemos empezar a mirar más allá de los modelos. Sí, es verdad que los modelos son muy importantes para las estrategias de IA. Pero sin la inferencia, la faceta «práctica» de la IA, los modelos son simplemente conjuntos de datos que no «hacen» nada. La inferencia se refiere a la rapidez con la que un modelo responde a la información ingresada por el usuario y a la eficiencia con la que se pueden tomar decisiones en recursos informáticos acelerados. En última instancia, las respuestas lentas y la poca eficiencia cuestan dinero y generan desconfianza en el cliente.

Es por eso que me entusiasma mucho que Red Hat priorice la inferencia en nuestro trabajo con la IA open source, comenzando con el lanzamiento de Red Hat AI Inference Server. Esta solución, que surge a partir del proyecto open source vLLM líder y está optimizada con tecnologías Neural Magic, ofrece a las implementaciones de IA un servidor de inferencia con soporte, ciclo de vida completo y listo para producción. Lo mejor de todo es que puede rastrear tus datos dondequiera que se encuentren, ya que la solución funcionará con cualquier plataforma de Linux, cualquier distribución de Kubernetes, Red Hat o de cualquier otro modo.

¿Qué es mejor que la IA empresarial? La IA empresarial a gran escala

La aplicación estrella de la TI empresarial no es una única carga de trabajo unificada ni un nuevo servicio en la nube: es la capacidad de escalar de forma rápida y eficiente. Esto también se aplica a la IA. Sin embargo, la IA presenta una particularidad: los recursos informáticos acelerados que sustentan las cargas de trabajo de IA también deben escalarse. Esta no es una tarea fácil, en vista de los gastos y las habilidades necesarias para implementar este hardware en la forma debida.

Lo que necesitamos no es solo la capacidad de escalar la IA, sino también de distribuir cargas de trabajo masivas de IA entre múltiples clústeres de computación acelerada. Esto se ve agravado por el escalado del tiempo de inferencia que requieren los modelos de razonamiento y la IA agéntica. Al compartir la carga, se pueden reducir los problemas de rendimiento, mejorar la eficiencia y, en última instancia, la experiencia del usuario. Con el proyecto llm-d de código abierto, Red Hat ha tomado medidas para hacer frente a este problema.

El proyecto llm-d, dirigido por Red Hat y respaldado por líderes del sector de la IA en aceleración de hardware, desarrollo de modelos y cloud computing, combina el poder comprobado de la orquestación de Kubernetes con vLLM, uniendo dos referentes del open source para responder a una necesidad muy real. Junto con tecnologías como el enrutamiento de redes con IA y la descarga de caché KV, entre otras, llm-d descentraliza y democratiza la inferencia de IA y, de ese modo, ayuda a las empresas a optimizar sus recursos informáticos y disponer de cargas de trabajo de IA más efectivas y de menor costo.

Abierto a lo que se viene en IA, no solo al código

Llm-d y vLLM, incluidos en Red Hat AI Inference Server, son tecnologías open source preparadas para responder a los desafíos de la IA empresarial de hoy. Sin embargo, las comunidades de desarrollo no se limitan a analizar lo que se necesita hacer ahora. Las tecnologías de IA tienen una forma particular de acortar los plazos: el vértigo de la innovación implica que algo que se creía que no plantearía un desafío en años, de repente debe afrontarse de lleno.

Por ese motivo es que Red Hat está destinando recursos a la fase de desarrollo inicial de Llama Stack, el proyecto liderado por Meta que ofrece componentes básicos y API estandarizados para los ciclos de vida de las aplicaciones de IA generativa. Además, Llama Stack es ideal para crear aplicaciones de IA agénticas, que representan una nueva evolución de las potentes cargas de trabajo de IA generativa que vemos hoy en día. Más allá de su desarrollo inicial, Llama Stack está disponible como versión preliminar para desarrolladores dentro de Red Hat AI, para aquellas empresas que hoy quieran comprometerse con el futuro.

En lo que respecta a los agentes de IA, aún no contamos con un protocolo común para el modo en que otras aplicaciones les proporcionan contexto e información. Aquí es donde entra en juego el protocolo de contexto de modelo (MCP). Desarrollado y convertido en open source por Anthropic a fines de 2024, se trata de un protocolo estandarizado para las interacciones entre agente y aplicación, similar a los protocolos cliente-servidor de la informática tradicional. Pero lo más importante es que las actuales aplicaciones pueden, de improviso, valerse de la IA sin necesidad de una reimplementación a gran escala. Esto es importantísimo y no sería posible si no fuera por el poder del open source. Al igual que Llama Stack, MCP está disponible como versión preliminar para desarrolladores en la plataforma de Red Hat AI.

Los modelos propietarios de IA pueden haber logrado una ventaja inicial, pero no hay duda de que los ecosistemas abiertos los han superado, en especial en cuanto al software que sustenta estos modelos de IA de próxima generación. Gracias a vLLM y llm-d, junto con productos empresariales open source con seguridad reforzada, el futuro de la IA es prometedor, independientemente del modelo, el acelerador o la nube, y está impulsado por el open source y por Red Hat.

Continuar Leyendo

Principal

Huawei presenta en El Salvador asistentes virtuales con inteligencia artificial personalizada

Publicado

el

Huawei continúa avanzando en el desarrollo de inteligencia artificial en El Salvador con la presentación de avatares digitales personalizados, capaces de operar como asistentes virtuales en diversos entornos como universidades, aeropuertos, comercios y bibliotecas.

La empresa tecnológica demostró cómo estos agentes digitales, impulsados por la nube de Huawei Cloud, pueden adaptarse a las necesidades específicas de cada cliente. “Estos avatares están diseñados para procesar grandes volúmenes de información y ofrecer atención simultánea a múltiples usuarios”, explicó José Roberto Rivas, gerente de desarrollo de negocio Cloud.

Uno de los elementos distintivos de esta tecnología es su capacidad para replicar acento, tono, gestos y hasta la apariencia física de una persona a partir de una fotografía y muestras de voz. “Se entrena al avatar con videos, textos y audios, para lograr una imitación natural y personalizada”, indicó Ernesto Briceño, gerente de ventas de Huawei Enterprise.

Según Huawei, esta herramienta no busca sustituir al personal humano, sino complementar sus funciones. Un ejemplo práctico sería su implementación en bibliotecas, donde el avatar puede guiar a los usuarios en la búsqueda de libros, liberando al personal para realizar otras tareas.

La tecnología ya está disponible para empresas, instituciones y usuarios individuales en el país, con soporte técnico local. Huawei sostiene que estos desarrollos permiten mejorar la eficiencia en servicios sin comprometer el valor humano del trabajo.

Continuar Leyendo

Publicidad

Lo Más Leído