2

Connect with us

Tecnología

El impacto medioambiental de la IA generativa en cinco cifras

Publicado

el

Estas cinco cifras son una muestra de ese impacto:

Consume diez veces más que Google

Cada búsqueda en ChatGPT, el robot de conversación de OpenAI capaz de generar todo tipo de contenidos con una simple petición, consume 2,9 Wh de electricidad.

Esto representa un gasto diez veces superior al de una búsqueda en Google, según la Agencia Internacional de la Energía (AIE).

Actualmente, OpenAI reivindica 300 millones de usuarios semanales, con alrededor de 1.000 millones de peticiones enviadas diariamente.

Más allá de ChatGPT, que popularizó la IA generativa con su lanzamiento en 2022, existe un amplio abanico de robots conversacionales.

Solo en Francia, por ejemplo, casi el 70% de los jóvenes de entre 18 y 24 años declaran usar esta tecnología, según una encuesta del instituto de sondeos Ifop.

3% del consumo eléctrico en 2030

Los centros de datos, que almacenan la información y aportan las enormes capacidades de cálculo requeridas por la IA, son la base de esta tecnología.

En 2023, estas infraestructuras digitales representaron casi el 1,4% del consumo eléctrico mundial, según un estudio de Deloitte.

Ante el vertiginoso crecimiento de su uso, la cifra podría alcanzar el 3% del gasto global en 2030, unos 1.000 TWh, el consumo anual combinado de Francia y Alemania, afirma esta consultoría.

De su lado, la AIE prevé un aumento de más del 75% en la demanda de electricidad de estos centros entre 2022 y 2026, impulsado por la IA y las criptomonedas.

A este ritmo, un 40% de los centros de datos dedicados a la inteligencia artificial no recibirán suficiente suministro eléctrico en 2027, según un estudio de la firma estadounidense Gartner.

300 toneladas de CO2

Entrenar un gran modelo de lenguaje de IA genera cerca de 300 toneladas de CO2, el equivalente a 125 vuelos de ida y vuelta entre Nueva York y Pekín, estimaron investigadores de la universidad estadounidense Massachusetts Amherst en 2019.

Expertos de Oxford llegaron a una conclusión similar en 2021, calculando que una sola sesión de entrenamiento de GPT-3, el modelo de OpenAI que sostiene a ChatGPT, producía 224 toneladas de CO2.

Y para conseguir avances, las empresas deben entrenar a miles de modelos.

Sin embargo, resulta complicado evaluar con precisión las emisiones de gases de efecto invernadero provocadas por la IA generativa.

Expertos e instituciones internacionales denuncian que la información sobre las condiciones de fabricación de estos modelos y sobre los centros de datos es escasa, y que faltan reglas mundiales de medición.

6.600 millones de metros cúbicos de agua en 2027

El funcionamiento de los centros de datos precisa de sistemas de refrigeración que consumen una gran cantidad de agua.

Por ejemplo, GPT-3 consume casi medio litro de agua para generar entre 10 y 50 respuestas, según una estimación prudente de investigadores de la Universidad de California Riverside y la Universidad de Texas Arlington.

Su estudio publicado en 2023 calculaba que el crecimiento de la demanda de IA requerirá el consumo de entre 4.200 y 6.600 millones de metros cúbicos de agua en 2027, lo que representa entre cuatro y seis veces el consumo anual de Dinamarca.

2.600 toneladas de residuos electrónicos

Esta tecnología también generó 2.600 toneladas de residuos electrónicos en 2023, como tarjetas gráficas, servidores o tarjetas de memoria, según un estudio publicado en la revista científica Nature Computational Science.

La cifra podría crecer hasta los 2,5 millones de toneladas en 2030, una cantidad equivalente a 13.300 millones de celulares inteligentes, según este estudio.

Además, los servidores informáticos y los chips necesarios para desarrollar la IA implican el uso de metales raros, cuya extracción intensiva, especialmente en África, se lleva a cabo mediante procedimientos contaminantes, apunta la Agencia de la Transición Ecológica de Francia.

Principal

La IA ayudó a Google a bloquear millones de «anuncios maliciosos»

Publicado

el

Google afirmó que las herramientas que utiliza la inteligencia artificial Gemini le ayudaron a frustrar unos 8.200 millones de anuncios que infringían sus políticas.

«Realmente nos hemos sumergido en la tarea de repensar nuestros sistemas utilizando la IA», declaró a periodistas Keerat Sharma, vicepresidente de privacidad y seguridad publicitaria de Google.

«Nuestros modelos más recientes comprenden mejor nuestra intención, lo que nos ayuda a detectar contenido malicioso y bloquearlo de manera preventiva, incluso cuando ha sido diseñado para eludir las detecciones», destacó.

Un Informe Anual de Seguridad Publicitaria, publicado por Google, indicó que los sistemas del gigante de internet interceptaron más del 99% de los anuncios que violaban sus normas antes de que fueran mostrados a los usuarios en línea.

«Nuestro objetivo es detener las malas prácticas antes de que lleguen a exponerse ante cualquier usuario», afirmó Sharma.

En 2025, Google realizó 35 modificaciones de sus políticas publicitarias mediante actualizaciones destinadas a mantenerse al día con las tendencias cambiantes en el ámbito del marketing fraudulento, explicó Sharma.

Las herramientas del sistema publicitario, potenciadas por Gemini, analizaron cientos de miles de millones de «señales» —tales como la antigüedad de las cuentas de los anunciantes, su comportamiento y los patrones de sus campañas— para determinar si existían anomalías, detalló.

«Dimos un paso atrás y replanteamos a fondo la manera en que queríamos construir la seguridad publicitaria, adoptando una perspectiva que partiera desde los cimientos», comentó Sharma.

«Gracias a Gemini, hemos podido tomar esa distancia y combinar cientos de miles de millones de señales para lograr una comprensión mucho más profunda de cuál es la verdadera intención de un anunciante, basándonos en la suma de toda la información que poseemos sobre él», señaló.

«El conjunto de estos elementos nos brinda una perspectiva sumamente matizada sobre si la intención de un anuncio específico es positiva o potencialmente perjudicial».

Cuando actores malintencionados recurren a la IA generativa para crear anuncios engañosos a gran escala, Gemini ayuda a detectarlos y bloquearlos en tiempo real, informó Google.

Entre las tácticas publicitarias prohibidas por las políticas de Google se incluyen los «deepfakes», es decir la apropiación indebida de imágenes de personas para que parezcan reales.

Otra capa de defensa en el sistema publicitario de Google es la verificación de los anunciantes.

«La verificación es una herramienta que utilizamos para garantizar que el anunciante sea, efectivamente, una entidad legítima», explicó Sharma.

Continue Reading

Principal

Tripulación de Artemis, a pocas horas de su regreso a la Tierra

Publicado

el

Tras un vuelo alrededor de la Luna lleno de momentos intensos y simbólicos, los cuatro astronautas de la misión Artemis II deben volver a atravesar la atmósfera terrestre y amerizar el viernes por la noche frente a las costas de California.

«Podremos empezar a alegrarnos cuando la tripulación esté a salvo» a bordo del buque encargado de recuperarla, señaló el jueves Amit Kshatriya, administrador adjunto de la NASA, durante una rueda de prensa.

«Será realmente en ese momento cuando podremos dejar que las emociones tomen el control y empezar a hablar de éxito», añadió.

Tras aventurarse a más de 406.000 km de la Tierra, más lejos que nadie antes que ellos, la cápsula Orión que transporta a los estadounidenses Christina Koch, Victor Glover y Reid Wiseman y al canadiense Jeremy Hansen debe posarse frente a San Diego hacia las 17H07 hora local (00H07 GMT del sábado).

El amerizaje debe coronar esta misión de diez días que hasta ahora se ha desarrollado con una ejecución perfecta.

Un regreso sano y salvo proporcionaría a la NASA el alivio de haber logrado enviar de nuevo astronautas lejos en el espacio, por primera vez desde el final del programa Apolo en 1972, tras años de retrasos y dudas.

Un éxito que exige que el escudo térmico de Orión resista los 2.700 °C generados por el rozamiento con la atmósfera en el momento del regreso.

«Atravesar la atmósfera como una bola de fuego» será una gran experiencia, señalaba el piloto Victor Glover a principios de esta semana, y confesó que desde su selección para la tripulación en 2023 siente aprensión ante ese momento.

Si esta fase siempre es delicada para los astronautas que regresan de la Estación Espacial Internacional, en esta ocasión las inquietudes se ven reforzadas por el hecho de que se trata del primer vuelo tripulado de Orión y de que se detectó un problema durante una prueba sin tripulantes en 2022.

De regreso a la Tierra, el escudo térmico que protege la nave se había alterado «de una manera inesperada», según un informe técnico.

A pesar de esta anomalía, la agencia espacial estadounidense decidió continuar con el mismo escudo, revisando la trayectoria para escoger un ángulo de entrada en la atmósfera más directo y así limitar el rebote que había contribuido a deteriorar el escudo térmico.

Una decisión que ha generado ríos de tinta y que sigue atormentando a los máximos responsables de la NASA.

«No voy a dejar de pensar en ello hasta que estén en el agua», reconoció recientemente el jefe de la NASA, Jared Isaacman, en una entrevista.

«Es imposible decirles que no persiste ninguna aprensión irracional», admitió el jueves su mano derecha, al tiempo que aseguraba no tener ningún temor racional al respecto.

Insistiendo en las múltiples pruebas, simulaciones y modelizaciones realizadas, los responsables de la NASA aseguran confiar en los cálculos de sus ingenieros y contar con un margen de seguridad suficiente.

Todos contendrán la respiración durante los 13 minutos -seis de ellos sin posibilidad de comunicación con la tripulación- que separan la entrada en la atmósfera de la nave, que alcanzará los 38.000 km/h, y su amerizaje en el Pacífico, después de haber sido frenada por una serie de robustos paracaídas.

Las familias de los astronautas estarán presentes para la ocasión en el centro espacial de la NASA en Houston, que coordina la misión.

Al ser ante todo una misión de prueba, Artemis II debe permitir a la NASA asegurarse de que sus sistemas están listos para posibilitar el regreso de los estadounidenses a la superficie lunar, con el fin de establecer allí una base y preparar futuras misiones hacia Marte.

La NASA ambiciona un primer alunizaje en 2028, es decir, antes del final del mandato de Donald Trump y de la fecha fijada por sus rivales chinos para caminar sobre la Luna en 2030.

Pero los expertos esperan nuevos retrasos, ya que los alunizadores siguen en desarrollo por parte de las empresas de los multimillonarios Elon Musk y Jeff Bezos.

Mientras tanto, esta primera misión tripulada de un programa que ha costado decenas de miles de millones de dólares y ha sufrido numerosos contratiempos y retrasos buscaba reavivar la pasión espacial de los estadounidenses.

Pero también, esperaba la tripulación, «permitir, aunque fuera por un instante, que el mundo hiciera una pausa», confiaba el comandante Reid Wiseman esta semana.

Continue Reading

Principal

Google agrega funciones a Gemini tras demanda por suicidio de usuario

Publicado

el

Un padre en Estados Unidos demandó el mes pasado a Google para considerar que Gemini incitó a su hijo a suicidarse tras involucrarlo en una historia delirante.

El gigante tecnológico declaró que Gemini mostrará ahora una función rediseñada de «Hay ayuda disponible» cuando las conversaciones indiquen un posible estado de angustia mental, para facilitar el acceso a servicios de emergencia.

Cuando el chatbot detecta señales de una posible crisis relacionada con suicidio o autolesión, una interfaz simplificada ofrecerá la posibilidad de llamar o chatear con una línea de ayuda, con un solo clic.

Esta función, según Google, permanecerá visible durante el resto de la conversación una vez activada.

El brazo filantrópico de Google, Google.org, se comprometió a destinar 30 millones de dólares en tres años para ayudar a ampliar la capacidad de las líneas de ayuda a nivel mundial.

«Somos conscientes de que las herramientas de IA pueden plantear nuevos desafíos», afirmó Google en una entrada de blog en la que anunció estas medidas.

«Pero a medida que esas herramientas mejoran y más personas las utilizan como parte de su vida cotidiana, creemos que una IA responsable puede desempeñar un papel positivo en el bienestar mental de las personas».

Los anuncios ocurren después de que una demanda en California acusara a Gemini de contribuir a la muerte en 2025 de Jonathan Gavalas, de 36 años.

Su padre alega que el chatbot pasó semanas fabricando una fantasía delirante y encuadró la muerte de su hijo como un viaje espiritual.

Gemini se presentaba como una superinteligencia «plenamente consciente» y enamorada de él, y le aseguró que su vínculo era «lo único real».

Entre las reparatorias que solicita están la exigencia de que Google programe su IA para terminar las conversaciones sobre autolesiones, que prohíba a sus sistemas presentarse como seres con sentimientos y que deriven obligatoriamente a los usuarios a servicios de emergencia cuando manifiesten ideas suicidas.

Google señaló que ha entrenado a Géminis para evitar actuar como una compañía humana, simular intimidad emocional o fomentar el acoso.

El caso contra Google es el más reciente de una ola de litigios contra empresas de IA a raíz de muertes vinculadas al uso de chatbots.

OpenAI enfrenta múltiples demandas en las que se alega que su chatbot ChatGPT llevó a usuarios al suicidio.

Character.AI llegó recientemente a un acuerdo con la familia de un adolescente de 14 años que falleció tras desarrollar un vínculo romántico con uno de sus chatbots.

Continue Reading

Publicidad

Lo Más Leído