2

Connect with us

Tecnología

Autorizan el uso de robots armados en las calles en San Francisco, Estados Unidos

Publicado

el

¿Robots armados patrullando las calles? aunque parezca salido de una escena de la película de Terminator, pronto podría ser la realidad en San Francisco, una de las principales ciudades de California, en Estados Unidos.

La ciudad, reconocida por sus políticas progresistas, ha tomado una decisión que muchos catalogan como conservadora: permitirle a la policía la utilización de robots armados controlados a control remoto para patrullar las calles.

El comité asesor de la ciudad votó 8 a favor y 3 en contra de la medida, dando luz verde a la implementación del proyecto. Si bien se votó con la salvedad de que los robots armados se usen solo en casos de situaciones extremas donde haya vidas humanas en juego y no haya otra opción diferente para calmar la situación, la realidad es que esa es una valoración subjetiva.

En un momento en el que muchos departamentos de policía a nivel nacional están bajo la lupa por cuestiones opuestas -por un lado los índices de criminalidad en grandes ciudades se han disparado y por el otro se les imputa un uso excesivo de fuerza-, la ley de California les exige a sus departamentos de policía que hagan un inventario de sus equipos de estilo militar y que para su uso se busque aprobación del público. En este contexto es que los robots armados llegaron al comité asesor.

San Francisco y Oakland son las dos ciudades de California que por el momento dieron luz verde al uso de este tipo de robots. Cabe destacar que son dos de las urbes donde la violencia más ha crecido en los últimos tiempos.

En todo el país, durante más de una década, los departamentos de policía han utilizado robots en situaciones de toma de rehenes para comunicarse con los agresores o en casos donde haya presencia de explosivos.

En el 2016, la policía de Dallas fue la primera en matar a un sospechoso mediante el uso de un robot de este estilo. Lo hicieron al enviar un robot con explosivos dentro de donde un sospechoso se estaba escondiendo tras haber matado a cinco policías y haber herido a otros nueve.

En su momento el caso generó polémica, pero a la larga el jefe de policía de Dallas fue mayormente felicitado por cómo manejó la situación y el uso de la tecnología que hizo.

Si bien la tecnología avanza y las opciones hoy son mucho mayores, el mayor debate en los departamentos de policías es ético y no de posibilidades tecnológicas.

Ciencia

Anthropic investiga acceso no autorizado a su modelo de IA Mythos

Publicado

el

La empresa estadounidense de inteligencia artificial Anthropic anunció el martes que investiga un acceso no autorizado a su poderoso modelo Mythos, que la compañía teme se puede convertir en una herramienta valiosa para los hackers.

Anthropic dijo semanas atrás que limitó inicialmente el lanzamiento de Mythos a 40 grandes firmas tecnológicas para darles ventaja a la hora de corregir vulnerabilidades de ciberseguridad antes de que pudieran ser explotadas por atacantes.

Según la agencia financiera Bloomberg, un pequeño grupo de usuarios en un foro privado en línea obtuvo acceso al modelo mediante el sistema informático reservado para proveedores externos de Anthropic.

«Estamos investigando un informe según el cual se produjo un acceso no autorizado a Claude Mythos Preview a través de uno de nuestros entornos de proveedores externos», dijo a la AFP un portavoz de Anthropic.

Los usuarios obtuvieron acceso a Mythos por varios medios, incluyendo el uso de los permisos que uno de los participantes tenía como empleado de una empresa contratista de Anthropic, informó Bloomberg.

Anthropic trabaja con un pequeño número de proveedores externos que ayudan en el desarrollo de modelos.

La empresa aplazó el lanzamiento general de Mythos, que, según afirma, puede detectar brechas de seguridad que han existido durante décadas en sistemas evaluados por expertos y herramientas automatizadas.

Compartió Mythos inicialmente con algunos actores clave de los sectores tecnológico y financiero de Estados Unidos, como Nvidia, Amazon y JP Morgan Chase, para permitirles mejorar su infraestructura de seguridad.

Pero la compañía ha sido acusada de exagerar las capacidades de una tecnología que es su principal actividad comercial y centro de una áspera competencia con su rival OpenAI.

Continue Reading

Ciencia

Apple anuncia que Tim Cook dejará la dirección de la empresa en septiembre

Publicado

el

El jefe de Apple, Tim Cook, dejará la dirección ejecutiva de la empresa en septiembre y será reemplazado por un directivo del grupo, John Ternus, hasta ahora responsable de productos como el iPhone y la Mac, según un comunicado publicado el lunes.

Aunque Ternus era considerado el favorito para suceder a Cook, que se convertirá en presidente ejecutivo del consejo de administración, no se esperaba que este traspaso se produjera tan pronto.

Menos carismático que su predecesor, Cook se reveló como un empresario excepcional, guiando a Apple por la senda de un crecimiento desenfrenado.

Entre 2011 y 2025, la empresa prácticamente cuadruplicó su facturación y vio cómo su capitalización se multiplicaba hasta superar hoy los 4 billones de dólares, siendo la tercera compañía del mundo en lograrlo.

Si bien los críticos le han reprochado no haber lanzado ningún producto tan emblemático como el iPod o el iPhone, Cook supo, en particular, impulsar el desarrollo de los servicios.

Este sector, que incluye la tienda de aplicaciones App Store, las plataformas de streaming musical(Apple Music) y de vídeo (Apple TV), así como el almacenamiento de datos en la nube (iCloud), se ha convertido en el principal motor de crecimiento de la empresa.

Sin embargo, Cook y su equipo se perdieron el giro de la inteligencia artificial (IA) generativa, marcado por la llegada de ChatGPT en noviembre de 2022.

Desde entonces, Apple va a la zaga de los grandes actores del sector y aún no ha logrado integrar plenamente las nuevas capacidades de la IA en su producto estrella, el iPhone, que sigue a la espera de una nueva versión del asistente Siri.

En las transacciones electrónicas posteriores al cierre de Wall Street, la acción perdía menos de un 1 %.

Continue Reading

Principal

La IA ayudó a Google a bloquear millones de «anuncios maliciosos»

Publicado

el

Google afirmó que las herramientas que utiliza la inteligencia artificial Gemini le ayudaron a frustrar unos 8.200 millones de anuncios que infringían sus políticas.

«Realmente nos hemos sumergido en la tarea de repensar nuestros sistemas utilizando la IA», declaró a periodistas Keerat Sharma, vicepresidente de privacidad y seguridad publicitaria de Google.

«Nuestros modelos más recientes comprenden mejor nuestra intención, lo que nos ayuda a detectar contenido malicioso y bloquearlo de manera preventiva, incluso cuando ha sido diseñado para eludir las detecciones», destacó.

Un Informe Anual de Seguridad Publicitaria, publicado por Google, indicó que los sistemas del gigante de internet interceptaron más del 99% de los anuncios que violaban sus normas antes de que fueran mostrados a los usuarios en línea.

«Nuestro objetivo es detener las malas prácticas antes de que lleguen a exponerse ante cualquier usuario», afirmó Sharma.

En 2025, Google realizó 35 modificaciones de sus políticas publicitarias mediante actualizaciones destinadas a mantenerse al día con las tendencias cambiantes en el ámbito del marketing fraudulento, explicó Sharma.

Las herramientas del sistema publicitario, potenciadas por Gemini, analizaron cientos de miles de millones de «señales» —tales como la antigüedad de las cuentas de los anunciantes, su comportamiento y los patrones de sus campañas— para determinar si existían anomalías, detalló.

«Dimos un paso atrás y replanteamos a fondo la manera en que queríamos construir la seguridad publicitaria, adoptando una perspectiva que partiera desde los cimientos», comentó Sharma.

«Gracias a Gemini, hemos podido tomar esa distancia y combinar cientos de miles de millones de señales para lograr una comprensión mucho más profunda de cuál es la verdadera intención de un anunciante, basándonos en la suma de toda la información que poseemos sobre él», señaló.

«El conjunto de estos elementos nos brinda una perspectiva sumamente matizada sobre si la intención de un anuncio específico es positiva o potencialmente perjudicial».

Cuando actores malintencionados recurren a la IA generativa para crear anuncios engañosos a gran escala, Gemini ayuda a detectarlos y bloquearlos en tiempo real, informó Google.

Entre las tácticas publicitarias prohibidas por las políticas de Google se incluyen los «deepfakes», es decir la apropiación indebida de imágenes de personas para que parezcan reales.

Otra capa de defensa en el sistema publicitario de Google es la verificación de los anunciantes.

«La verificación es una herramienta que utilizamos para garantizar que el anunciante sea, efectivamente, una entidad legítima», explicó Sharma.

Continue Reading

Publicidad

Lo Más Leído