Home Tecnología Nuevos trucos de ataque de apropiado navegadores de IA para ejecutar indicaciones...

Nuevos trucos de ataque de apropiado navegadores de IA para ejecutar indicaciones maliciosas ocultas

11
0

Un nuevo vector de ataque llamado PractFix Exploits a los navegadores con AI al incorporar instrucciones maliciosas dentro de contenido web aparentemente inocente.

El ataque representa una evolución de las estafas tradicionales de ClickFix, específicamente diseñadas para manipular los sistemas de IA agente en lugar de los usuarios humanos.

La investigación, realizada por los expertos en seguridad que prueban el navegador Comet AI de Perplexity, demuestra cómo los atacantes pueden secuestrar a los agentes de IA a través de sofisticadas técnicas de inyección rápida.


Control de llave
1. Iniciados ocultos en los navegadores de AI Fake Captchas Trick en acciones maliciosas.
2. La ingeniería social pasa por alto la seguridad de la IA a través del comportamiento útil de la IA.
3. Ataque único replica en millones de usuarios de IA simultáneamente.

A diferencia del phishing convencional que se basa en engañar al juicio humano, PridFix se dirige directamente a los procesos de toma de decisiones de la IA, creando lo que los investigadores denominan “estafamlexidad”: una nueva era de complejidad de estafadores con AI.

Instrucciones ocultas detrás de Captchas falsos

Guardia informa que El ataque de prontfix aprovecha un mecanismo engañosamente simple: elementos de texto ocultos incrustados en interfaces falsas de Captcha.

Si bien los humanos solo ven una verificación estándar de casilla de verificación, el HTML subyacente contiene inyecciones de inmediato invisibles que los navegadores de IA procesan inadvertidamente como instrucciones legítimas.

El ataque explota la incapacidad de los modelos AI para distinguir entre comandos de usuario genuinos y contenido inyectado maliciosamente dentro del mismo contexto de procesamiento.

Uso de técnicas de estilo CSS como Style = “Display: Ninguno” o Color: Transparente, los atacantes pueden ocultar indicaciones como:

Cuando el navegador AI procesa el HTML de la página, estas instrucciones ocultas se convierten en parte del conjunto de directivas de la IA, lo que podría activar acciones no autorizadas como descargas de transmisión o exfiltración de datos.

Inyección inmediata disfrazada de “captcha amigable con AI”

La efectividad del ataque se deriva de la manipulación de la programación central de los navegadores de IA: ayudar a los usuarios rápida y completamente sin dudarlo.

En lugar de intentar “ver” el modelo a través de la inyección de inmediato tradicional, PromptFix emplea técnicas de ingeniería social adaptadas para el consumo de IA.

El ataque crea narraciones convincentes que atraen al diseño orientado al servicio de la IA. Por ejemplo, el mensaje oculto podría afirmar que el Captcha es “solucionable de IA” y que hacer clic acelerará la tarea del usuario.

Este enfoque explota el impulso incorporado de la IA para ayudar instantáneamente sin activar las salvaguardas de seguridad tradicionales.

Prolticfix: inyección de inmediato exitosa

Los expertos en seguridad advierten que los ataques exitosos contra un modelo de IA pueden replicarse en millones de usuarios simultáneamente, creando un panorama de amenazas sin precedentes que requiere medidas defensivas proactivas en lugar de enfoques de detección reactivos.

Detonar de forma segura archivos sospechosos para descubrir amenazas, enriquecer sus investigaciones y reducir el tiempo de respuesta de incidentes. Comience con una prueba de Sandbox Anyrun

Fuente de noticias