- Advertisement -spot_img

Defensa de Deepfake en la era de la IA

El panorama de la ciberseguridad ha sido reestructurado drásticamente por el advenimiento de la IA generativa. Los atacantes ahora aprovechan los modelos de idiomas grandes (LLM) para hacerse pasar por personas de confianza y automatizar estas tácticas de ingeniería social a escala.

Revisemos el estado de estos ataques crecientes, lo que los está alimentando y cómo prevenir, no detectarlos.

La persona más poderosa de la llamada podría no ser real

Informes recientes de inteligencia de amenazas destacan la creciente sofisticación y prevalencia de los ataques impulsados ​​por la IA:

En esta nueva era, la confianza no se puede asumir o simplemente detectarse. Debe probarse determinista y en tiempo real.

Por qué el problema está creciendo

Tres tendencias están convergiendo para hacer de la suplantación de IA el próximo gran vector de amenaza:

  1. AI hace que el engaño sea barato y escalable: Con herramientas de voz y video de código abierto, los actores de amenaza pueden hacerse pasar por cualquier persona con solo unos minutos de material de referencia.
  2. La colaboración virtual expone brechas de confianza: Herramientas como Zoom, los equipos y Slack asumen que la persona detrás de una pantalla es quién dice ser. Los atacantes explotan esa suposición.
  3. Las defensas generalmente dependen de la probabilidad, no a prueba: Herramientas de detección de DeepFake utilizan marcadores y análisis faciales para adivinar Si alguien es real. Eso no es lo suficientemente bueno en un entorno de alto riesgo.

Y aunque las herramientas de punto final o la capacitación de los usuarios pueden ayudar, no están creados para responder una pregunta crítica en tiempo real: ¿Puedo confiar en esta persona con la que estoy hablando?

LEER  Por qué la gestión de identidad no humana es la próxima frontera de ciberseguridad

Las tecnologías de detección de IA no son suficientes

Las defensas tradicionales se centran en la detección, como la capacitación de usuarios para detectar un comportamiento sospechoso o usar la IA para analizar si alguien es falso. Pero los defectos profundos se están volviendo demasiado buenos, demasiado rápido. No puedes luchar contra el engaño generado por la IA con herramientas basadas en la probabilidad.

La prevención real requiere una base diferente, una basada en la confianza comprobable, no en la suposición. Eso significa:

  • Verificación de identidad: Solo los usuarios verificados y autorizados deberían poder unir reuniones o chats confidenciales basados ​​en credenciales criptográficas, no contraseñas o códigos.
  • Verificaciones de integridad del dispositivo: Si el dispositivo de un usuario está infectado, con jailbreak o no confunde, se convierte en un posible punto de entrada para los atacantes, incluso si se verifica su identidad. Bloquee estos dispositivos desde las reuniones hasta que sean remediados.
  • Indicadores de confianza visibles: Otros participantes necesitan ver Prueba de que cada persona en la reunión es quién dice que son y está en un dispositivo seguro. Esto elimina la carga del juicio de los usuarios finales.

La prevención significa crear condiciones donde la suplantación no es solo difícil, es imposible. Así es como cierre los ataques de AI Deepfake antes de unirse a conversaciones de alto riesgo como reuniones de la junta, transacciones financieras o colaboraciones de proveedores.

Enfoque basado en la detecciónEnfoque de prevención
Anomalías de bandera después de que ocurranBloquear a los usuarios no autorizados para que se unan
Confiar en la heurística y las conjeturasUse prueba de identidad criptográfica
Requerir juicio del usuarioProporcionar indicadores de confianza verificados y visibles
LEER  NTT Research lanza una nueva física del grupo de inteligencia artificial en Harvard

Elimine las amenazas de Deepfake de sus llamadas

RealityCheck by Beyond Identity fue construido para cerrar esta brecha de confianza dentro de las herramientas de colaboración. Le da a cada participante una insignia de identidad visible y verificada respaldada por la autenticación del dispositivo criptográfico y las controles de riesgo continuo.

Actualmente disponible para los equipos de Zoom y Microsoft (Video y chat), RealityCheck:

  • Confirma que la identidad de cada participante es real y autorizada
  • Valida el cumplimiento del dispositivo en tiempo real, incluso en dispositivos no administrados
  • Muestra una insignia visual para mostrar a otros que han sido verificados

Si desea ver cómo funciona, más allá de la identidad es alojar un seminario web donde puede ver el producto en acción. ¡Regístrese aquí!


- Advertisement -spot_img

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Últimos artículos

Los gigantes del chocolate de Pascua: los países de la UE...

Europa sigue siendo la región más grande del mundo tanto en producción como en exportación de chocolate,...

Noticias relacionadas

- Advertisement -spot_img