Deepfake, una tendencia en ciberseguridad

Fluid Attacks, compañía especializada en el desarrollo de soluciones de ciberseguridad, reconoce que la inteligencia artificial (IA) continúa prosperando entre las industrias tecnológicas. Un claro ejemplo es ChatGPT, el proyecto de OpenAI, que está causando furor con todo lo que es capaz de hacer, pero explica que los problemas aparecen cuando son los criminales los que buscan aprovecharse de estas tecnologías para llevar a cabo sus actos delictivos. 

Deepfake, una tendencia en ciberseguridad
Imagen de Fluid Attacks

Por ello, Fuid Attacks comparte algunas tendencias en el uso de IA, en qué consiste el deepfake, así como recomendaciones en su detección y prevención para individuos y compañías. 

“Desde comienzos del 2020 registrábamos en nuestro blog la tendencia en ciberseguridad del creciente uso de la IA y el machine learning. Planteábamos que tanto las organizaciones, para sus estrategias de prevención y defensa, como los delincuentes, para llevar a cabo sus ataques, están usando algoritmos automatizados que les permiten optimizar operaciones. 

Como ejemplo, desde la postura preventiva, está algo que hacemos en Fluid Attacks: nuestra IA trabaja con base a unos datos que le permiten identificar y reportar a nuestros hackers éticos cuáles son esos archivos que deberían revisar primero en sus pruebas, ya que son los que muestran probabilidades más altas de contener vulnerabilidades de seguridad”, dijo Vladimir Villa, CEO de Fluid Attacks. 

Con la IA, los hackers maliciosos han mejorado y automatizado técnicas de ataque de ingeniería social como el phishing y han incursionado en estrategias más complejas y cautivadoras como el deepfake.

“Es un término que tuvo origen en 2017 y, en pocas palabras, se refiere al empleo de IA para crear y modificar contenido de audio y visual con narrativas falsas que parezcan provenir de fuentes auténticas y confiables. Si bien fue una práctica que inició con usos recreativos o cómicos, como hacer videos en los que parezca real que un presidente está diciendo cosas ridículas, es cierto que el deepfake ya se está usando para propósitos perversos”, agregó. 

Asimismo, la compañía explica que el deepfake se desarrolla gracias a “redes neuronales”, algoritmos inspirados en el cerebro humano, que examinan imágenes y sonidos y encuentran patrones necesarios para luego producir material convincente del mismo tipo. Y aclara que esta tecnología es cada vez de más fácil acceso, incluso para personas con poco conocimiento técnica, incluso ya existe el deepfake-as-a-service, y algo alarmante es que los mecanismos de detección de deepfakes están rezagados. 

Por ello, Fluid Attacks comparte algunas recomendaciones para prevenir daños por intentos de deepfake:

  • Capacitar a empleados y usuarios: sea o no a través de simulación de engaños, las empresas deberían enseñar a su personal, clientes o usuarios, a notar detalles extraños en quienes aparecen en los videos. Algunos ejemplos son: falta de movimiento o movimiento antinatural en los ojos, así como ausencia en el parpadeo; expresiones faciales inusuales y rarezas en la forma del cuerpo o del cabello; colores de piel anormales, sombras mal ubicadas e iluminación inusual; posición extraña y movimientos bruscos de la cabeza y el cuerpo; problemas de sincronización entre el movimiento de los labios y las palabras pronunciadas.
  • Mantener controles internos de seguridad suficientemente sólidos: Fluid Attacks explica que dentro de las compañías debería haber múltiples niveles de aprobación para las transacciones de recursos sensibles o importantes. Además, los directivos no deberían tener la potestad para incumplir en determinados momentos regulaciones como esta. 
  • Prestar mayor atención a las solicitudes y a su autorización: las compañías deberían atender las solicitudes de recursos que diversas personas hacen a sus sistemas. Deberían mantener en revisión y bastante limitadas las autorizaciones que los miembros de la compañía tienen para hacer solicitudes o para aceptarlas y rechazarlas. 

“Para un futuro cercano se prevé el aumento de ataques a través de deepfakes, debido especialmente a su fácil acceso y a las optimizaciones que las tecnologías de IA, que sirven como base, reciben constantemente. Mientras no hayan soluciones tecnológicas suficientemente efectivas para su detección, las organizaciones dependerán de estrategias internas como el entrenamiento y controles de seguridad en sus procedimientos como medidas de prevención”, concluye el CEO de Fluid Attacks.

Version Digital

Solo para suscriptores
Dale Click a la portada

 


Recibe las noticias mas relevantes de marketing y negocios
gota a gota