En el año 2024, los incidentes de «deepfake» están experimentando un aumento significativo, con predicciones que apuntan a un incremento del 60% o más este año, lo que llevaría los casos globales a superar los 150.000. Esta tendencia convierte a los ataques de «deepfake» impulsados por inteligencia artificial en el tipo de IA adversarial de más rápido crecimiento en la actualidad.
Según pronósticos de Deloitte, se estima que los ataques de «deepfake» provocarán más de 40.000 millones de dólares en daños para el año 2027, siendo los servicios bancarios y financieros los principales objetivos.
La proliferación de las falsificaciones de voz y video generadas por IA está difuminando las fronteras de la credibilidad, socavando la confianza en instituciones y gobiernos. El uso generalizado de la técnica de «deepfake» en organizaciones de ciberataques a nivel estatal ha alcanzado tal madurez que se ha convertido en una táctica de ataque en naciones que participan constantemente en ciberguerras.
En este contexto, las últimas elecciones han evidenciado cómo avances en IA, como la Generative AI o «deepfakes», han evolucionado de meras desinformaciones a sofisticadas herramientas de engaño. La dificultad para distinguir entre información genuina y fabricada se ha incrementado notablemente.
Un dato preocupante es que el 62% de los CEO y ejecutivos empresariales de alto nivel consideran que los «deepfakes» generarán costos operativos y complicaciones para sus organizaciones en los próximos tres años, mientras que un 5% los percibe como una amenaza existencial. Gartner estima que para el 2026, el uso de «deepfakes» basados en IA en la verificación de identidad facial hará que el 30% de las empresas dejen de considerar fiables dichas soluciones de autenticación.
En este contexto, el último modelo de OpenAI, GPT-4o, se presenta como una herramienta diseñada para detectar y detener estas crecientes amenazas. Este modelo, conocido como un «autoregressive omni model», es capaz de aceptar como entrada cualquier combinación de texto, audio, imagen y video, lo que le permite identificar posibles contenidos de «deepfake».
Una de las capacidades clave de GPT-4o es la detección de redes GANs (Generative Adversarial Networks), que le permite identificar contenido sintético incluso cuando se asemeja de forma casi perfecta al contenido real. Además, la autenticación de voz y los clasificadores de salida son características valiosas que permiten detectar y detener la manipulación de audio y video de manera efectiva.
En resumen, la creciente amenaza de los «deepfakes» supone un desafío para la seguridad y la integridad de la información en la era de la IA. Modelos como GPT-4o se convierten en piezas fundamentales para garantizar la autenticidad y la confianza en un entorno digital cada vez más dependiente de la inteligencia artificial. La actitud crítica y la capacidad de discernimiento se erigen como las mejores defensas contra este tipo de amenazas en constante evolución.
GIPHY App Key not set. Please check settings