in

El GPT-4o protege identidades ante las falsificaciones generadas por inteligencia artificial.

En el año 2024, los incidentes de «deepfake» están experimentando un aumento significativo, con predicciones que apuntan a un incremento del 60% o más este año, lo que llevaría los casos globales a superar los 150.000. Esta tendencia convierte a los ataques de «deepfake» impulsados por inteligencia artificial en el tipo de IA adversarial de más rápido crecimiento en la actualidad.

Según pronósticos de Deloitte, se estima que los ataques de «deepfake» provocarán más de 40.000 millones de dólares en daños para el año 2027, siendo los servicios bancarios y financieros los principales objetivos.

La proliferación de las falsificaciones de voz y video generadas por IA está difuminando las fronteras de la credibilidad, socavando la confianza en instituciones y gobiernos. El uso generalizado de la técnica de «deepfake» en organizaciones de ciberataques a nivel estatal ha alcanzado tal madurez que se ha convertido en una táctica de ataque en naciones que participan constantemente en ciberguerras.

En este contexto, las últimas elecciones han evidenciado cómo avances en IA, como la Generative AI o «deepfakes», han evolucionado de meras desinformaciones a sofisticadas herramientas de engaño. La dificultad para distinguir entre información genuina y fabricada se ha incrementado notablemente.

Un dato preocupante es que el 62% de los CEO y ejecutivos empresariales de alto nivel consideran que los «deepfakes» generarán costos operativos y complicaciones para sus organizaciones en los próximos tres años, mientras que un 5% los percibe como una amenaza existencial. Gartner estima que para el 2026, el uso de «deepfakes» basados en IA en la verificación de identidad facial hará que el 30% de las empresas dejen de considerar fiables dichas soluciones de autenticación.

En este contexto, el último modelo de OpenAI, GPT-4o, se presenta como una herramienta diseñada para detectar y detener estas crecientes amenazas. Este modelo, conocido como un «autoregressive omni model», es capaz de aceptar como entrada cualquier combinación de texto, audio, imagen y video, lo que le permite identificar posibles contenidos de «deepfake».

Una de las capacidades clave de GPT-4o es la detección de redes GANs (Generative Adversarial Networks), que le permite identificar contenido sintético incluso cuando se asemeja de forma casi perfecta al contenido real. Además, la autenticación de voz y los clasificadores de salida son características valiosas que permiten detectar y detener la manipulación de audio y video de manera efectiva.

En resumen, la creciente amenaza de los «deepfakes» supone un desafío para la seguridad y la integridad de la información en la era de la IA. Modelos como GPT-4o se convierten en piezas fundamentales para garantizar la autenticidad y la confianza en un entorno digital cada vez más dependiente de la inteligencia artificial. La actitud crítica y la capacidad de discernimiento se erigen como las mejores defensas contra este tipo de amenazas en constante evolución.

¿Qué opinas?

120 Votos
Upvote Downvote

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Lanzan nueva actualización para Apple Vision Pro con mejoras en VisionOS 2.0.1.

Denuncian a Garth Brooks por presunto caso de agresión sexual