En 2019, un CEO de una importante empresa europea recibió lo que creía ser una llamada telefónica de su jefe. Confiando en la familiaridad de la voz, autorizó una transferencia urgente de 220.000 euros. Más tarde, descubrió que había sido víctima de un fraude perpetrado con deepfakes de audio.

Esta tecnología, que utiliza inteligencia artificial para crear contenidos falsificados extremadamente realistas, está siendo aprovechada cada vez más por ciberdelincuentes para suplantar identidades, manipular información y engañar a empresas y personas.

Otras de las formas de fraude con deepfakes es la que utiliza videos manipulados para crear escenas falsas de personas diciendo o haciendo cosas que no sucedieron, como declaraciones comprometedoras o acuerdos fraudulentos.

También pueden emplearse en correos electrónicos y mensajes de texto para suplantar identidades y engañar a los empleados, solicitando acceso a sistemas o datos sensibles.

En el mundo empresarial, sus implicaciones van mucho más allá de lo anecdótico, planteando riesgos significativos en términos de seguridad, reputación y operaciones financieras.

De acuerdo a un informe realizado por Veridas a nivel global, se estima que el 85% de los fraudes en las empresas se realizan mediante la creación de identidades sintéticas o perfiles digitales falsos. El mismo estudio señala al 70% de las compañías le preocupan los posibles fraudes generados por inteligencia artificial.

Manipulaciones digitales

Los deepfakes de audio son una de las armas preferida para el fraude conocido como "vishing" (voice phishing). Mediante técnicas avanzadas, los ciberdelincuentes imitan voces de ejecutivos de alto nivel, solicitando transferencias de fondos bajo pretextos urgentes.

Casos documentados, como el mencionado al comienzo del artículo, destacan la facilidad con la que los atacantes pueden explotar la confianza de los empleados y los sistemas de autorización tradicionales.

Otra amenaza crítica es la manipulación visual. Por ejemplo, se han reportado conferencias falsas donde supuestos líderes empresariales anuncian decisiones ficticias, provocando caídas en los precios de las acciones o caos en los mercados.

Este tipo de sabotaje no solo genera pérdidas económicas inmediatas, sino que también daña irreparablemente la confianza en la marca.

La tecnología también se ha utilizado para manipular mercados financieros mediante la difusión de información falsa. En el ámbito de recursos humanos, los deepfakes facilitan la suplantación de identidad en entrevistas de trabajo, lo que plantea riesgos tanto para las empresas como para los candidatos reales.

Herramientas para detectar lo indetectable

Frente a estas amenazas, las herramientas tecnológicas de detección están en constante desarrollo.

Basadas en inteligencia artificial, permiten analizar patrones de luz, movimientos o microexpresiones que pueden revelar manipulaciones.

Hay plataformas que utilizan redes neuronales para detectar inconsistencias en videos y audio, mientras que algunas compañías han desarrollado sistemas de marcas de agua digitales que permiten rastrear el origen y las modificaciones de contenidos multimedia.

Aunque prometedoras, estas soluciones requieren actualizaciones constantes para mantenerse a la par del avance de las técnicas de creación de deepfakes.

La tecnología, por sí sola, no es suficiente. Es crucial que los equipos empresariales estén capacitados para identificar posibles señales de alerta. Validar la información mediante canales seguros y establecer protocolos claros de verificación son pasos esenciales para mitigar riesgos.

Las organizaciones están implementando sistemas de autenticación multifactor y verificación biométrica avanzada, mientras desarrollan guías internas para la verificación de identidad en comunicaciones críticas.

El desarrollo de regulaciones claras es una necesidad urgente. Estas leyes deben abordar el uso malintencionado de los deepfakes y proporcionar marcos legales que protejan tanto a empresas como a individuos.

La colaboración entre sectores público y privado será clave para desarrollar estándares globales y promover la adopción de buenas prácticas. Iniciativas como la Content Authenticity Initiative (CAI) están creando estándares técnicos para verificar la autenticidad del contenido digital.

La educación y concientización juegan un papel fundamental. Organizaciones como el Media Forensics Hub están desarrollando programas de capacitación para periodistas y profesionales de la comunicación, mientras que plataformas de redes sociales implementan sistemas de fact-checking y etiquetado de contenido sintético.

La alfabetización digital y la capacidad de verificar fuentes se han convertido en habilidades esenciales en la era de la desinformación digital.

Un desafío global

Los deepfakes representan un desafío sin precedentes en el ámbito empresarial, amenazando la confianza, un pilar fundamental de las relaciones comerciales.

Sin embargo, también son un recordatorio de la importancia de la anticipación y la adaptación en un mundo digital en constante evolución.

Al invertir en tecnologías de detección, fomentar la educación empresarial y colaborar en la creación de regulaciones efectivas, las empresas pueden fortalecer su resiliencia frente a esta amenaza emergente.

La clave radica en abordar el problema no solo como un desafío tecnológico, sino también como una oportunidad para reafirmar los valores de confianza y transparencia en la era digital.

atrás

separator to footer

stronger than one