Banxico advierte sobre video fake con deepfake de Gobernadora: alerta de fraude con IA

Banxico advierte sobre video fake con deepfake de Gobernadora: alerta de fraude con IA

El Banco de México (Banxico) emitió una advertencia sobre la circulación de un video falso en redes sociales en el que se utiliza Inteligencia Artificial (IA) para falsear la voz e imagen de la gobernadora, Victoria Rodríguez Ceja. En el video, se ofrecen créditos, inversiones y productos financieros, afectando también a otras personalidades públicas.

Banxico niega categóricamente la información difundida y alerta a la población a ignorar el video falso para evitar posibles engaños y fraudes. El banco central destaca que no realiza operaciones activas, pasivas o de servicios con el público en general y no solicita depósitos de dinero ni documentos, ni realiza trámites con particulares.

Además, Banxico subraya que la única página oficial del Banco de México es https://www.banxico.org.mx, y recomienda verificar siempre la autenticidad de la información.

Deepfakes de voz y fraudes financieros: alerta de Banxico y caso de estafa con IA

Expertos en ciberseguridad han alertado sobre el uso de inteligencia artificial para generar deepfakes de voz, representando una nueva amenaza en el ámbito financiero. La tecnología de inteligencia artificial se ha utilizado para falsificar la voz de clientes con el objetivo de realizar estafas y engañar a instituciones financieras.

En un caso reciente, un inversor fue víctima de un intento de estafa donde un programa informático generó artificialmente su voz para persuadir a un empleado bancario de realizar transferencias de dinero. Este tipo de ataques, potenciados por la inteligencia artificial, representan un desafío para la seguridad financiera.

El Desarrollo de deepfakes de voz y la amenaza a la seguridad financiera

Los estafadores están utilizando tecnología de inteligencia artificial generativa para crear deepfakes de voz, imitando la voz de personas reales en intentos de fraude financiero. La creciente sofisticación de estos ataques y la caída de costos de programas de IA generativa aumentan la prevalencia de intentos de estafa.

Datos de clientes filtrados, disponibles en mercados clandestinos, facilitan estos ataques, especialmente contra clientes adinerados cuyas grabaciones de voz y apariciones públicas están ampliamente disponibles en internet. La preocupación radica en la posibilidad de que los estafadores se comuniquen directamente con individuos, eludiendo las medidas de seguridad de los centros de atención telefónica.

Rastreando la amenaza: la carrera armamentística entre atacantes y defensores

Empresas de seguridad como Pindrop supervisan el tráfico de audio para detectar intentos de fraude con deepfakes de voz. Aunque las voces falsas generadas por IA son aún una minoría de las llamadas fraudulentas, la velocidad del desarrollo tecnológico plantea desafíos para los sistemas de seguridad. La detección de habla sintética deja rastros, pero la evolución constante de las técnicas de los estafadores crea una carrera armamentística en la ciberseguridad financiera.

Este incidente resalta la importancia de la vigilancia constante y las medidas de seguridad mejoradas en el sector financiero para combatir los intentos de fraude con deepfakes de voz. La concientización y la verificación de la autenticidad de la información son fundamentales para proteger a la población contra engaños y pérdidas financieras.

Valentina Rodríguez

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *