FBI Advierte de Estafas de Extorsión con Inteligencia Artificial (IA)

Comparte este post

Las capacidades de la IA generativa para crear imágenes realistas son impresionantes, pero la Oficina Federal de Investigación de EE.UU. afirma que los delincuentes están utilizando deepfakes para extorsionar a sus víctimas.

«El FBI sigue recibiendo informes de víctimas, incluidos niños menores de edad y adultos no consentidores, cuyas fotos o vídeos fueron alterados para convertirlos en contenido explícito», dijo la agencia en una alerta PSA.

El FBI afirma que las fuerzas del orden recibieron el año pasado más de 7.000 denuncias de extorsión en línea dirigida a menores, con un aumento de las víctimas de las llamadas «estafas de sextorsión» que utilizan deepfakes desde abril.

Un deepfake es un tipo cada vez más común de contenido de vídeo o audio creado con inteligencia artificial que representa eventos falsos que son cada vez más difíciles de discernir como falsos, gracias a plataformas de IA generativa como Midjourney 5.1 y DALL-E 2 de OpenAI.

En mayo, se hizo viral un deepfake del CEO de Tesla y Twitter, Elon Musk, realizado para estafar a inversionistas en criptomonedas. El vídeo compartido en las redes sociales contenía imágenes de Musk de entrevistas anteriores, editadas para encajar en la estafa.

No todos los deepfakes son maliciosos: Un deepfake del Papa Francisco con una chaqueta blanca de Balenciaga se hizo viral a principios de este año y, más recientemente, también se han utilizado deepfakes generados por IA para devolver a la vida a víctimas de asesinato.

En sus recomendaciones, el FBI advierte contra el pago de cualquier rescate, ya que hacerlo no garantiza que los delincuentes no publiquen el deepfake de todos modos.

El FBI también aconseja precaución a la hora de compartir información y contenidos personales en línea, lo que incluye utilizar funciones de privacidad como hacer que las cuentas sean privadas, vigilar la actividad en línea de los niños y estar atento a comportamientos inusuales de personas con las que hayas interactuado en el pasado. La agencia también recomienda realizar búsquedas frecuentes de información personal y familiar en Internet.

Otros organismos que han dado la voz de alarma son la Comisión Federal de Comercio de EE.UU., advirtiendo que los delincuentes han estado utilizando deepfakes para engañar a víctimas desprevenidas para que envíen dinero tras crear un deepfake de audio de un amigo o familiar que dice que ha sido secuestrado.

«La inteligencia artificial ya no es una idea descabellada sacada de una película de ciencia ficción. Estamos viviendo con ella, aquí y ahora. Un estafador podría utilizar la IA para clonar la voz de tu ser querido», dijo la FTC en una alerta al consumidor en marzo, añadiendo que todo lo que necesita el delincuente es un breve clip de audio de la voz de un familiar para que la grabación parezca real.

Fuente: Jason Nelson

Más artículos

¿Necesitas asistencia inmediata?

Si eres víctima de un ciberataque contáctanos por WhatsApp, llamada o por correo electrónico, nuestro equipo está disponible y te brindará apoyo inmediatamente.

¿Te gustaría un diagnóstico de lo que necesitas?

Industria gubernamental

¿Te gustaría un diagnóstico de lo que necesitas?

Industria marítima

¿Te gustaría un diagnóstico de lo que necesitas?

Industria bancaria

¿Te gustaría un diagnóstico de lo que necesitas?

Industria hospitalaria

¿Te gustaría un diagnóstico de lo que necesita tu empresa?

Concientización

¿Te gustaría un diagnóstico de lo que necesita tu empresa?

Seguridad en la nube

¿Te gustaría un diagnóstico de lo que necesita tu empresa?

Comunicaciones seguras

¿Te gustaría un diagnóstico de lo que necesita tu empresa?

Ciberseguridad organizacional

¿Te gustaría un diagnóstico de lo que necesita tu empresa?

Consultoría y soporte de respuesta a incidentes

¿Te gustaría un diagnóstico de lo que necesita tu empresa?

Soluciones para crisis de ciberseguridad

ESCRÍBENOS

Déjanos tus datos y te contactaremos a la brevedad para resolver tus dudas, conocer las necesidades de tu organización y poder realizar una propuesta personalizada.

Book Your Free Session Now

Fill in the form below to book a 30 min no-obligation consulting session.

I will reply within 24 hours.