Crimen de criptomonedas aumenta con inteligencia artificial, ya que el estafador aprovecha las nuevas tecnologías

Generado por agente de IAJax MercerRevisado porAInvest News Editorial Team
miércoles, 14 de enero de 2026, 1:24 am ET2 min de lectura

Los estafas de criptomonedas se han desarrollado todavía más en 2025, impulsados por el uso más generalizado de herramientas de inteligencia artificial que permiten a los fraudes escalar y personalizar sus ataques. La industrialización de las estafas hace que los esquemas sean más persuasivos y difíciles de detectar, con la IA que permite a los fraudes

Y, por supuesto, sin perderte ni un solo minuto.

Chainalysis ha observado un aumento del 1,400% en los casos de estafas relacionadas con la imitación de personas y organizaciones, en el año 2025. Se espera que esta tendencia continúe en el año 2026. Estas estafas utilizan contenido generado por IA y tecnologías como los deepfakes para imitar a personas y organizaciones que parecen ser de confianza.

Para distinguir entre las interacciones genuinas y las que son fraudulentas.

AARP Pennsylvania ha emitido una advertencia acerca de cinco estafas que se espera que persigan a personas mayores en 2026, incluyendo estafas de amor y estafas de recuperación. Estas estrategias utilizan IA para generar confianza y crear narrativas convincentes,

Cada día el estado de ánimo cambia.

¿Por qué sucedió esto?

El aumento del volumen de transacciones y las tasas de éxito de engaños apuntan a que la IA desempeña una función para hacer que los engaños sean más eficientes y rentables. Las herramientas de IA permiten a los engañadores crear identidades falsas, generar deepfake realistas

Contenido, y…No hay ningún problema en eso.

Por ejemplo, bandas de estafadores con inteligencia artificial han sido capaces de engañar a sus víctimas por un promedio de $3.2 millones por una estafa exitosa.

Para las pandillas que no utilizan tecnologías de IA… Esta diferencia de 4.5 veces mayor destaca los incentivos financieros que los estafadores tienen para adoptar tecnologías de IA.

¿Cómo reaccionaron las bolsas?

El aumento de los casos de estafas ha llevado a un incremento en las actividades de aplicación de la ley en el año 2025. Sin embargo, los expertos destacan que todavía hay mucho que se puede hacer para prevenir este tipo de conductas. Chainalysis ha instado a las autoridades a adoptar sistemas de detección de fraudes en tiempo real y a mejorar la cooperación transfronteriza.

Con capacidades de aplicación limitadas.

Las instituciones bancarias y financieras también están reforzando su defensa. Darius Kingsley de JPMorgan Chase señaló que los intentos de phishing impulsados por IA y los deepfake se vuelven más comunes en 2026,

medidas de seguridad mejoradas.

¿Qué estarán observando los analistas a continuación?

Expertos de seguridad recomiendan que los usuarios reduzcan los puntos de confianza humano al automatizar las defensas, como no compartir datos sensibles, como contraseñas o frases clave.

Se solicita dicha información.

AARP Pennsylvania recomienda a las personas que verifiquen la autenticidad de cualquier mensaje que reciban sin ser solicitado, y que sean cautelosas con aquellas interacciones que parezcan presionarlas o causarles miedo. Las instituciones financieras como Kidas también están desarrollando herramientas para combatir el fraude impulsado por la inteligencia artificial, detectando actividades de bots y ataques de tipo “brute force”.

No.

Especialistas de Chainalysis y de AARP coinciden en que no existe una única solución para combatir la falsificación en escala industrial.

Es necesario, entre otras cosas, mejorar las herramientas de detección, la colaboración entre las fuerzas de seguridad fronterizas y la formación de la opinión pública.

Los expertos también están observando cómo evolucionan los fraudes que se realizan con el uso de la inteligencia artificial hasta el año 2026. Se espera que los estafadores continúen utilizando este tipo de tecnología para cometer fraudes.

Tecnologías que permitan maximizar su alcance y el éxito de sus iniciativas.

A medida que la utilización de IA en estafas continúa creciendo, las instituciones financieras y los reguladores deben seguir atentos y adaptarse rápidamente para mantenerse por delante de las amenazas en evolución. A los inversores y a los usuarios se les alienta a guardar cautela y a solicitar información verificada antes de compartir información sensible o transferir fondos.

author avatar
Jax Mercer
adv-download
adv-lite-aime
adv-download
adv-lite-aime

Comentarios



Add a public comment...
Sin comentarios

Aún no hay comentarios