Los gemelos digitales malvados son la nueva amenaza cibernética de la inteligencia artificial (IA).
Los ciberataques que utilizan IA serán cada vez más personalizados y tendrán como objetivo a las personas a través de sofisticados métodos de phishing y estafas, advierten los expertos.
En particular, los ciberdelincuentes utilizarán información robada en línea para entrenar modelos de IA para que imiten a los usuarios y así lanzar ataques cada vez más difíciles de distinguir. Un fenómeno llamado “gemelos digitales malvados” que podría caracterizar futuros ataques.
Esta es la alarma que se desprende del informe de la empresa de seguridad Trend Micro, que dibuja un escenario de amenazas en evolución.
Después de los deepfakes, explica el análisis, los cibercriminales también utilizarán IA entrenada en las publicaciones públicas de una persona para imitar su estilo de escritura y personalidad, creando imitaciones convincentes que apuntarán a nuevas víctimas inconscientes, dando así lugar al fenómeno de los «gemelos digitales maliciosos».
Los ciberdelincuentes también crearán empleados falsos para atacar a las empresas en nuevas estafas comerciales y también se aprovecharán de datos biométricos expuestos involuntariamente. De esta forma, será cada vez más difícil para los usuarios comprender la veracidad y legitimidad de los contenidos.
«Un panorama preocupante y esperado en el subsuelo criminal ya se están formando plataformas capaces de crear deepfakes y correos electrónicos de phishing capaces de engañar a la mayoría de las personas», comenta a ANSA Pierluigi Paganini, CEO de Cyberhorus y profesor de Ciberseguridad en la Universidad Luiss Guido Carli.
«La integración de esta nueva tecnología en las empresas también es una preocupación. La IA reemplazará a los humanos en muchos procesos y monitorear su trabajo podría ser cualquier cosa menos simple, lo que introduciría nuevos riesgos de seguridad», detalla el experto.
«Demasiadas empresas y organizaciones no están preparadas hoy en día. Para hacer frente a estas amenazas emergentes, es imprescindible adoptar estrategias de defensa más avanzadas, como el enfoque basado en riesgos, el fortalecimiento de la seguridad LLM y la formación continua de los usuarios.
En esto, la IA podría darnos una gran mano, sus aplicaciones para fines de defensa son múltiples», acota Paganini mostrando la contracara positiva de la inteligencia artificial. © ANSA
La entrada Los riesgos de la inteligencia artificial para facilitar estafas se publicó primero en Periodismo del Mercosur.