Enfoque Informativo
En foros de dark web se han mencionando dos grandes modelos de lenguaje (LLM) que parecen ser un furor entre los criminales digitales
Ahora la tendencia es que los delincuentes publiquen en foros y mercados de la web oscura sobre grandes modelos de lenguaje (LLM) que dicen haber producido ellos mismos. Los sistemas, que aseguran logran imitar las funcionalidades de ChatGPT y Bard de Google, generan texto para responder las preguntas o indicaciones que ingresan los usuarios. Pero a diferencia de los LLM realizados por empresas legítimas, estos chatbots se comercializan para actividades ilegales.
Los nombres de los chatbots son WormGPT y FraudGPT. Los desarrolladores de WormGPT aseguran que la herramienta ofrece un número ilimitado de caracteres y formato de código. “Los modelos de IA son notablemente útiles para el phishing, particularmente porque reducen las barreras de entrada para muchos ciberdelincuentes novatos”, mencionó Daniel Kelley, quien trabajó con la firma de seguridad SlashNext.
Phising es una forma de ciberataque y estafa en línea en la que los delincuentes intentan engañar a las personas para que revelen información confidencial, como contraseñas, números de tarjetas de crédito, números de seguridad social u otra información personal. Los atacantes generalmente se hacen pasar por entidades de confianza, como bancos, empresas, servicios en línea, o incluso personas conocidas, a través de correos electrónicos, mensajes de texto, llamadas telefónicas u otros medios de comunicación.
Este chatbot, que algunos llaman “el gemelo maligno de ChatGPT”, no es gratuito (ninguna de sus funciones lo son). Tiene dos tipos de planes, uno mensual por 100 dólares y otro, privado que cuesta 500 dólares.
Por otra parte, el desarrollador de FraudGPT ha declarado que su sistema posee un potencial superior, insinuando que podría ser capaz de “crear malware que pase desapercibido” y descubrir fugas y vulnerabilidades, además de generar texto que podría utilizarse en actividades de estafa en línea.
Rakesh Krishnan, un analista senior de amenazas en la empresa de seguridad Netenrich que identificó a FraudGPT, señaló que la persona que lo comercializa ha promocionado el producto en varios foros de la web oscura y también en canales de Telegram.
Los modelos de lenguaje desarrollados por grandes empresas tecnológicas como Google, Microsoft y OpenAI incluyen una serie de salvaguardias y medidas de seguridad diseñadas para prevenir un uso inapropiado. Por lo general, se niegan a generar contenido relacionado con malware o discursos de odio cuando se les solicita.
En contraste, los modelos de lenguaje dudosos afirman que han eliminado cualquier forma de protección de seguridad o de restricciones éticas.
Aunque los promotores de estos chatbots afirman su existencia, es complicado verificar la autenticidad y legitimidad de estos sistemas. Es conocido que los estafadores cibernéticos a menudo intentan engañarse entre sí; investigaciones previas han demostrado que suelen estafarse mutuamente, no entregan lo que prometen y ofrecen un servicio al cliente deficiente.
Sergey Shykevich, gerente del grupo de inteligencia de amenazas en la firma de seguridad Check Point, indica que existen algunas señales que sugieren que la gente está utilizando WormGPT. “Parece que esta herramienta es real”, comenta Shykevich. Además, el vendedor detrás de la herramienta se considera “relativamente confiable” y tiene un historial en foros relacionados con el cibercrimen.
El FBI ha emitido una advertencia señalando que los ciberdelincuentes están evaluando la posibilidad de incorporar la inteligencia artificial generativa en sus actividades delictivas.
La Agencia Policial Europea, Europol, ha emitido una advertencia similar. Las agencias encargadas de hacer cumplir la ley advierten que los modelos de lenguaje generativos podrían permitir a los ciberdelincuentes cometer fraudes, llevar a cabo suplantación de identidad y realizar otras formas de ingeniería social de manera más eficiente que antes, además de mejorar su habilidad en el inglés escrito.
Conferencia de DragonJAR
La “DragonJAR Security Conference”, considerada como uno de los eventos más destacados en Colombia y Latinoamérica en términos de seguridad informática, tuvo lugar en Bogotá durante el 7 y 8 de septiembre de 2023, con una asistencia de 600 participantes y 16 conferencias de talla mundial en el ecosistema de ciberseguridad.
“Este evento se realizó con el fin de implementar medidas para fortalecer la protección de la información debido a los inminentes riesgos de ataques cibernéticos a los que se enfrentan las empresas y las personas” afirmó Jaime Andrés Restrepo, CEO de DragonJar.
Algunas de las charlas que se destacaron fueron:
“Seguridad Informática en Procesos Electorales” por Gonzalo Nina Mamani y Cristhian Lima Saravia (Bolivia): Reflejaron la importancia de la seguridad informática en las elecciones presidenciales y la necesidad de invertir en tecnología y protocolos de seguridad para prevenir fraudes y protestas.
“Identificación de Estafas de Criptomonedas” por KennBro (Argentina): en donde se presentó un enfoque para detectar estafas de criptomonedas utilizando información pública en Internet y una herramienta innovadora para simplificar la detección.
“Estudio de Caso: Destrucción de una Empresa por Ransomware” por Lorenzo Martínez (España): Expuso un caso intrigante de seguridad en el que una empresa fue destruida por ransomware, detallando la identificación de la vulnerabilidad y la metodología utilizada para resolverlo.
“Experiencia de ser Acusado Erróneamente de Hackear Elecciones Presidenciales” por Paulino Calderon (México): Compartió su experiencia personal tras ser acusado injustamente de hackear unas elecciones presidenciales y cómo está gestionando el caso.