Enfoque Informativo

Los hackers pueden crear sitios web y códigos de programación para distribuir virus a los computadores

La inteligencia artifical podría servir como una herramienta accesible para que los hackers creen diferentes virus y malware según reportó la Oficina Federal de Investigación de Estados Unidos (FBI), que aseguró que las capacidades generativas de este tipo de software puede ser usada como parte de ciberataques.

Para el organismo estadounidense, los programas de inteligencia artificial no solo pueden servir como herramientas de asistencia para la generación de textos, imágenes o videos, sino que también están involucradas en actos como estafas y la mejora de estrategias para crímenes más graves como el terrorismo.

Un oficial de la organización indicó a diversos medios estadounidenses durante una reunión telefónica reportada por PCMag que se espera que las consecuencias de la integración de las IA a la vida cotidiana generen un aumento en esta tendencia de uso negativo. Incluso durante el año 2023 se detectó que un conjunto de cibercriminales manipularon ChatGPT para hacer que genere código para la creación de malware.

Como parte de la investigación realizada por el FBI, se identificó que los cibercriminales están acercándose aún más a la utilización de sistemas de inteligencia artificial de acceso gratuito o de código abierto que se pueden encontrar en rincones ocultos de internet como la Deep Web, donde son compartidos por otros delincuentes.

Inteligencia artificial para estafas

Aunque el desarrollo de malware se ha incrementado con el uso de herramientas de inteligencia artificial y es un estándar cada vez más común, estos programas también son utilizados para generar plataformas adicionales que apoyan a la ejecución de ataques cibernéticos.

Páginas web falsas que descargan código malicioso a un computador o sitios que suplantan la identidad de empresas o marcas también están siendo desarrolladas usando esta tecnología para aportar mayor realismo a las estafas virtuales que pueden vulnerar la privacidad de los datos o robar información bancaria.

En las etapas más avanzadas de desarrollo, se estaría creando “virus polimórficos”, que pueden evadir la protección de programas antivirus debido a su capacidad para cambiar la forma de su código de programación para infiltrarse en archivos de computadora.

Una de las prácticas menos comunes pero que también se pueden encontrar al momento de lidiar con los peligros de cibercriminales es la posibilidad que tienen de generar retratos modificados con inteligencia artificial en los que se generan imágenes sexuales falsas con los rostros de las víctimas.

Esta modalidad de extorsión consiste en indicar a los usuarios afectados que deberán realizar pagos a los criminales para evitar que las fotografías editadas sean difundidas en internet.

Por el momento aún no se tiene una idea exacta sobre cuántos ataques tienen un nivel al menos considerable de participación de inteligencia artificial, sin embargo el FBI considera que la cifra puede ir en aumento debido a la facilidad de acceso que tienen los criminarles a esta tecnología

Aún así, Bill Gates consideró que aunque la inteligencia artificial pueda estar involucrada en varios ataques cibernéticos, esto no reduce las capacidades que tiene para tener una influencia positiva. El fundador de Microsoft indicó que “muchos de los problemas que son generados por este tipo de programas también pueden ser solucionados con las IA” como es el caso de la seguridad online.

El empresario también consideró que la inteligencia artificial presenta riesgos que, aunque son reales, también son manejables si se considera que “esta no es la primera vez que la innovación introduce nuevos riesgos que se deben controlar. Ya lo hemos hecho antes”, afirmó.