ChatGPT ha arrasado en todo el mundo, incluso cuando fue lanzada en noviembre de 2022 superó el millón de usuarios en cuestión de días.

ChatGPT es tan popular y fácil de usar que los hackers empezaron a utilizarla frecuentemente para crear correos electrónicos de phishing y códigos de malware convincentes. Esto hizo que la plataforma mejorará sus funciones para detectar solicitudes ilegales o poco éticas, como la redacción de correos electrónicos de phishing.

Así lo dio a conocer Anupama AkkapeddiProduct Consultant de ManageEngine, la división de gestión de TI empresarial de Zoho Corporation, para quien “la inteligencia artificial (IA) se está convirtiendo en una parte inevitable de todas las operaciones de TI, especialmente de ciberseguridad”.

Explicó que “las organizaciones, además de implementar capacidades de IA y ML para mejorar sus funciones, también deben considerar invertir estratégicamente en soluciones para mejorar su postura de seguridad. Estos productos de seguridad deben ayudar a las empresas a prepararse para una avalancha de ataques basados en IA y facilitar enfoques tanto proactivos como defensivos en materia de ciberseguridad.

La especialista señaló tres escenarios en los que ChatGPT podría utilizarse para llevar a cabo ciberataques.

  • Ataques de phishing: los atacantes redactan correos electrónicos de phishing convincentes, haciéndose pasar por altos directivos u otros funcionarios importantes mediante ChatGPT. Los correos electrónicos pueden ser persuasivos, engañando a destinatarios inocentes para que hagan clic en enlaces maliciosos. Si uno de esos destinatarios es un empleado, esto puede facilitar el acceso inicial a la red que los atacantes siempre están buscando.
  • Generación de código malicioso: los atacantes pueden crear códigos malware utilizando ChatGPT. Estos códigos pueden utilizarse para llevar a cabo una serie de ataques basados en la ejecución, incluidos los ataques PowerShell.
  • Ataques a API: los ciberdelincuentes están utilizando ChatGPT para revisar la documentación de la API. Esta documentación contiene información útil para los nuevos desarrolladores que intentan comprender la nueva API. ChatGPT examina esta información para extraer posibles consultas y datos agregados. Estos datos pueden utilizarse para encontrar posibles vacíos en la API. A continuación, se puede lanzar un ataque a la API

Para concluir, Anupama Akkapeddi compartió algunas formas en las que ChatGPT puede ayudar a los analistas de ciberseguridad:

Disminución del trabajo con gran consumo de recursos: aplicaciones como ChatGPT ayudan a abordar estos problemas y ofrecen alternativas que pueden ayudar a los equipos de seguridad a reducir la sobrecarga cognitiva y dedicar más tiempo a los incidentes que requieren su atención inmediata. Por ejemplo, los analistas de seguridad pueden interpretar los datos de un informe de seguridad y, a continuación, utilizar ChatGPT para narrar lo que ha ocurrido exactamente.

Mejorar la experiencia del analista: ChatGPT puede ayudar a guiar a un analista de seguridad paso a paso a través de un incidente de seguridad, al tiempo que explica por qué el siguiente paso es el mejor curso de acción. Esto también podría mejorar la experiencia de los analistas en el futuro. Y en ciberseguridad, la experiencia del analista es algo en lo que los proveedores deberían hacer mucho énfasis.

Fuente: Retailers.mx