La inteligencia artificial, y más en concreto ChatGPT, se ha situado como una tecnología al acceso de todo el mundo. Y mientras eso tiene aspectos positivos ya que permite que cualquier usuario pueda experimentar y crear sus propios proyectos, también significa que los cibercriminales tienen acceso, lo que supone un grave peligro para la ciberseguridad.
Si ya de por sí, los ciberdelincuentes tienen muchísimas formas y variantes para llevar a cabo sus ataques, y si le añadimos la infinidad de posibilidades que nos otorga la inteligencia artificial (IA), la situación se vuelve más preocupante.
La regla número uno en ciberseguridad es siempre estar atento y sospechar de aquello que no nos suene bien, y para ello lo más importante es ser consciente del peligro, por ello ESET ha recopilado las seis formas más repetidas por los cibercriminales para beneficiarse usando ChatGPT.
Hoy en día, los delincuentes no tienen ni que exprimirse un poco el cerebro para escribir una noticia falsa para su beneficio, solo se lo tiene que pedir a la IA y en cuestión de segundo tendrá una historia completa y que parece real.
Este puede que sea uno de los usos más peligrosos, ya que gracias a que la IA es cada vez más exacta y humana, también es cada vez más difícil detectar que se trata de un engaño debido a que son más dirigidos y persuasivos.
Siguiendo con la misma línea que el punto anterior, ChatGPT es capaz de crear engaños que suplanten a la perfección a una institución, empresa o banco para conseguir que el usuario entregue sus datos e información privada.
Igual que uno de los grandes logros de esta tecnología es que cualquier persona puede programar sin tener conocimientos, lo mismo ocurre para crear un malware o algún tipo de virus, y si ya tiene conocimientos para hacerlo lo podrá hacer más fuerte y peligroso.
Una de las partes en todo el proceso de realizar un ciberataque, es la de reconocimiento, que incluye por lo general tareas repetitivas y aburridas. Ahora, los criminales pueden acudir a ChatGPT para usar algunas de sus herramientas y poder acortar el tiempo de sus misiones.
Y mientras ChatGPT está entrenado para no realizar tareas maliciosas, puede ser inducido a ellas sin que la IA se dé cuenta de ello. Esto puede ser aprovechado para engañar a personas y realizar estafas persuasivas.