Cuando la IA aprende a piratear mejor que nosotros (y el problema es mayor de lo que parece)
- P Pastrana

- hace 3 horas
- 2 Min. de lectura
Un experimento real enfrentó a una inteligencia artificial con hackers profesionales… y la IA ganó. Más rápida, más barata y capaz de detectar fallos invisibles para humanos, esta tecnología abre una pregunta inquietante: ¿qué ocurre cuando las máquinas se vuelven mejores atacantes que las personas?

La carrera por la inteligencia artificial general acapara titulares, pero mientras se debate si la AGI está cerca o no, la IA ya está superando a los humanos en un terreno crítico: la ciberseguridad ofensiva. Investigadores de Stanford pusieron a prueba un sistema de hacking automatizado frente a expertos humanos, y los resultados no solo sorprendieron, sino que encendieron varias alarmas.
El experimento que encendió las alarmas

El estudio fue realizado por investigadores de la Universidad de Stanford y revelado por The Wall Street Journal. El equipo desarrolló un bot de hacking llamado Artemis, diseñado para escanear redes en busca de vulnerabilidades explotables.
Para probarlo, lo soltaron en la red de ingeniería de la propia universidad y lo enfrentaron a diez pentesters profesionales, especialistas en simular ataques para detectar fallos de seguridad. Artemis contaba con un interruptor de emergencia para desactivarlo, y los hackers humanos tenían órdenes claras: probar y forzar el sistema, pero sin llegar a penetrarlo.

Resultados incómodos: la IA gana
El resultado fue claro y preocupante. Artemis superó a nueve de los diez hackers humanos. Encontró vulnerabilidades más rápido y con un coste radicalmente inferior.
Mientras un pentester cobra entre 2.000 y 2.500 dólares diarios, Artemis “trabajaba” por unos 60 dólares la hora. En términos de eficiencia económica y velocidad, la ventaja de la IA fue abrumadora.
No se trata solo de automatizar tareas repetitivas: el bot mostró una capacidad real de exploración sistemática que dejó atrás a la mayoría de los expertos humanos.
Una inteligencia… distinta a la humana
Artemis no fue perfecto. Aproximadamente un 18% de sus reportes resultaron ser falsos positivos, y pasó por alto un fallo evidente que los humanos detectaron al instante.
Sin embargo, también encontró un bug que ninguno de los hackers vio. La razón es reveladora: el fallo estaba en una web que no funcionaba en Chrome ni Firefox, los navegadores habituales de los pentesters. Artemis no “navega” como una persona; analiza código directamente, sin las limitaciones prácticas de la experiencia humana.

La IA ya está en manos de los atacantes
Esto no ocurre en el vacío. Los ciberdelincuentes llevan tiempo usando IA para mejorar malware, automatizar ataques y escalar operaciones. Anthropic reveló recientemente que hackers chinos emplearon Claude Code como agente autónomo en una campaña de espionaje a gran escala, gestionando todo el ciclo de ataque.
¿Defensa o desempleo?

La otra cara de la moneda es positiva. Sistemas como Artemis pueden utilizarse para auditar infraestructuras, detectar fallos antes de que sean explotados y reforzar la seguridad global.
Pero surge una pregunta inevitable: ¿qué ocurrirá con los profesionales humanos si una IA puede hacer su trabajo mejor, más rápido y por una fracción del coste?
La ciberseguridad entra así en una nueva era, donde el mayor riesgo no es solo que la IA ataque… sino que lo haga mejor que nosotros.














Comentarios