El chatbot de IA Gemini de Google se ha convertido en el objetivo de un robo de información a gran escala, con atacantes bombardeando el sistema con preguntas para copiar cómo funciona. Una sola operación envió más de 100,000 consultas al chatbot, tratando de extraer los patrones secretos que lo hacen inteligente.
La compañía informó el jueves que estos llamados "ataques de destilación" están empeorando. Los malos actores envían oleada tras oleada de preguntas para descifrar la lógica detrás de las respuestas de Gemini. Su objetivo es simple: robar la tecnología de Google para construir o mejorar sus propios sistemas de IA sin gastar miles de millones en desarrollo.
Google cree que la mayoría de los atacantes son empresas privadas o investigadores que buscan avanzar sin hacer el trabajo duro. Los ataques vinieron de todo el mundo, según el informe de la compañía. John Hultquist, quien lidera el Grupo de Inteligencia de Amenazas de Google, dijo que las empresas más pequeñas que usan herramientas de IA personalizadas probablemente enfrentarán ataques similares pronto.
Las empresas tecnológicas han invertido miles de millones de dólares en construir sus chatbots de IA. El funcionamiento interno de estos sistemas se trata como joyas de la corona. Incluso con defensas implementadas para detectar estos ataques, los principales sistemas de IA siguen siendo objetivos fáciles porque cualquiera con acceso a internet puede hablar con ellos.
El año pasado, OpenAI señaló a la compañía china DeepSeek, alegando que usó destilación para mejorar sus modelos. Cryptopolitan informó el 30 de enero que Italia e Irlanda prohibieron DeepSeek después de que OpenAI acusara a la empresa china de usar destilación para robar sus modelos de IA. La técnica permite a las empresas copiar tecnología costosa a una fracción del costo.
La economía es brutal. Construir un modelo de IA de última generación cuesta cientos de millones o incluso miles de millones de dólares. Según se informa, DeepSeek construyó su modelo R1 por alrededor de seis millones de dólares usando destilación, mientras que el desarrollo de ChatGPT-5 superó los dos mil millones de dólares, según informes de la industria. Robar la lógica de un modelo reduce esa inversión masiva a casi nada.
Muchos de los ataques a Gemini se dirigieron a los algoritmos que lo ayudan a "razonar" o procesar información, dijo Google. Las empresas que entrenan sus propios sistemas de IA con datos sensibles, como 100 años de estrategias de trading o información de clientes, ahora enfrentan la misma amenaza.
"Digamos que tu LLM ha sido entrenado con 100 años de pensamiento secreto sobre la forma en que operas. Teóricamente, podrías destilar algo de eso", explicó Hultquist.
El problema va más allá de las empresas ávidas de dinero. APT31, un grupo de hackers del gobierno chino sancionado por EE.UU. en marzo de 2024, usó Gemini a finales del año pasado para planear ciberataques reales contra organizaciones estadounidenses.
El grupo combinó Gemini con Hexstrike, una herramienta de hacking de código abierto que puede ejecutar más de 150 programas de seguridad. Analizaron fallas de ejecución remota de código, formas de eludir la seguridad web y ataques de inyección SQL, todo dirigido a objetivos específicos de EE.UU., según el informe de Google.
Cryptopolitan cubrió preocupaciones similares de seguridad de IA anteriormente, advirtiendo que los hackers estaban explotando vulnerabilidades de IA. El caso de APT31 muestra que esas advertencias fueron acertadas.
Hultquist señaló dos preocupaciones principales. Adversarios operando a través de intrusiones completas con mínima ayuda humana, y automatizando el desarrollo de herramientas de ataque. "Estas son dos formas en las que los adversarios pueden obtener ventajas importantes y moverse a través del ciclo de intrusión con mínima interferencia humana", dijo.
La ventana entre descubrir una debilidad de software y poner una solución en su lugar, llamada brecha de parche, podría ampliarse dramáticamente. Las organizaciones a menudo tardan semanas en implementar defensas. Con agentes de IA encontrando y probando vulnerabilidades automáticamente, los atacantes podrían moverse mucho más rápido.
"Vamos a tener que aprovechar las ventajas de la IA, y cada vez más eliminar a los humanos del circuito, para que podamos responder a velocidad de máquina", dijo Hultquist a The Register.
Las apuestas financieras son enormes. El informe de violación de datos de IBM de 2024 encontró que el robo de propiedad intelectual ahora cuesta a las organizaciones $173 por registro, con violaciones centradas en PI aumentando un 27% año tras año. Los pesos de los modelos de IA representan los objetivos de mayor valor en esta economía clandestina: un solo modelo fronterizo robado podría valer cientos de millones en el mercado negro.
Google ha cerrado cuentas vinculadas a estas campañas, pero los ataques siguen llegando "de todo el mundo", dijo Hultquist. A medida que la IA se vuelve más poderosa y más empresas dependen de ella, espere que esta fiebre del oro digital se intensifique. La pregunta no es si vendrán más ataques, sino si los defensores podrán mantenerse al día.
Afina tu estrategia con mentoría + ideas diarias - 30 días de acceso gratuito a nuestro programa de trading

