El logotipo de la aplicación Claude de Anthropic aparece en la pantalla de un smartphone en Reno, Estados Unidos, el 21 de noviembre de 2024. (Foto de Jaque Silva/NurPhoto vía Getty Images)
NurPhoto vía Getty Images
Durante algún tiempo, el modelo de negocio de los relativamente pocos genios ciberdelincuentes que crean malware sofisticado como el ransomware ha sido ofrecer su malware y servicios a ciberdelincuentes menos sofisticados en la Dark Web, a veces incluso proporcionando los sistemas de entrega generalmente a cambio de un porcentaje del rescate recibido. Sin embargo, la IA ha cambiado rápidamente este modelo, ya que incluso los delincuentes menos sofisticados pueden aprovechar la inteligencia artificial para perpetrar una variedad de estafas.
Las herramientas de IA pueden recopilar grandes cantidades de datos de las redes sociales y fuentes públicamente disponibles para permitir a los ciberdelincuentes crear correos electrónicos de phishing específicamente dirigidos, llamados correos de spear phishing, que tienen más probabilidades de ser confiables para sus víctimas objetivo, a menudo atrayéndolas a proporcionar información personal que puede conducir al robo de identidad o a realizar un pago bajo algún pretexto.
La tecnología de deepfake de video y clonación de voz fácilmente disponible ha permitido a los ciberdelincuentes perpetrar una variedad de estafas, incluida la estafa de los abuelos o la estafa de emergencia familiar y la estafa de Compromiso de Correo Electrónico Empresarial que en el pasado se basaba en tácticas de ingeniería social realizadas principalmente a través de correos electrónicos en los que el estafador se hacía pasar por un ejecutivo de la empresa y convencía a los empleados de nivel inferior para autorizar un pago según las indicaciones del estafador bajo algún pretexto. Esta estafa, que comenzó en gran medida en 2018, representó pérdidas mundiales de más de $55 mil millones entre octubre de 2023 y diciembre de 2023 según el FBI.
Ahora, con la llegada de la IA y el uso de la tecnología deepfake y la tecnología de clonación de voz, los estafadores han aumentado las apuestas. En 2024, la firma de ingeniería Arup perdió $25 millones ante ciberdelincuentes que se hicieron pasar por el CFO de la empresa en videollamadas falsificadas y persuadieron a un empleado de la empresa para transferir el dinero.
Pero las cosas no están tan mal como piensas. Son mucho peores.
Anthropic, la empresa que desarrolló el chatbot Claude, publicó recientemente un informe en el que detallaba cómo su chatbot había sido utilizado para desarrollar e implementar ciberdelitos sofisticados. El informe describió la evolución del uso de la IA por parte de los ciberdelincuentes para no solo usar la IA como una herramienta para desarrollar malware, sino para usarla como un operador activo de un ciberataque, al que se refirieron como "Vibe-hacking". El informe dio el ejemplo de un ciberdelincuente con sede en el Reino Unido descrito como GTG-5004 que usó Claude para encontrar empresas que serían vulnerables a un ataque de ransomware escaneando miles de puntos finales de VPN para encontrar sistemas vulnerables, determinar la mejor manera de penetrar en las redes de las empresas, crear malware con capacidades de evasión para robar datos sensibles, entregar el malware, robar los datos y filtrar los datos para determinar qué datos podrían usarse mejor para extorsionar a la empresa hackeada e incluso usar la psicología para redactar correos electrónicos con sus demandas de rescate. Claude también fue utilizado para robar registros financieros de la empresa objetivo para determinar la cantidad de Bitcoin que se exigiría a cambio de no publicar el material robado.
En un mes, GTG-5004 usó Claude para atacar a 17 organizaciones involucradas en el gobierno, la atención médica, los servicios de emergencia y las instituciones religiosas, haciendo demandas de entre $75,000 y más de $500,000
GTG-5004 luego comenzó a vender servicios de ransomware bajo demanda a otros ciberdelincuentes en la Dark Web con diferentes niveles de paquetes que incluyen capacidades de cifrado y métodos diseñados para ayudar a los hackers a evitar la detección. Es importante señalar que el informe indicó que, a diferencia del pasado, cuando los delincuentes tecnológicamente sofisticados vendían o alquilaban en la Dark Web el malware que creaban personalmente, el informe indicó que "Este operador no parece capaz de implementar algoritmos de cifrado, técnicas anti-análisis o manipulación de componentes internos de Windows sin la asistencia de Claude".
El resultado es que un solo ciberdelincuente ahora podría hacer lo que anteriormente requeriría un equipo completo especializado en criptografía, componentes internos de Windows y técnicas de evasión para crear ransomware y tomar automáticamente decisiones tanto estratégicas como tácticas con respecto a la orientación, explotación y monetización, así como adaptarse a las medidas defensivas encontradas. Todo esto reduce la barrera para los delincuentes que buscan cometer ciberdelitos.
El informe también detalló cómo sus capacidades de IA estaban siendo mal utilizadas por operativos norcoreanos que las usaban para obtener trabajos remotos en empresas tecnológicas. Según el informe, "Las operaciones tradicionales de trabajadores de TI norcoreanos dependían de individuos altamente calificados reclutados y entrenados desde una edad temprana dentro de Corea del Norte. Nuestra investigación revela un cambio fundamental: la IA se ha convertido en el principal facilitador que permite a operadores con habilidades técnicas limitadas infiltrarse con éxito y mantener posiciones en empresas tecnológicas occidentales".
El informe describió cómo, usando IA, los operadores coreanos que no podían escribir código básico por sí mismos o comunicarse en inglés ahora pueden pasar con éxito entrevistas y conseguir trabajos en empresas tecnológicas, ganando cientos de millones de dólares anualmente que financian los programas de armas de Corea del Norte. Empeorando aún más el asunto, a través de la IA, cada operador puede mantener múltiples puestos de trabajo en empresas tecnológicas estadounidenses, lo que habría sido imposible sin el uso de la IA
Anthropic ha respondido a las amenazas que identificaron prohibiendo las cuentas asociadas con estas operaciones y desarrollando un clasificador personalizado para identificar específicamente este tipo de actividad e instituir medidas de detección en sus sistemas de aplicación de seguridad ya existentes. Además, Anthropic compartió sus hallazgos con otras empresas, así como con la comunidad de seguridad para ayudarles a reconocer y defenderse contra las amenazas planteadas por los delincuentes que utilizan plataformas de IA. Sin embargo, la amenaza del uso de la IA para ciberdelitos se cierne grande.
El informe de Anthropic es, de hecho, una llamada de atención para toda la industria de la IA.
Fuente: https://www.forbes.com/sites/steveweisman/2025/09/02/ai-is-making-cybercrime-easier-for-unsophisticated-criminals/

