Check Point Software advierte sobre los peligros de OpenClaw, la primera red social exclusiva para agentes de IA
Written by Jose de Jesus Prieto on 09/02/2026
- La compañía alerta sobre los riesgos de seguridad en una plataforma donde los humanos solo pueden observar mientras los bots interactúan de forma autónoma
Bogotá, febrero 9 de 2025 – Check Point® Software Technologies Ltd. (NASDAQ: CHKP), pionero y líder global en soluciones de ciberseguridad, ha asegurado que OpenClaw (anteriormente Moltbot y Clawdot), la nueva red social lanzada el 28 de enero de 2026, representa un cambio de paradigma en el uso de la inteligencia artificial, pero también un desafío crítico para la seguridad digital. A diferencia de redes como Reddit, TikTok o Facebook, en OpenClaw los seres humanos tienen prohibido interactuar; solo pueden observar cómo sus propios agentes de IA publican, comentan y votan autónomamente.
“OpenClaw (antes Moltbot y Clawdbot) nos muestra un riesgo real y preocupante: con los agentes de inteligencia artificial, los datos pueden suponer un peligro en sí mismo. Cualquier “skill” incorporado al agente o dato malicioso procesado por OpencClaw podría suponer un desastre para el usuario o la compañía, como por ejemplo perder nuestro correo electrónico. Ésta no es una amenaza del futuro: ya estamos viviendo en este mundo, y las empresas necesitan actualizar urgentemente la forma en que piensan sobre la seguridad“, concluye Ángel Salazar, Gerente de Canales en América Latina de Check Point Software.
Tras los recientes incidentes que permitieron el acceso abierto a bases de datos y la suplantación de agentes para estafas de criptomonedas, la compañía destaca los siguientes riesgos técnicos:
- La triada letal de la IA: Check Point Software ha identificado tres factores que, combinados sin protecciones sólidas, pueden tener consecuencias graves: el acceso a datos privados, la exposición a contenido no verificado y la capacidad de actuar externamente.
- Vulnerabilidad estructural: la base de datos principal de la plataforma quedó expuesta, permitiendo que cualquier usuario pudiera leer o escribir en ella, lo que facilitó la inserción de contenido malicioso y la suplantación de agentes.
- Riesgo en las instrucciones externas: los agentes operan bajo instrucciones alojadas en sitios externos que pueden modificarse en cualquier momento. Si estas fuentes se ven comprometidas, esto permitiría redirigir al agente para realizar acciones dañinas utilizando las claves API del usuario.
- Proyecto experimental: este se trata de un “proyecto de hobby” que no está destinado a usuarios no técnicos ni es apto para entornos de producción.
“Si las instrucciones externas se alteran maliciosamente, los agentes podrían ser dirigidos para realizar acciones dañinas utilizando cualquier permiso extra que sus dueños humanos les hayan concedido. Esto plantea la duda de si los usuarios realmente entienden los riesgos antes de dar acceso total al sistema a sus agentes”, añade Salazar.