Falla de seguridad en Anthropic: Filtración de código de Claude provoca eliminación masiva y polémica en GitHub

Anthropic eliminó accidentalmente más de 8.000 repositorios en GitHub al intentar contener la filtración del código fuente de Claude Code, generando críticas sobre su gobernanza corporativa en vísperas de su salida a bolsa (IPO).

Falla de seguridad en Anthropic: Filtración de código de Claude provoca eliminación masiva y polémica en GitHub
Herramientas y Productos
2 de abril de 2026
3

En un incidente que expuso fragilidades operacionales críticas, Anthropic, una de las líderes en el sector de la inteligencia artificial generativa, causó un efecto dominó digital al intentar suprimir la filtración del código fuente de su producto estrella, Claude Code. Lo que debería haber sido una acción estándar de protección de propiedad intelectual se convirtió en una eliminación indiscriminada de aproximadamente 8.100 repositorios en GitHub, afectando a desarrolladores que no tenían relación con la difusión del contenido sensible.

El contexto del incidente

Todo comenzó un martes, cuando ingenieros de software notaron que Anthropic había incluido, de forma inadvertida, el código fuente propietario de la herramienta de línea de comandos Claude Code en una actualización reciente. Esta herramienta, diseñada para ser la interfaz principal de interacción técnica con el modelo, se convirtió rápidamente en objeto de interés de entusiastas de la IA. Tan pronto como se detectó el error, los usuarios comenzaron a analizar el código en busca de secretos sobre el funcionamiento del LLM subyacente, replicando el material en diversos repositorios de GitHub.

Detalles técnicos y la acción de eliminación

La respuesta de Anthropic se basó en la Ley de Derechos de Autor de la Era Digital (DMCA), enviando un aviso formal a GitHub para que el código fuera retirado. Sin embargo, la ejecución de esta orden fue desastrosa. Boris Cherny, jefe de la división de Claude Code, admitió que la automatización de la eliminación falló al no distinguir el repositorio original del código filtrado de miles de forks (copias legítimas) que utilizaban el repositorio público de la empresa. El resultado fue la eliminación masiva de proyectos que, en muchos casos, solo contenían contribuciones de terceros o usos lícitos de la API.

Impacto e implicaciones jurídicas

El impacto de este error va más allá del inconveniente técnico. Para una empresa que, según se informa, se prepara para una Oferta Pública Inicial (IPO), la gobernanza es un pilar fundamental. Los inversores y reguladores exigen procesos rígidos de seguridad y cumplimiento. El hecho de que Anthropic haya filtrado su propio código propietario y, además, perjudicado al ecosistema de desarrolladores mediante una herramienta de censura automatizada, plantea serias dudas sobre la madurez operacional de la organización. No se puede descartar la posibilidad de litigios por parte de accionistas o desarrolladores afectados.

Comparación y panorama competitivo

En el mercado actual, la protección de la propiedad intelectual es una ventaja competitiva vital. Empresas como OpenAI, Google y Anthropic guardan los pesos de sus modelos y arquitecturas de código como secretos de estado. Mientras que OpenAI utiliza estrategias de seguridad más enfocadas en el acceso restringido, Anthropic, al intentar integrar herramientas de línea de comandos de forma más abierta con la comunidad, terminó exponiendo su infraestructura. Este episodio coloca a la empresa en una posición defensiva, contrastando con su imagen de líder en IA ética y segura, un pilar que la compañía suele utilizar para diferenciarse en el sector.

Perspectivas futuras y lecciones aprendidas

Tras la repercusión negativa, Anthropic retiró la mayor parte de las solicitudes de eliminación, limitando la acción a un solo repositorio y 96 forks que contenían efectivamente el código sensible. GitHub restauró el acceso a los demás repositorios, pero el daño a la reputación de la empresa ya está hecho. Para los próximos pasos, Anthropic deberá demostrar una revisión rigurosa de sus protocolos de lanzamiento y de gestión de derechos de autor. El mercado tecnológico estará atento: la capacidad de una empresa de IA para proteger su código es un reflejo directo de su capacidad para proteger los datos y la confianza de sus usuarios finales y socios comerciales.

Publicidad
Compartir
Comentarios (0)

Inicia sesión para dejar tu comentario

Iniciar sesión

¿No tienes cuenta? Crear cuenta