InicioMundoFiltración de 'Claude': Anthropic revela el código fuente de su herramienta de...

Filtración de ‘Claude’: Anthropic revela el código fuente de su herramienta de ingeniería de IA

Filtración de código fuente de Claude Code: Un error humano desata el caos en Anthropic

Un descuido inesperado ha llevado a la compañía Anthropic a lidiar con una filtración significativa de su asistente de codificación impulsado por IA, Claude Code. Esta revelación ha generado preocupación en el mundo de la tecnología y la seguridad informática.

Un error que costó caro

Anthropic confirmó que una actualización de software destinada al uso interno incluyó accidentalmente un archivo que derivaba en un archivo comprimido con cerca de 2,000 documentos y 500,000 líneas de código. Este material fue rápidamente copiado y compartido en la plataforma GitHub, acumulando más de 29 millones de vistas en pocos días.

Toma de medidas rápidas

En respuesta a la situación, la empresa emitió solicitudes de eliminación de derechos de autor para intentar controlar la difusión del código expuesto. Un portavoz de Anthropic aseguró que “no hubo datos sensibles de clientes involucrados”, explicando que el incidente fue un error de empaquetado y no una brecha de seguridad.

¿Qué información se filtró?

El código revelado se relaciona con la arquitectura interna de Claude, aunque no incluye datos confidenciales del modelo de IA subyacente. Sin embargo, la comunidad desarrolladora ya había explorado versiones anteriores, y parte de este código ya era conocido gracias a ingeniería inversa.

Crecimiento y popularidad de Claude Code

A pesar de estos contratiempos, Claude Code se ha afianzado como un producto clave para Anthropic, con un crecimiento notable en su base de suscriptores que se más que duplicó este año. Recientemente, el chatbot Claude logró posicionarse como la aplicación gratuita más descargada en Estados Unidos.

Preocupaciones sobre la seguridad interna

Esta no es la primera vez que Anthropic enfrenta problemas de filtración. En semanas anteriores, se reportó que la empresa almacenaba información sensible en sistemas de acceso público, lo que generó alarma entre expertos que resaltan posibles vulnerabilidades de seguridad interna en una empresa enfocada en la seguridad de la IA.

Implicaciones para la competencia

Los recientes incidentes de filtración podrían proporcionar a competidores, como OpenAI y Google, una ventaja al permitirles entender mejor el funcionamiento del sistema de IA de Claude Code. Este detalle pone de relieve urgentes cuestionamientos sobre la protección de información crítica en la era de la inteligencia artificial.

Desafíos legales en el horizonte

La situación se complica aún más, ya que la empresa enfrenta acusaciones de ser un “riesgo en la cadena de suministro” por parte del gobierno de EE. UU. Anthropic está combatiendo estas acusaciones en los tribunales, y un juez federal recientemente otorgó una orden de restricción temporal contra esta designación.

RELATED ARTICLES
- Advertisment -

Most Popular

Recent Comments