Anthropic bloquea intentos de hackers de usar Claude para cibercrimen

El sistema Claude AI fue detectado mientras intentaban emplearlo para diversos propósitos, tales como la elaboración de correos de phishing personalizados

Guardar
Anthropic prohibió las cuentas sospechosas
Anthropic prohibió las cuentas sospechosas y reforzó los filtros de seguridad. REUTERS/Dado Ruvic/Illustration/File Photo

La compañía Anthropic ha reportado el bloqueo de varios intentos por parte de hackers de utilizar su sistema Claude AI con fines delictivos, entre ellos la generación de correos electrónicos de phishing y la creación de código malicioso. Este episodio resalta la preocupación creciente sobre el uso indebido de la inteligencia artificial en actividades de cibercrimen y la urgencia de fortalecer las medidas de protección tanto por parte de las empresas tecnológicas como de los entes reguladores.

Los hallazgos, documentados en un reciente informe, muestran también el compromiso de Anthropic por compartir información relevante que permita a otros actores comprender mejor los riesgos emergentes.

Pormenores del intento de hackers de usar Claude para el cibercrimen

El informe de Anthropic detalla cómo logró neutralizar ataques dirigidos a explotar su plataforma de IA para actividades ilícitas. El sistema Claude AI fue detectado mientras intentaban emplearlo para diversos propósitos, tales como la elaboración de correos de phishing personalizados, el desarrollo y corrección de fragmentos de malware y la evasión de filtros de seguridad mediante múltiples solicitudes.

La compañía Anthropic ha reportado
La compañía Anthropic ha reportado el bloqueo de varios intentos por parte de hackers de utilizar su sistema Claude AI con fines delictivos. (Imagen Ilustrativa Infobae)

El documento cita además esfuerzos para organizar campañas de influencia que generaran publicaciones persuasivas a gran escala, así como la asistencia a hackers novatos proporcionándoles instrucciones paso a paso.

Tras detectar la actividad, Anthropic prohibió las cuentas sospechosas y reforzó los filtros de seguridad. La empresa, respaldada por gigantes como Amazon.com y Alphabet, también anunció que continuará publicando informes similares cada vez que surjan amenazas relevantes, sumando medidas como la ejecución de pruebas periódicas y revisiones externas a sus protocolos internos.

Preocupaciones del sector y respuesta regulatoria

Expertos en ciberseguridad advierten que el uso de herramientas de inteligencia artificial en crímenes digitales está en aumento. Estas tecnologías brindan a los delincuentes la posibilidad de crear campañas de phishing más creíbles, automatizar el desarrollo de malware y facilitar la organización de ataques avanzados.

Claude, el chatbot IA de
Claude, el chatbot IA de Anthropic. (Reuters)

La tendencia preocupa tanto al sector privado como a las autoridades, quienes reconocen que a medida que los sistemas de IA se vuelvan más sofisticados, los riesgos de abuso crecerán si no se actúa con rapidez.

En ese sentido, tanto Europa como Estados Unidos avanzan en la agenda de regulación: la Unión Europea desarrolla su Ley de Inteligencia Artificial, mientras que en EE. UU. los principales desarrolladores han asumido compromisos voluntarios de seguridad.

Estas iniciativas reflejan la preocupación colectiva frente a los desafíos éticos y de seguridad que surgen en el contexto de la expansión de la inteligencia artificial.

La participación de Anthropic en
La participación de Anthropic en el ámbito empresarial ha crecido notablemente en los últimos dos años. (Reuters)

Qué es Anthropic y cómo se utiliza su inteligencia artificial

Anthropic es una empresa de tecnología que se especializa en la investigación y desarrollo de inteligencia artificial avanzada. Fundada por antiguos empleados de OpenAI, la compañía se enfoca en crear modelos de lenguaje y agentes conversacionales enfocados en la seguridad, la ética y la transparencia en la interacción con los usuarios. Sus productos tienen como objetivo facilitar la adopción responsable de la inteligencia artificial en diversos entornos tanto empresariales como individuales.

El principal producto de Anthropic es Claude, un asistente de inteligencia artificial capaz de comprender y generar texto en lenguaje natural. Los usuarios pueden interactuar con Claude a través de aplicaciones de mensajería, integraciones empresariales o plataformas desarrolladas por terceros.

Interfaz de la aplicación Claude
Interfaz de la aplicación Claude de Anthropic para Android. (PLAY STORE)

Las empresas utilizan la tecnología de Anthropic para tareas como automatización de servicio al cliente, redacción de textos, análisis de información y soporte en procesos creativos.

Para usar Anthropic, se puede acceder mediante API o mediante plataformas habilitadas que integran su asistente conversacional. Los desarrolladores pueden incorporar los modelos de Anthropic en sus propias aplicaciones para potenciar sus servicios con capacidades conversacionales inteligentes y orientadas a la seguridad.

La compañía ofrece documentación clara y herramientas que facilitan la integración, permitiendo así que organizaciones y personas aprovechen la inteligencia artificial de forma accesible y responsable.