Anthropic pone límites a la IA Claude: este es el tipo de preguntas que se negará a responder

Esta decisión se produce en un contexto de creciente escrutinio internacional sobre los usos potencialmente dañinos de la inteligencia artificial

Guardar
Claude, el chatbot IA de
Claude, el chatbot IA de Anthropic. (Reuters)

Anthropic ha decidido reforzar la seguridad en el uso de su chatbot de inteligencia artificial, Claude, ante las crecientes inquietudes en torno a los riesgos tecnológicos asociados al desarrollo de IA avanzada. La compañía estadounidense actualizó su política de uso, introduciendo reglas de ciberseguridad más precisas y especificando en detalle qué tipos de consultas considera particularmente peligrosas y que, por tanto, quedan prohibidas en su plataforma.

Un análisis comparativo entre la versión previa y la actualizada de la política evidencia un cambio relevante: si bien antes se prohibía el empleo de Claude para “producir, modificar, diseñar, comercializar o distribuir armas, explosivos, materiales peligrosos u otros sistemas destinados a causar daño o pérdida de vidas humanas”, ahora la normativa amplía la lista e incluye explícitamente la prohibición de desarrollar explosivos de gran potencia y armas biológicas, nucleares, químicas o radiológicas (CBRN, por sus siglas en inglés). Esta decisión se produce en un contexto de creciente escrutinio internacional sobre los usos potencialmente dañinos de la inteligencia artificial.

La actualización coincide con la reciente implementación, en mayo, del sistema de protección “AI Safety Level 3”, que acompañó la llegada del nuevo modelo Claude Opus 4. Este mecanismo de defensa tiene el objetivo de hacer más difícil vulnerar (o “jailbreakear”) el modelo y prevenir que se utilice para asesorar sobre la creación de armas CBRN, una bandera que Anthropic ha establecido como prioridad ética.

Anthropic. (Reuters)
Anthropic. (Reuters)

En su comunicado, la empresa también reconoce los desafíos que plantean las herramientas basadas en inteligencia artificial de tipo “agente”, como “Computer Use” —que permite a Claude interactuar directamente con la computadora del usuario— y “Claude Code”, diseñada para integrarse en terminales de desarrolladores. Según la propia compañía, “estas potentes capacidades presentan nuevos riesgos, como el potencial de abuso masivo, creación de malware y ciberataques”.

Como consecuencia, Anthropic ha incorporado una sección completamente nueva en su política de uso, “No comprometer sistemas informáticos o de red”, cuyo alcance va desde impedir la detección y explotación de vulnerabilidades hasta la distribución de código malicioso o el desarrollo de herramientas para lanzar ataques de denegación de servicio. El objetivo es limitar los escenarios donde la herramienta podría convertirse en un instrumento de cibercrimen sofisticado.

La política en materia de contenido político también ha evolucionado. Anthropic deja de prohibir todo desarrollo de contenidos relacionados con campañas y lobby político, para regular exclusivamente los casos que sean “engañosos o disruptivos para los procesos democráticos”, así como el uso dirigido a influir en campañas o votantes de manera opaca. Aclaró además que los requisitos elevados de seguridad para casos de alto riesgo solo regirán en operaciones orientadas al consumidor final, no en contextos de empresa a empresa.

Interfaz de la IA Claude.
Interfaz de la IA Claude. (Bloomberg)

La mejora de Claude que supera a GPT-5

La actualización de la política de uso llega en paralelo a un avance técnico que busca redefinir el estándar del sector: la versión Claude Sonnet 4 ya opera con una ventana de contexto de 1 millón de tokens, lo que representa aproximadamente 750.000 palabras o 75.000 líneas de código en una sola transacción. Esta capacidad multiplica por cinco el límite anterior de 200.000 tokens de Claude y deja atrás tanto la referencia marcada por GPT-5 de OpenAI, de 400.000 tokens, como a la mayoría de los sistemas disponibles.

El salto en el contexto procesable resulta especialmente valioso para el mundo del desarrollo y la ingeniería de software, donde empresas líderes como GitHub Copilot, Windsurf y Cursor de Anysphere —socios de Anthropic— requieren que la IA analice y maneje grandes volúmenes de información en tiempo real. Brad Abrams, responsable de producto en Anthropic, subrayó que “las plataformas de codificación de IA obtendrán un gran beneficio de esta actualización”, subrayando su utilidad en proyectos que demandan autonomía e interpretación profunda de código durante largas jornadas de trabajo.