
Anthropic ha decidido reforzar la seguridad en el uso de su chatbot de inteligencia artificial, Claude, ante las crecientes inquietudes en torno a los riesgos tecnológicos asociados al desarrollo de IA avanzada. La compañía estadounidense actualizó su política de uso, introduciendo reglas de ciberseguridad más precisas y especificando en detalle qué tipos de consultas considera particularmente peligrosas y que, por tanto, quedan prohibidas en su plataforma.
Un análisis comparativo entre la versión previa y la actualizada de la política evidencia un cambio relevante: si bien antes se prohibía el empleo de Claude para “producir, modificar, diseñar, comercializar o distribuir armas, explosivos, materiales peligrosos u otros sistemas destinados a causar daño o pérdida de vidas humanas”, ahora la normativa amplía la lista e incluye explícitamente la prohibición de desarrollar explosivos de gran potencia y armas biológicas, nucleares, químicas o radiológicas (CBRN, por sus siglas en inglés). Esta decisión se produce en un contexto de creciente escrutinio internacional sobre los usos potencialmente dañinos de la inteligencia artificial.
La actualización coincide con la reciente implementación, en mayo, del sistema de protección “AI Safety Level 3”, que acompañó la llegada del nuevo modelo Claude Opus 4. Este mecanismo de defensa tiene el objetivo de hacer más difícil vulnerar (o “jailbreakear”) el modelo y prevenir que se utilice para asesorar sobre la creación de armas CBRN, una bandera que Anthropic ha establecido como prioridad ética.

En su comunicado, la empresa también reconoce los desafíos que plantean las herramientas basadas en inteligencia artificial de tipo “agente”, como “Computer Use” —que permite a Claude interactuar directamente con la computadora del usuario— y “Claude Code”, diseñada para integrarse en terminales de desarrolladores. Según la propia compañía, “estas potentes capacidades presentan nuevos riesgos, como el potencial de abuso masivo, creación de malware y ciberataques”.
Como consecuencia, Anthropic ha incorporado una sección completamente nueva en su política de uso, “No comprometer sistemas informáticos o de red”, cuyo alcance va desde impedir la detección y explotación de vulnerabilidades hasta la distribución de código malicioso o el desarrollo de herramientas para lanzar ataques de denegación de servicio. El objetivo es limitar los escenarios donde la herramienta podría convertirse en un instrumento de cibercrimen sofisticado.
La política en materia de contenido político también ha evolucionado. Anthropic deja de prohibir todo desarrollo de contenidos relacionados con campañas y lobby político, para regular exclusivamente los casos que sean “engañosos o disruptivos para los procesos democráticos”, así como el uso dirigido a influir en campañas o votantes de manera opaca. Aclaró además que los requisitos elevados de seguridad para casos de alto riesgo solo regirán en operaciones orientadas al consumidor final, no en contextos de empresa a empresa.

La mejora de Claude que supera a GPT-5
La actualización de la política de uso llega en paralelo a un avance técnico que busca redefinir el estándar del sector: la versión Claude Sonnet 4 ya opera con una ventana de contexto de 1 millón de tokens, lo que representa aproximadamente 750.000 palabras o 75.000 líneas de código en una sola transacción. Esta capacidad multiplica por cinco el límite anterior de 200.000 tokens de Claude y deja atrás tanto la referencia marcada por GPT-5 de OpenAI, de 400.000 tokens, como a la mayoría de los sistemas disponibles.
El salto en el contexto procesable resulta especialmente valioso para el mundo del desarrollo y la ingeniería de software, donde empresas líderes como GitHub Copilot, Windsurf y Cursor de Anysphere —socios de Anthropic— requieren que la IA analice y maneje grandes volúmenes de información en tiempo real. Brad Abrams, responsable de producto en Anthropic, subrayó que “las plataformas de codificación de IA obtendrán un gran beneficio de esta actualización”, subrayando su utilidad en proyectos que demandan autonomía e interpretación profunda de código durante largas jornadas de trabajo.
Últimas Noticias
En qué se diferencian el HDMI estándar y el HDMI ARC
Para quienes buscan calidad y simplicidad en el audio, el HDMI ARC es prácticamente obligatorio. Su mayor beneficio es que permite conectar la barra de sonido al televisor con un único cable

Cuál es el negocio que la inteligencia artificial señala como el camino más rápido y rentable hacia la riqueza
De acuerdo con el análisis del modelo, la opción más prometedora en la actualidad es el desarrollo y venta de productos y servicios digitales basados en IA generativa

El regreso del teléfono fijo: una alternativa frente a la infancia hiperconectada
Los dispositivos, que rondan los 75 dólares, combinan el diseño tradicional con funciones modernas mediante chips celulares o WiFi

Glosario de tecnología: qué significa Ancho de banda
Conocer el significado de nuevas palabras ayudará a incrementar el conocimiento y vocabulario por igual

Estudio alerta que la dependencia de la IA podría afectar la capacidad médica para detectar cáncer
La investigación, realizada en cuatro centros de endoscopia en Polonia, siguió durante meses a médicos que utilizaban IA para identificar pólipos y lesiones precancerosas en colonoscopias
