Anthropic Python SDK v0.88.0
Anthropic Python SDK v0.88.0
Seguimiento de las últimas noticias, modelos y herramientas de Anthropic. Desde Claude hasta la API y los avances en IA segura.
35
Noticias
4
Herramientas
35 artículos sobre Anthropic
Anthropic Python SDK v0.88.0
- Added `/powerup` — interactive lessons teaching Claude Code features with animated demos
Anthropic firmó un Memorando de Entendimiento con el gobierno australiano para cooperar en investigación de seguridad IA y apoyar el Plan Nacional de IA de Australia. La compañía anunció AUD$3 millones en asociaciones con instituciones de investigación australianas para usar Claude en diagnóstico y tratamiento de enfermedades.
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
This report introduces new metrics of AI usage to provide a rich portrait of interactions with Claude in November 2025, just prior to the release of Opus 4.5.
Anthropic entrevistó a 80.508 usuarios de Claude en 159 países e idiomas para entender sus esperanzas y preocupaciones sobre la IA. La investigación revela que las personas buscan que la IA mejore su calidad de vida —productividad, crecimiento personal y seguridad financiera— mientras se preocupan por el desplazamiento laboral y la pérdida de autonomía.
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
We’re launching the Claude Partner Network, a program for partner organizations helping enterprises adopt Claude.
Claude Sonnet 4.6 is a full upgrade of the model’s skills across coding, computer use, long-reasoning, agent planning, knowledge work, and design.
We’re launching The Anthropic Institute, a new effort to confront the most significant challenges that powerful AI will pose to our societies.
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Where things stand with the Department of War
Introducing Claude Code upgrades: native VS Code extension, terminal UX updates, and checkpoints for autonomous development. Handle complex tasks with confidence.

We have identified how millions of concepts are represented inside Claude Sonnet, one of our deployed large language models. This is the first ever detailed look inside a modern, production-grade large language model.

Anthropic's response to the Secretary of War and advice for customers

A statement from our CEO on national security uses of AI
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
An update to Anthropic's policy to mitigate catastrophic risks from AI
Anthropic's AI Fluency Index measures 11 observable behaviors across thousands of Claude.ai conversations to understand how people develop AI collaboration skills.
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
What 1,250 professionals told us about working with AI
Anthropic y el gobierno de Ruanda formalizaron una asociación de tres años para desplegar IA en educación, salud y sistemas del sector público. El acuerdo representa el primer MOU multisectorial gubernamental de Anthropic en el continente africano.
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
Anthropic dona $20 millones a Public First Action, una organización 501(c)(4) bipartidista centrada en política y gobernanza de la IA. La iniciativa busca apoyar la educación pública sobre riesgos de IA, promover salvaguardas y garantizar el liderazgo competitivo de Estados Unidos en el desarrollo de IA.
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Anthropic anuncia que Claude permanecerá sin publicidad para preservar su función como asistente genuinamente útil. La empresa argumenta que los incentivos publicitarios son incompatibles con ofrecer apoyo imparcial, dado que los usuarios comparten información personal sensible en las conversaciones.
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
Anthropic expande Labs, un equipo dedicado a desarrollar productos experimentales en la frontera de las capacidades de Claude. La iniciativa cuenta con el cofundador de Instagram Mike Krieger como líder y busca equilibrar innovación con escalado responsable de productos de IA.
Anthropic presenta Constitutional Classifiers++, un sistema de seguridad mejorado que protege a Claude de ataques de jailbreak reduciendo costes computacionales. La nueva arquitectura de dos etapas usa sondas internas y métodos ensemble para lograr la tasa de ataques exitosos más baja jamás probada.

Claude planificó con éxito la primera ruta autónoma del rover Perseverance en Marte, navegando 400 metros por terreno rocoso el 8 y 10 de diciembre de 2025. Los ingenieros del JPL proporcionaron a Claude años de datos de operación del rover y usaron Claude Code para generar comandos en Rover Markup Language.
4 herramientas de Anthropic
Anthropic detalló las capacidades avanzadas de uso de herramientas en Claude, incluyendo MCP Tool Search con lazy loading que reduce los tokens de 134k a 5k, la extensión MCP Apps para interfaces interactivas renderizadas dentro de Claude, y nuevas restricciones de contexto (cap de 2KB en descripciones de herramientas, deduplicación de servidores MCP y caché de system-prompt global).
Anthropic donó el Model Context Protocol (MCP) a una fundación independiente, la Agentic AI Foundation, para asegurar su desarrollo neutral y abierto como estándar de la industria. El 25 de marzo de 2026, MCP superó los 97 millones de instalaciones, convirtiéndose en el estándar de infraestructura de IA agéntica de más rápida adopción en la historia.
Anthropic lanzó nuevas capacidades agénticas en la API de Claude, incluyendo Tool Search (búsqueda dinámica de herramientas con lazy loading que reduce el uso de tokens de 134k a 5k), Programmatic Tool Calling (invocación de herramientas en entorno de ejecución de código) y Tool Use Examples (estándar para demostrar el uso de herramientas). El conector MCP permite conectar Claude a cualquier servidor MCP remoto sin escribir código cliente.
Claude Code es el agente de programación de Anthropic diseñado para operar directamente en el terminal y en IDEs, con capacidad de leer y escribir archivos, ejecutar comandos, buscar en codebases y crear commits de Git. En 2026, incorpora subagentes con nombres en menciones @, renderizado alt-screen sin parpadeo, soporte para Windows con PowerShell, y el Analytics API para métricas de uso organizacional.