<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>#Anthropic on Cristian Leiton - DevOps Engineer</title><link>https://cristianleiton.com/tags/%23anthropic/</link><description>Recent content in #Anthropic on Cristian Leiton - DevOps Engineer</description><generator>Hugo</generator><language>es-co</language><lastBuildDate>Wed, 08 Apr 2026 12:00:37 +0000</lastBuildDate><atom:link href="https://cristianleiton.com/tags/%23anthropic/index.xml" rel="self" type="application/rss+xml"/><item><title>Anthropic presenta Mythos, su modelo de IA más avanzado</title><link>https://cristianleiton.com/blogs/2026-04-08-anthropic-presenta-mythos-su-modelo-de-ia-mas-avan/</link><pubDate>Wed, 08 Apr 2026 12:00:37 +0000</pubDate><guid>https://cristianleiton.com/blogs/2026-04-08-anthropic-presenta-mythos-su-modelo-de-ia-mas-avan/</guid><description>&lt;h2 id="anthropic-presenta-mythos-su-modelo-de-ia-más-avanzado">Anthropic presenta Mythos, su modelo de IA más avanzado&lt;/h2>
&lt;p>Anthropic ha revelado una vista previa de Mythos, su modelo de IA más avanzado hasta la fecha, diseñado para tareas complejas como construcción de agentes y codificación. En las últimas semanas, Mythos ha identificado miles de vulnerabilidades críticas, incluidas algunas con más de dos décadas de antigüedad. Originalmente conocido como &amp;lsquo;Capybara&amp;rsquo;, este modelo fue filtrado accidentalmente en un incidente de seguridad. Anthropic también está en conversaciones con autoridades federales sobre el uso de Mythos, a pesar de disputas legales con el gobierno de EE.UU. relacionadas con riesgos en la cadena de suministro.&lt;/p></description></item><item><title>Anthropic destaca en mercados privados, SpaceX podría influir</title><link>https://cristianleiton.com/blogs/2026-04-05-anthropic-destaca-en-mercados-privados-spacex-podr/</link><pubDate>Sun, 05 Apr 2026 12:00:33 +0000</pubDate><guid>https://cristianleiton.com/blogs/2026-04-05-anthropic-destaca-en-mercados-privados-spacex-podr/</guid><description>&lt;h2 id="anthropic-destaca-en-mercados-privados-spacex-podría-influir">Anthropic destaca en mercados privados, SpaceX podría influir&lt;/h2>
&lt;p>Anthropic está ganando terreno en los mercados privados, atrayendo la atención de inversores que buscan posicionarse en el sector de la inteligencia artificial. Aunque OpenAI sigue siendo relevante, el entusiasmo por sus modelos ha disminuido en comparación con el momento que vive Anthropic. Los inversores institucionales aún buscan exposición a ambas compañías, pero el impulso en el mercado secundario favorece a Anthropic. SpaceX, por otro lado, podría alterar la dinámica con sus propios avances tecnológicos. Este panorama refleja un cambio en las apuestas estratégicas dentro del ecosistema de IA, donde el enfoque ya no es apostar por todos los jugadores, sino identificar los líderes emergentes.&lt;/p></description></item><item><title>Anthropic limita OpenClaw en Claude con tarifas extra</title><link>https://cristianleiton.com/blogs/2026-04-04-anthropic-limita-openclaw-en-claude-con-tarifas-ex/</link><pubDate>Sat, 04 Apr 2026 12:00:33 +0000</pubDate><guid>https://cristianleiton.com/blogs/2026-04-04-anthropic-limita-openclaw-en-claude-con-tarifas-ex/</guid><description>&lt;h2 id="anthropic-limita-openclaw-en-claude-con-tarifas-extra">Anthropic limita OpenClaw en Claude con tarifas extra&lt;/h2>
&lt;p>Anthropic ha implementado cambios en su política que afectan el uso de OpenClaw con su herramienta de inteligencia artificial Claude. A partir del 4 de abril, los usuarios deberán pagar por el uso de OpenClaw mediante un modelo de pago por uso, separado de la suscripción estándar de Claude. Esto podría ser un movimiento estratégico para fomentar el uso de herramientas propias de Anthropic, como Claude Cowork. Peter Steinberger, creador de OpenClaw, y Dave Morin intentaron negociar con Anthropic, logrando únicamente retrasar la medida por una semana.&lt;/p></description></item><item><title>Las mayores historias de IA del año</title><link>https://cristianleiton.com/blogs/2026-03-14-las-mayores-historias-de-ia-del-ano/</link><pubDate>Sat, 14 Mar 2026 19:42:04 +0000</pubDate><guid>https://cristianleiton.com/blogs/2026-03-14-las-mayores-historias-de-ia-del-ano/</guid><description>&lt;h2 id="las-mayores-historias-de-ia-del-año">Las mayores historias de IA del año&lt;/h2>
&lt;p>OpenClaw, creado por Peter Steinberger, permite interactuar con modelos de IA como ChatGPT y Claude a través de apps de mensajería populares. Además, incluye un mercado público para añadir habilidades personalizadas a los agentes de IA, facilitando la automatización de tareas informáticas. Por otro lado, Anthropic mantiene restricciones sobre el uso de su IA en vigilancia masiva y armas autónomas, enfrentando tensiones con el Departamento de Defensa de EE.UU. En contraste, OpenAI ha permitido el uso de sus modelos en situaciones clasificadas, sorprendiendo a la comunidad tecnológica. Estas decisiones reflejan el impacto de la IA en la ética y la seguridad global.&lt;/p></description></item><item><title>El dilema de Anthropic y la IA avanzada</title><link>https://cristianleiton.com/blogs/2026-03-02-el-dilema-de-anthropic-y-la-ia-avanzada/</link><pubDate>Mon, 02 Mar 2026 12:00:32 +0000</pubDate><guid>https://cristianleiton.com/blogs/2026-03-02-el-dilema-de-anthropic-y-la-ia-avanzada/</guid><description>&lt;h2 id="el-dilema-de-anthropic-y-la-ia-avanzada">El dilema de Anthropic y la IA avanzada&lt;/h2>
&lt;p>Anthropic, una empresa de IA fundada en 2021 por ex investigadores de OpenAI, enfrenta un desafío crítico tras ser incluida en la lista negra del Pentágono. La decisión surge luego de que su CEO, Dario Amodei, se negara a permitir que su tecnología fuera utilizada para vigilancia masiva o drones autónomos con capacidad letal. Este caso resalta las tensiones entre el desarrollo de IA avanzada y las preocupaciones éticas y de seguridad. Max Tegmark, físico y defensor de la regulación de la IA, advierte que el avance rápido de estas tecnologías supera la capacidad de gobernarlas. Este incidente subraya la necesidad urgente de establecer límites claros en el uso de la inteligencia artificial.&lt;/p></description></item></channel></rss>