<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>#CompactifAI on Cristian Leiton - DevOps Engineer</title><link>https://cristianleiton.com/tags/%23compactifai/</link><description>Recent content in #CompactifAI on Cristian Leiton - DevOps Engineer</description><generator>Hugo</generator><language>es-co</language><lastBuildDate>Fri, 20 Mar 2026 12:00:24 +0000</lastBuildDate><atom:link href="https://cristianleiton.com/tags/%23compactifai/index.xml" rel="self" type="application/rss+xml"/><item><title>Modelos AI comprimidos de Multiverse Computing</title><link>https://cristianleiton.com/blogs/2026-03-20-modelos-ai-comprimidos-de-multiverse-computing/</link><pubDate>Fri, 20 Mar 2026 12:00:24 +0000</pubDate><guid>https://cristianleiton.com/blogs/2026-03-20-modelos-ai-comprimidos-de-multiverse-computing/</guid><description>&lt;h2 id="modelos-ai-comprimidos-de-multiverse-computing">Modelos AI comprimidos de Multiverse Computing&lt;/h2>
&lt;p>Multiverse Computing está llevando sus modelos de IA comprimidos al mercado masivo. Su modelo más reciente, HyperNova 60B 2602, basado en gpt-oss-120b, ofrece respuestas más rápidas y económicas, ideal para flujos de trabajo autónomos. La startup española ha desarrollado CompactifAI, una app que permite ejecutar modelos localmente, como Gilda, sin conexión a la nube, ofreciendo privacidad y resiliencia. Además, su portal API facilita el acceso a estos modelos comprimidos, abriendo nuevas oportunidades en sectores críticos como drones y satélites donde la conectividad es limitada.&lt;/p></description></item></channel></rss>