Red Hat, proveedor de soluciones open source, presentó Red Hat AI 3, una evolución integral de su plataforma de inteligencia artificial diseñada para simplificar la inferencia de alto rendimiento a gran escala. La solución unifica Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) y Red Hat OpenShift AI para acelerar el paso de proyectos piloto a implementaciones reales.
A medida que las organizaciones intentan escalar sus iniciativas de IA, enfrentan desafíos como la privacidad de datos, el control de costos y la gestión de modelos dispersos. El estudio NANDA del MIT revela que cerca del 95% de las empresas no obtienen retornos financieros claros pese a inversiones globales superiores a los 40 mil millones de dólares, un problema que Red Hat AI 3 busca revertir.
Enfoque en la inferencia: el corazón de la IA empresarial moderna
Con esta actualización, Red Hat centra su apuesta en la inferencia, la fase donde la IA ejecuta tareas reales en producción. La plataforma se apoya en proyectos de código abierto como vLLM y llm-d, además de optimizaciones propias, para ofrecer un servicio empresarial de modelos de lenguaje (LLM) con capacidades de alto rendimiento.
Red Hat OpenShift AI 3.0 incluye la disponibilidad general de llm-d, que transforma la ejecución tradicional de LLM en un solo nodo hacia una inferencia distribuida, escalable y consciente de los recursos. Esta tecnología se beneficia de la API de Gateway Inference de Kubernetes, NIXL de NVIDIA y la librería DeepEP para modelos Mixture-of-Experts.
Aceleración, eficiencia y flexibilidad en todos los entornos
Con llm-d, las organizaciones pueden reducir costos, mejorar tiempos de respuesta y ejecutar modelos más grandes con consistencia y estabilidad en Kubernetes. La distribución de cargas permite adaptar el rendimiento a requisitos empresariales críticos y maximizar el retorno de inversión.
Además, la plataforma ofrece soporte multiplataforma para hardware acelerado, incluyendo NVIDIA y AMD, lo que permite desplegar inferencia en centros de datos, nubes públicas, entornos soberanos y edge computing sin depender de un proveedor único.
Una plataforma unificada para colaboración en IA generativa
Red Hat AI 3 introduce un entorno común para que ingenieros de plataforma y de IA trabajen sobre la misma arquitectura sin fricciones. Capacidades como Modelo como Servicio (MaaS) permiten a los equipos de TI servir modelos de forma centralizada con control de costos y protección de datos.
El nuevo AI Hub ofrece un catálogo curado de modelos, un registro central para el ciclo de vida y herramientas de monitoreo, mientras que Gen AI Studio facilita la experimentación, prototipado y ajuste de modelos generativos con entornos interactivos y endpoints listos para integrar.

Modelos optimizados y herramientas para desarrolladores avanzados
La plataforma integra modelos validados y optimizados de código abierto, incluyendo gpt-oss de OpenAI, DeepSeek-R1, Whisper y Voxtral Mini para aplicaciones de voz. Estas opciones reducen la complejidad inicial para comenzar proyectos y ofrecen un punto de partida robusto para personalización.
Asimismo, el nuevo toolkit modular basado en InstructLab añade librerías especializadas de Python, soporte para datos sintéticos y un hub de entrenamiento para ajuste fino de modelos. Esto permite a los desarrolladores aprovechar mejor sus datos y mantener control total sobre su infraestructura de IA.
Preparando el terreno para agentes de IA de próxima generación
Red Hat OpenShift AI 3.0 también impulsa el desarrollo de agentes inteligentes que ejecutan flujos autónomos complejos. Para ello incorpora API unificadas basadas en Llama Stack, compatibles con protocolos tipo OpenAI, lo que facilita la interoperabilidad entre sistemas y modelos.
Finalmente, la adopción del estándar Model Context Protocol (MCP) marca un avance clave: permite que los modelos interactúen con herramientas externas de manera más eficiente, abriendo la puerta a agentes modernos con capacidades operativas mucho más amplias.
