Red Hat une a desarrolladores y operadores en el futuro agéntico con avances trascendentales en Red Hat AI

Written by on 16/05/2026

 

Las nuevas capacidades de 'metal-to-agent' en Red Hat AI
proporcionan una base para escalar modelos y agentes autónomos

en toda la nube híbrida.

Red Hat, el proveedor líder mundial de soluciones de código abierto, anunció
avances significativos en todo el portafolio de Red Hat AI para ayudar a cerrar
la brecha entre la experimentación con IA y el control operativo de grado de
producción. Al ofrecer una plataforma unificada 'del hardware al agente' , Red
Hat AI 3.4 simplifica el desarrollo y despliegue de flujos de trabajo agénticos,
permitiendo que las organizaciones trasciendan los proyectos piloto hacia una
IA escalable en toda su infraestructura.
Al proporcionar un marco de trabajo consistente tanto para desarrolladores
como para operadores, Red Hat sienta las bases para que las organizaciones
escalen sistemas autónomos mientras mantienen el control, las capacidades de
seguridad y la eficiencia de hardware que requiere la empresa moderna.
¿Qué es Red Hat AI 3.4?
Red Hat AI 3.4 es una plataforma integral que ofrece la base arquitectónica y
las herramientas operativas necesarias para escalar modelos y flujos de trabajo
agénticos en toda la nube híbrida. Un elemento central de este lanzamiento es
la entrega de Model-as-a-Service (MaaS), que proporciona una interfaz única y
gobernada para que los desarrolladores accedan a modelos curados,
permitiendo al mismo tiempo que los administradores rastreen el consumo y
apliquen políticas. Esto se construye sobre una base de inferencia distribuida
de alto rendimiento, impulsada por vLLM y llm-d, para mantener un servicio de
modelos optimizado y eficiente en una amplia gama de entornos.
Si bien los agentes de IA impulsan una demanda exponencial de inferencia,
Red Hat AI proporciona las capacidades para que las organizaciones
desplieguen y gestionen agentes a escala, independientemente del marco de
trabajo (framework) del agente.
Las herramientas de AgentOps recientemente introducidas gestionan a los
agentes desde el desarrollo hasta la producción con rastreo integrado,
observabilidad, identidad criptográfica y gestión del ciclo de vida.

Para integrar los datos empresariales con los modelos y agentes, Red Hat AI
3.4 introduce la gestión de prompts —tratando a los prompts como activos de
datos de primera clase— y un centro de evaluación para determinar la
precisión, calidad y seguridad de los modelos y agentes. Estas capacidades
están impulsadas por MLflow, que proporciona un seguimiento de
experimentos y gestión de artefactos integrados, tanto para casos de uso de IA
generativa como predictiva. La plataforma permite a los usuarios validar la
seguridad de los modelos y agentes con pruebas de seguridad automatizadas y
red-teaming, utilizando tecnología de Chatterbox Labs y el proyecto Garak para
proporcionar una ruta orientada a la seguridad desde los pilotos experimentales
hasta la utilidad empresarial lista para producción.
¿Por qué Red Hat AI 3.4 es importante?
La transición de los chatbots experimentales a sistemas autónomos de grado
de producción requiere un cambio fundamental en la forma en que colaboran
los equipos de TI. Muchas organizaciones reconocen ahora la necesidad de
pasar de ser meros 'consumidores de tokens' a ser 'proveedores de tokens'
para gestionar mejor los costos y potenciar casos de uso de IA privados y
soberanos.
Sin embargo, la fricción entre los desarrolladores (builders) y los
administradores de infraestructura sigue siendo el principal obstáculo para la
adopción. Sin un enfoque unificado que alinee estos dos roles, las barreras de
acceso a la infraestructura frenan la innovación, mientras que los atajos de
“shadow AI” introducen riesgos no gobernados y costos impredecibles.
Red Hat AI 3.4 ayuda a resolver esta tensión al proporcionar una base
empresarial para la inferencia escalable y el despliegue de agentes autónomos,
ofreciendo la transparencia y el control necesarios para cumplir con rigurosos
estándares de riesgo y gobernanza. Dado que los agentes operan con cierto
nivel de independencia, la falta de visibilidad en su toma de decisiones crea un
riesgo de seguridad crítico.
Red Hat AI aborda esto proporcionando la infraestructura para rastrear
acciones, pasos de razonamiento y llamadas a herramientas, haciendo posible
auditar cómo un agente llegó a un resultado. Al integrar la gestión de identidad
criptográfica, la plataforma vincula las acciones a una identidad verificada,
ayudando a identificar qué entidad realizó la tarea. En conjunto, estas
capacidades permiten a las organizaciones trascender los pilotos
desconectados para tratar a la IA como una utilidad empresarial escalable,
predecible y, lo más importante, responsable
Qué dicen Red Hat y sus partners

“La era agéntica representa una evolución de nuestra plataforma: de ejecutar
aplicaciones tradicionales a potenciar sistemas inteligentes y autónomos”,
afirmó Joe Fernandes, vicepresidente y gerente general de la Unidad de
Negocio de IA en Red Hat. “Estamos definiendo el estándar abierto sobre cómo
la empresa ejecuta la IA. Al proporcionar una base reforzada y de metal-to-
agent para la inferencia de IA, MaaS y AgentOps, Red Hat ofrece la garantía
operativa que las organizaciones necesitan para innovar a escala manteniendo
un control riguroso”.
“La colaboración de CoreWeave con Red Hat se basa en un compromiso
compartido con la apertura y en ofrecer una base de inferencia de alto
rendimiento que permita a las empresas escalar sus cargas de trabajo de IA
más complejas”, afirmó Urvashi Chowdhary, vicepresidenta de Gestión de
Productos de Servicios de IA en CoreWeave. “Juntos, hemos entregado un
modelo de implementación para Red Hat AI Inference en el Servicio
Kubernetes de CoreWeave para ejecutar el mismo stack de inferencia tanto de
forma local como en la nube, con un control nativo de Kubernetes y un
rendimiento de grado de producción. Esto permite que los equipos de IA
empresarial en industrias reguladas se concentren en lo más importante:
construir y escalar la IA, en lugar de reconfigurar su stack para cada nuevo
entorno”.
“Los agentes autónomos de larga ejecución en la empresa exigen un nuevo
nivel de control de infraestructura y seguridad para garantizar operaciones
confiables a escala”, señaló John Fanelli, vicepresidente de Software
Empresarial en NVIDIA. “Red Hat AI Factory with NVIDIA proporciona una base
unificada impulsada por el código abierto que otorga a los desarrolladores y
operadores la gobernanza y la confianza necesarias para el futuro agéntico”.
Conclusiones principales
La inferencia escalable de alto rendimiento se une al acceso gobernado a
modelos: La inferencia de modelos de alta eficiencia sigue siendo el núcleo de
la IA lista para producción. Al combinar el servidor de inferencia vLLM y el
motor de inferencia distribuida llm-d con MaaS, Red Hat AI 3.4 proporciona una
base fiable y de alto rendimiento para la inferencia de modelos, al tiempo que
simplifica el acceso gobernado a los mismos para usuarios y agentes.
AgentOps optimizado para el ciclo de vida de aplicaciones autónomas: Red Hat
AI 3.4 introduce capacidades integrales de AgentOps para ayudar a
operativizar agentes a escala. Esto incluye rastreo integrado, observabilidad y
evaluaciones, junto con la gestión de identidad y del ciclo de vida de los
agentes para trasladarlos del desarrollo a la producción.

Conectando datos con modelos y agentes: Los datos empresariales son el
combustible que impulsa a los modelos y agentes. Red Hat AI 3.4 añade la
gestión de prompts —tratando a los prompts como activos de datos de primera
clase— y un centro de evaluación para gestionar valoraciones de calidad,
precisión, seguridad y riesgo. Estas capacidades están impulsadas por MLflow,
que también proporciona un seguimiento de experimentos y gestión de
artefactos integrados tanto para casos de uso de IA generativa como de IA/ML
predictiva.
Seguridad y protección integradas para modelos y agentes: Para ayudar a
proteger todo el stack de IA, Red Hat AI ofrece una postura de seguridad por
capas que se extiende desde el sistema operativo hasta la lógica agéntica. Al
proporcionar pruebas de seguridad automatizadas y red-teaming, las
organizaciones pueden adoptar un enfoque basado en datos para la selección
y configuración de modelos y guardrails, ayudando a proteger mejor las cargas
de trabajo de IA contra las amenazas en evolución.
Detalles específicos
Inferencia avanzada y optimización de modelos: Red Hat AI Inference añade
priorización de peticiones a sus capacidades de inferencia distribuida,
permitiendo que el tráfico interactivo y el de fondo compartan el mismo punto
de conexión (endpoint), mientras que las peticiones sensibles a la latencia se
procesan primero bajo carga. Red Hat AI Inference también se extiende más
allá de Red Hat OpenShift hacia servicios de Kubernetes adicionales, incluidos
CoreWeave y Azure, proporcionando a las organizaciones una pila de
inferencia consistente en diversos entornos. El soporte de decodificación
especulativa, ya disponible de forma general, mejora la velocidad de respuesta
entre 2 y 3 veces con un impacto mínimo en la calidad, reduciendo a su vez el
costo por interacción.
Model-as-a-Service (MaaS) gobernado: Esta función permite a los ingenieros
de plataforma ofrecer modelos curados y validados a través de puntos de
conexión de API con seguridad mejorada, utilizando interfaces estándar
compatibles con OpenAI. Esto permite una gobernanza unificada tanto de
modelos internos como de API externas, integrada con la autenticación basada
en proveedores de identidad (IDP).
Gestión de prompts integrada: La plataforma proporciona herramientas
unificadas para construir y gestionar prompts como activos de datos de primera
clase. Almacenar las instrucciones que impulsan a los modelos y agentes en un
registro central proporciona una única fuente de verdad tanto para
desarrolladores como para administradores.

Evaluaciones automatizadas para modelos y agentes: Red Hat AI 3.4
introduce el evaluation hub, un plano de control de evaluación de IA unificado e
independiente del marco de trabajo para evaluar modelos de lenguaje extensos
(LLM), aplicaciones de IA y agentes. Esto sustituye los métodos de prueba
fragmentados por un enfoque unificado de benchmarking para medir la calidad,
precisión y riesgo.
Seguridad multicapa: El escaneo adversarial automatizado está ahora
integrado directamente en el ciclo de vida del desarrollo. Aprovechando la
tecnología de Chatterbox Labs, la plataforma Red Hat AI utiliza Garak para
examinar modelos y sistemas agénticos en busca de riesgos como jailbreaks,
inyecciones de prompts y sesgos, combinado con NVIDIA NeMo Guardrails
para la seguridad en tiempo de ejecución.
Observabilidad lista para producción: La integración de MLflow brinda
visibilidad sobre la ejecución de los agentes, permitiendo el rastreo de extremo
a extremo de las llamadas de LLM, pasos de razonamiento, ejecución de
herramientas, respuestas del modelo y uso de tokens mediante
OpenTelemetry. Esto crea una pista de auditoría transparente para todo el ciclo
de vida de los prompts, embeddings y configuraciones RAG para facilitar la
depuración y la auditoría. MLflow también proporciona seguimiento de
experimentos y gestión de artefactos integrados para casos de uso de IA
generativa y predictiva.
Gobernanza basada en identidad: Mediante la gestión de identidad
criptográfica (SPIFFE/SPIRE), Red Hat AI permite a las organizaciones sustituir
las claves estáticas codificadas por tokens de corta duración. Esto respalda las
operaciones de mínimo privilegio para agentes autónomos en toda la pila y
ayuda a confirmar que las acciones agénticas están vinculadas a una identidad
verificada.
Experiencias automatizadas: Herramientas como AutoRAG y AutoML
automatizan tareas complejas de IA, que van desde la selección de las
estrategias de recuperación más eficaces para conjuntos de datos específicos
hasta la construcción y optimización de modelos predictivos tradicionales.
Flexibilidad de hardware y nubes gestionadas: Red Hat AI 3.4 ofrece
soporte desde el primer día para las arquitecturas de GPU NVIDIA Blackwell y
AMD MI325X. Al extender esta arquitectura de plataforma unificada para
ejecutarse de forma nativa en nubes gestionadas de terceros —incluyendo el
nuevo Red Hat AI Inference en IBM Cloud—, Red Hat proporciona consistencia
operativa en una amplia gama de proveedores de hardware y nube.

Disponibilidad
Se espera que Red Hat AI 3.4 esté disponible a finales de este mes.
Acerca de Red Hat, Inc.
Red Hat es la compañía líder en tecnología de nube híbrida abierta que proporciona
una base confiable, consistente y completa para una innovación transformadora de la
TI y las aplicaciones de IA. Su portafolio de tecnologías de nube, desarrollo, IA, Linux,
automatización y plataforma de aplicaciones hace posible la implementación de
cualquier aplicación en cualquier lugar, desde el centro de datos hasta el Edge. Como
proveedor líder mundial de soluciones de software de código abierto empresarial, Red
Hat invierte en ecosistemas y comunidades abiertos para resolver los desafíos de TI
del mañana. Por medio de la colaboración, Red Hat ayuda a clientes y partners a
construir, conectar, automatizar, proteger y gestionar sus entornos de TI, con el
respaldo de servicios de consultoría, capacitación y certificación reconocidos
mundialmente.
Conéctese con Red Hat
 Conozca más acerca de Red Hat
 Obtenga más noticias en la sala de noticias de Red Hat
 Lea el blog de Red Hat
 Siga a Red Hat por Twitter
 Únase a Red Hat en Facebook
 Mire los videos de Red Hat en YouTube
 Siga a Red Hat en LinkedIn

Red Hat en Redes Sociales:
X: @redhatla               LK: @red-hat                IG: @redhatlatam
#RHSummit


Reader's opinions

Leave a Reply

Your email address will not be published. Required fields are marked *



Current track

Title

Artist