Red Hat ofrece inferencia de IA mejorada en AWS

Written by on 16/12/2025

Red Hat AI en AWS utiliza los chips Trainium e Inferentia AI para ofrecer a
los clientes mayor variedad, flexibilidad y eficiencia para cargas de trabajo

de IA en producción.

Colombia – diciembre de 2025 – Red Hat, el líder mundial en soluciones de código
abierto, anunció la expansión de su colaboración con Amazon Web Services
(AWS) para impulsar soluciones empresariales de Inteligencia Artificial generativa
(IA gen) en AWS a través de Red Hat AI y los chips de IA de AWS. Con esta
colaboración, Red Hat busca empoderar a los responsables de la toma de
decisiones de TI con la flexibilidad necesaria para ejecutar inferencia de IA de alto
rendimiento y eficiente a escala, independientemente del hardware subyacente.
El auge de la IA gen y la consecuente necesidad de inferencia escalable están
llevando a las organizaciones a reevaluar su infraestructura de TI. Como
resultado, IDC predice que "para 2027, el 40% de las organizaciones utilizará
silicio personalizado, incluidos procesadores ARM o chips específicos para AI/ML,
para satisfacer las crecientes demandas de optimización del rendimiento,
eficiencia de costos y computación especializada."¹. Esta tendencia refuerza la
necesidad de soluciones optimizadas para mejorar la capacidad de
procesamiento, minimizar los costos y permitir ciclos de innovación más rápidos
para aplicaciones de IA de alto rendimiento.
La colaboración de Red Hat con AWS empodera a las organizaciones con una
estrategia completa de IA gen, al unir una vasta biblioteca de recursos de
plataforma de Red Hat con la infraestructura de nube y los chipsets de IA de AWS:
AWS Inferentia2 y AWS Trainium3. Los aspectos clave de esta nueva fase de la
asociación incluyen:
● Red Hat AI Inference Server en chips de IA de AWS: el Red Hat AI
Inference Server, basado e impulsado por vLLM, estará habilitado para
ejecutarse con los chips de IA de AWS, incluidos AWS Inferentia2 y AWS
Trainium3, para ofrecer una capa de inferencia común, capaz de soportar
cualquier modelo de IA gen, brindando más rendimiento, menor latencia y
mejor rentabilidad al escalar despliegues de IA en producción, con una
eficiencia hasta un 30-40% superior a las instancias Amazon EC2 basadas
en GPU actualmente comparables.
● Habilitando la IA en Red Hat OpenShift: Red Hat trabajó con AWS para
desarrollar un operador de AWS Neuron para Red Hat OpenShift, Red Hat

OpenShift AI y Red Hat OpenShift Service on AWS, una plataforma de
aplicaciones completa y totalmente administrada en la base de Amazon,
proporcionando a los clientes una ruta más simple y con soporte para
ejecutar sus cargas de trabajo de IA con aceleradores de AWS.
● Facilidad de acceso y despliegue: al ofrecer soporte a los chips de IA de
AWS, Red Hat proporcionará un acceso mejorado y simplificado a
aceleradores de alta demanda y alta capacidad para clientes de Red Hat en
AWS. Además, Red Hat lanzó recientemente la Colección Ansible
Certificada amazon.ai para la Plataforma de Automatización Red Hat
Ansible, entorno en el que es posible orquestar servicios de IA en AWS.
● Contribución con la comunidad upstream: Red Hat y AWS están
colaborando para optimizar un plugin de chip de IA de AWS para que esté
disponible upstream en vLLM. Como principal colaboradora comercial de
vLLM, Red Hat está comprometida a habilitar vLLM en AWS con el fin de
acelerar las capacidades de inferencia y entrenamiento de IA para los
usuarios. vLLM también tiene como arquitectura técnica a llm-d, proyecto
de código abierto enfocado en ofrecer inferencia a escala, ahora disponible
como recurso comercial en Red Hat OpenShift AI 3.
Red Hat tiene un largo historial de colaboración con AWS para empoderar a los
clientes desde el centro de datos hasta el edge. Este nuevo hito busca satisfacer
las necesidades en evolución de las organizaciones a medida que integran la IA
en sus estrategias de nube híbrida para lograr resultados de IA gen optimizados y
eficientes.
Disponibilidad
El operador comunitario AWS Neuron ya está disponible en OperatorHub de Red
Hat OpenShift para clientes que utilizan Red Hat OpenShift o Red Hat OpenShift
Service en AWS. El soporte del Red Hat AI Inference Server para chips de IA de
AWS está previsto para enero de 2026, en versión preliminar para desarrolladores.
Citas de apoyo
Joe Fernandes, vicepresidente y gerente general de la Unidad de Negocios de IA,
Red Hat
"Al habilitar el Red Hat AI Inference Server para el sector empresarial, desarrollado
sobre el innovador framework vLLM, con chips de IA de AWS, estamos
empoderando a las organizaciones para desplegar y escalar cargas de IA con
mayor eficiencia y flexibilidad. Basada en la herencia de código abierto de Red
Hat, esta colaboración busca hacer que la IA generativa sea más accesible y

económicamente viable en entornos de nube híbrida."
Colin Brace, vicepresidente de Annapurna Labs, AWS
"Las empresas exigen soluciones que ofrezcan un rendimiento excepcional,
rentabilidad y opciones operativas para cargas de trabajo de IA de misión crítica.
AWS diseñó sus chips Trainium e Inferentia para hacer que la inferencia y el
entrenamiento de IA de alto rendimiento sean más accesibles y económicos.
Nuestra colaboración con Red Hat ofrece a los clientes un camino estructurado
para desplegar IA generativa a escala, combinando la flexibilidad del código
abierto con la infraestructura de AWS y aceleradores de IA desarrollados
específicamente para acelerar el retorno de la inversión, desde el piloto hasta la
producción."
Jean-François Gamache, director de información y vicepresidente de Servicios
Digitales de CAE
"Modernizar nuestras aplicaciones críticas con Red Hat OpenShift Service on AWS
representa un hito significativo en nuestra transformación digital. Esta plataforma
permite a nuestros desarrolladores centrarse en iniciativas de alto valor,
impulsando la innovación de productos y acelerando la integración de la IA en
todas nuestras soluciones. Red Hat OpenShift ofrece la flexibilidad y la
escalabilidad que nos permiten generar un impacto real, desde insights
accionables a través de entrenamiento virtual en vivo hasta la reducción
significativa del tiempo de respuesta para problemas reportados por los usuarios."
Anurag Agrawal, fundador y analista global jefe, Techaisle
"A medida que los costos de inferencia de IA escalan, las empresas están
priorizando la eficiencia junto con el rendimiento. Esta colaboración ejemplifica la
estrategia de Red Hat de 'cualquier modelo, cualquier hardware', al combinar su
plataforma de nube híbrida abierta con las distintas ventajas económicas de AWS
Trainium e Inferentia. La asociación empodera a los CIOs a operacionalizar la IA
generativa a escala, migrando de la experimentación onerosa a la producción
sostenible y gobernada."
1 IDC FutureScape: Worldwide Cloud 2025 Predictions, 28 de octubre de 2024, Doc
#US52640724
Recursos adicionales
● Encuentre a Red Hat en el AWS Marketplace
● Regístrese para una prueba gratuita de 60 días de Red Hat AI Inference
Server

● Descubra más sobre Red Hat AI
● Explore los beneficios de la Inferencia de IA
Conéctese con Red Hat
● Descubra más sobre Red Hat
● Reciba noticias en la sala de prensa de Red Hat
● Lea el blog de Red Hat
● Siga a Red Hat en X
● Siga a Red Hat en Instagram
● Siga a Red Hat en LinkedIn
● Vea videos de Red Hat en YouTube
Acerca de Red Hat
Red Hat es líder en tecnología de nube híbrida abierta, y proporciona una base confiable,
consistente y completa para una innovación transformadora en TI y aplicaciones de
inteligencia artificial (IA). Su portafolio de tecnologías de nube, desarrollo, IA, Linux y
automatización permite la implementación de cualquier aplicación, en cualquier lugar,
desde centros de datos hasta el edge. Como líder mundial en el suministro de soluciones
de software de código abierto empresarial, Red Hat invierte en ecosistemas y
comunidades abiertas para resolver los desafíos de TI del futuro. A través de la
colaboración, Red Hat ayuda a clientes y socios a construir, conectar, automatizar,
proteger y gestionar sus entornos de TI, con el soporte de servicios de consultoría,
capacitación y certificación reconocidos mundialmente.
Declaraciones a futuro
Excepto por la información y discusiones de carácter histórico aquí contenidas, las
declaraciones presentes en este comunicado de prensa pueden constituir declaraciones a
futuro en los términos de la Ley de Reforma de Litigios de Valores Mobiliarios Privados de
1995. Las declaraciones a futuro se basan en las suposiciones actuales de la empresa
sobre el rendimiento futuro de sus negocios y resultados financieros. Estas declaraciones
involucran diversos riesgos, incertidumbres y otros factores que pueden hacer que los
resultados reales sean sustancialmente diferentes de los expresados ​​o implícitos.
Cualquier declaración a futuro contenida en este comunicado se refiere solo a la fecha en
que fue hecha. Excepto cuando lo exija la ley, la empresa no asume ninguna obligación
de actualizar o revisar las declaraciones a futuro.
Red Hat, el logotipo de Red Hat y OpenShift son marcas comerciales o marcas registradas de Red

Hat, Inc. o de sus subsidiarias en EE. UU. y en otros países.

Red Hat en Redes Sociales:

X: @redhatla               LK: @red-hat                IG: @redhatlatam                     #RHSummit


Reader's opinions

Leave a Reply

Your email address will not be published. Required fields are marked *



Current track

Title

Artist