Skip to contentRed Hat

Navegación

IA
  • Nuestro enfoque

    • Novedades
    • Blog técnico
    • Investigación
    • Eventos en vivo sobre IA
    • Inteligencia artificial con Red Hat
  • Nuestra cartera de productos

    • Red Hat AI
    • Red Hat Enterprise Linux AI
    • Red Hat OpenShift AI
    • Red Hat AI Inference Server Nuevo
  • Participa y aprende

    • Centro de aprendizaje de inteligencia artificial
    • Partners de IA
    • Servicios para la IA
Nube híbrida
  • Casos prácticos

    • Inteligencia artificial

      Diseña, implementa y supervisa aplicaciones y modelos de inteligencia artificial.

    • Estandarización en Linux

      Obtén uniformidad en todos los entornos operativos.

    • Desarrollo de las aplicaciones

      Simplifica la manera en que diseñas, implementas y gestionas aplicaciones.

    • Automatización

      Amplía la automatización y unifica la tecnología, los equipos y los entornos.

    • Virtualización

      Moderniza las operaciones para las cargas de trabajo virtualizadas o en contenedores.

    • Seguridad

      Programa, diseña, implementa y supervisa software enfocado en la seguridad.

    • Edge computing

      Implementa cargas de trabajo más cerca de la fuente con el edge computing.

    • Explorar las soluciones
  • Soluciones por sector

    • Automotriz
    • Servicios financieros
    • Salud
    • Industrial
    • Medios de comunicación y entretenimiento
    • Sector público
    • Telecomunicaciones

Descubre las tecnologías de nube

Aprende a utilizar nuestros productos y soluciones de nube a tu propio ritmo en Red Hat® Hybrid Cloud Console.

Productos
  • Plataformas

    • Red Hat AI

      Desarrolla e implementa soluciones de inteligencia artificial en la nube híbrida.

    • Red Hat Enterprise Linux

      Sistema operativo flexible que soporta la innovación con la nube híbrida.

      Nueva versión
    • Red Hat OpenShift

      Diseña, moderniza e implementa aplicaciones según tus necesidades.

    • Red Hat Ansible Automation Platform

      Implementa la automatización a nivel empresarial.

  • Destacados

    • Red Hat OpenShift Virtualization Engine
    • Red Hat OpenShift Service on AWS
    • Microsoft Azure Red Hat OpenShift
    • Ver todos los productos
  • Prueba y compra

    • Prueba gratis
    • Comprar en línea
    • Integración con los principales proveedores de nube
  • Servicios y soporte

    • Consultoría
    • Soporte de productos
    • Servicios para la inteligencia artificial
    • Gestión de cuentas técnicas
    • Explorar servicios y soporte
Capacitación
  • Capacitación y certificación

    • Cursos y exámenes
    • Certificaciones
    • Red Hat Academy
    • Learning community
    • Learning subscription
    • Explorar capacitaciones
  • Destacados

    • Red Hat Certified System Administrator Exam
    • Red Hat System Administration I
    • Red Hat Learning Subscription- versión de prueba (Sin costo)
    • Red Hat Certified Engineer Exam
    • Red Hat Certified OpenShift Administrator Exam
  • Servicios

    • Consultoría
    • Capacitación para partners
    • Soporte de productos
    • Servicios para la inteligencia artificial
    • Gestión de cuentas técnicas
Aprender más
  • Amplía tu conocimiento

    • Documentación
    • Laboratorios prácticos
    • Centro de aprendizaje sobre la nube híbrida
    • Aprendizaje interactivo
    • Training y Certificación
  • Otros recursos de aprendizaje

    • Blog
    • Eventos y webinars
    • Podcasts y videos
    • Red Hat TV
    • Biblioteca de recursos

Para los desarrolladores

Descubre los recursos y las herramientas que te ayudarán a diseñar, distribuir y gestionar las aplicaciones y los servicios nativos de la nube.

Partners
  • Para los clientes

    • Nuestros partners
    • Red Hat Ecosystem Catalog
    • Busque un partner
  • Para los partners

    • Partner Connect
    • Convertirse en partner
    • Capacitación
    • Soporte
    • Acceda el portal de nuestros partners

Diseña soluciones con los partners de confianza

Encuentra soluciones de nuestra comunidad colaborativa de especialistas y tecnologías en el Red Hat® Ecosystem Catalog.

Buscar

Me gustaría:

  • Prueba gratis
  • Gestionar suscripciones
  • Busca empleos en Red Hat
  • Leer sobre tecnología
  • Comuníquese con la oficina de ventas
  • Comuníquese con el servicio al cliente

Quiero encontrar:

  • Documentación
  • Recursos para desarrolladores
  • Evaluación de conocimientos
  • Centro de arquitectura
  • Actualizaciones de seguridad
  • Casos de soporte

Deseo más información sobre:

  • Inteligencia artificial
  • Modernización de las aplicaciones
  • Automatización
  • Aplicaciones desarrolladas en la nube
  • Linux
  • Virtualización
ConsoleDocumentaciónSoporteNuevo Para ti

Recomendado

Te recomendaremos recursos que te pueden ser útiles mientras navegas en redhat.com. Prueba estas sugerencias:

  • Centro de versiones de prueba de productos
  • Cursos y exámenes
  • Todos los productos
  • Temas de tecnología
  • Biblioteca de recursos
Iniciar sesión

Inicia sesión o crea una cuenta para sacar más provecho de Red Hat

  • Servicio de soporte de primera categoría
  • Recursos de capacitación
  • Versiones de prueba de los productos
  • Acceso a la consola

Algunos servicios pueden requerir una suscripción válida.

Inicia sesión o regístrate
Contáctenos
  • Inicio
  • Recursos
  • Una plataforma abierta para los modelos de IA en la nube híbrida

Una plataforma abierta para los modelos de IA en la nube híbrida

4 de junio de 2025•
Tipo de contenido:Visión general

Adopción de las aplicaciones inteligentes y la IA generativa

La inteligencia artificial (IA), el machine learning (aprendizaje automático) y el deep learning (aprendizaje profundo) influyen considerablemente en las iniciativas de modernización de las aplicaciones en una infinidad de sectores y negocios. La necesidad de generar innovaciones, obtener valor estratégico y adquirir información nueva a partir de los datos está fomentando el aumento del uso de las metodologías de MLOps y de las aplicaciones de la nube que implementan la inteligencia artificial. Al mismo tiempo, este nuevo mundo tecnológico puede ser complejo e influir en todos, desde los equipos de desarrollo hasta los de análisis de datos y de operaciones. La puesta en funcionamiento de inteligencia artificial/machine learning no es sencilla, ya que suele demorar meses, mientras que las innovaciones de la inteligencia artificial generativa progresan todos los días. Esta falta de correspondencia puede generar fallas en los proyectos y poner en riesgo a la empresa al exponerla a una gran cantidad de desafíos:

  • Puede ser desalentador tratar de seguir el ritmo del progreso de la inteligencia artificial, debido a que las herramientas y los servicios de aplicaciones se deben mantener actualizados y uniformes, a pesar de su rápida evolución. Además, es necesario implementar recursos de hardware, como las unidades gráficas de procesamiento (GPU), y ajustar las aplicaciones que utilizan la inteligencia artificial.
  • Las empresas deben reducir los riesgos cuando invierten en la inteligencia artificial y, al mismo tiempo, deben obtener valor, especialmente cuando introducen datos confidenciales en los modelos y las aplicaciones.
  • El mantenimiento de distintas plataformas por parte de los desarrolladores de aplicaciones y los analistas de datos puede dificultar la colaboración y ralentizar el desarrollo.
  • La implementación de las aplicaciones que utilizan la inteligencia artificial debe realizarse a gran escala y cerca de los puntos de generación de datos.

Red Hat OpenShift AI se basa en Red Hat® OpenShift®, una plataforma líder de aplicaciones de nube híbrida y parte de la cartera de productos de Red Hat AI. Ofrece a los analistas de datos y los desarrolladores una plataforma potente de inteligencia artificial/machine learning para desarrollar e implementar aplicaciones inteligentes. Las empresas pueden probar diversas herramientas, colaborar y agilizar la comercialización, todo desde un mismo lugar. Red Hat OpenShift AI combina el entorno de autoservicio que buscan los analistas de datos y los desarrolladores con la seguridad que exige la TI empresarial.

Los inconvenientes que surgen a lo largo del ciclo de vida se reducen gracias al uso de una base confiable. Red Hat OpenShift AI ofrece una plataforma sólida, un ecosistema amplio de herramientas certificadas y cargas de trabajo conocidas para la implementación de modelos en la etapa de producción. Gracias a estas ventajas, los equipos pueden colaborar con menos contratiempos y comercializar las aplicaciones que usan la inteligencia artificial de manera más eficiente, lo cual genera más ganancias para la empresa.

Aspectos destacados

Reduzca los costos del paso de la etapa de prueba a la de producción al ajustar y automatizar la infraestructura. 

Aumente la eficiencia operativa de inteligencia artificial/machine learning en todos los equipos con una experiencia del usuario uniforme que fomente la colaboración entre los analistas, los ingenieros de datos, los desarrolladores de aplicaciones y los equipos de DevOps.

Obtenga la flexibilidad de la nube híbrida al desarrollar, entrenar, implementar y controlar las cargas de trabajo de inteligencia artificial/machine learning en las instalaciones, la nube o el extremo de la red.

Desarrollo, entrenamiento, pruebas e implementaciones ágiles

Red Hat OpenShift AI es una plataforma de inteligencia artificial flexible y con capacidad de ajuste que incluye herramientas para diseñar, implementar y gestionar las aplicaciones que utilizan la inteligencia artificial. Está diseñada con tecnologías de open source y proporciona funciones confiables y uniformes en términos operativos para que los equipos realicen pruebas, pongan los modelos a disposición en la etapa de producción y distribuyan aplicaciones innovadoras. También agiliza la distribución de las aplicaciones inteligentes, puesto que permite que los modelos de machine learning se integren desde los primeros pilotos a las aplicaciones inteligentes de forma más rápida en una plataforma uniforme y compartida. 

Además, ofrece una experiencia integrada de interfaz de usuario con herramientas para desarrollar, entrenar, ajustar, implementar y controlar los modelos de inteligencia artificial predictiva y generativa. Puede implementar los modelos en las instalaciones o en las principales nubes públicas, lo cual le brinda la flexibilidad requerida para ejecutar las cargas de trabajo donde sea necesario, sin depender de una nube comercial. Red Hat OpenShift AI se basa en el proyecto de la comunidad Open Data Hub y en los proyectos open source comunes, como Jupyter, Pytorch, modelos de lenguaje de gran tamaño virtuales (vLLM) y Kubeflow.

Reducción de los costos para realizar ajustes en la producción

OpenShift AI es un complemento de Red Hat OpenShift y ofrece una plataforma diseñada para gestionar las cargas de trabajo más exigentes. Reduce los costos corrientes del entrenamiento, la puesta a disposición en la producción y la infraestructura de los proyectos de inteligencia artificial generativa y predictiva a medida que pasan de la etapa de prueba a la de producción. Esto se logra al simplificar la implementación de los recursos y automatizar varias tareas mediante los canales de datos. También disminuye los gastos de las inferencias de los modelos con motores de puesta a disposición en la producción y tiempos de ejecución optimizados, como los vLLM, además del ajuste de la infraestructura fundamental según lo requiera la carga de trabajo.  

Los analistas de datos pueden utilizar herramientas y marcos conocidos o acceder a un ecosistema de partners tecnológicos cada vez más grande para disfrutar de una experiencia de inteligencia artificial/machine learning más profunda, todo sin tener que lidiar con una cadena de herramientas prescriptiva. En lugar de esperar a que la TI proporcione los recursos necesarios mediante una solicitud, obtienen acceso a la infraestructura con un solo clic. 

Menor complejidad operativa

Red Hat OpenShift AI ofrece una experiencia del usuario uniforme que impulsa a los analistas de datos, los ingenieros de aplicaciones y de datos y los equipos de DevOps a colaborar para distribuir soluciones de inteligencia artificial oportunas de manera efectiva. Ofrece acceso de autoservicio a los flujos de trabajo colaborativos, agilización mediante el acceso a las GPU y operaciones optimizadas. Las empresas pueden distribuir soluciones de inteligencia artificial de manera uniforme a gran escala en los entornos de nube híbrida y en el extremo de la red.

Debido a que OpenShift AI es un complemento de Red Hat OpenShift, las operaciones de TI ofrecen configuraciones más sencillas para los analistas de datos y los desarrolladores de aplicaciones en una plataforma estable y de eficacia comprobada, cuya capacidad se puede ampliar o reducir fácilmente. El control y la seguridad ya no son una prioridad para la TI, por lo que no se encarga de buscar cuentas de plataformas de nube no autorizadas.

Mayor flexibilidad en la nube híbrida

Red Hat OpenShift AI brinda la capacidad de entrenar, implementar y controlar cargas de trabajo de inteligencia artificial/machine learning en un entorno de nube, en centros de datos locales o en el extremo de la red, cerca de donde se generan o se ubican los datos. Esta flexibilidad permite que evolucionen las estrategias de inteligencia artificial al trasladar las operaciones a la nube o al extremo de la red, según sea conveniente. Las empresas pueden entrenar e implementar modelos y aplicaciones que usan la inteligencia artificial donde lo necesiten para cumplir con los requisitos normativos, de seguridad y de datos, lo que incluye a los entornos asilados y los desconectados.

Cuando se preguntó qué áreas tecnológicas recibirían un aumento de fondos en 2025, el 84 % eligió a la inteligencia artificial, en comparación con el 73 % del año anterior1.

Red Hat OpenShift AI

En la figura 1, podemos ver la manera en la que el ciclo de vida operativo del modelo se integra con OpenShift AI como una plataforma común, lo cual amplía las funciones de la plataforma de aplicaciones líder, Red Hat OpenShift. Las empresas dependen de una plataforma de nube híbrida de eficacia comprobada, que se ofrece como un software tradicional autogestionado o como un servicio de nube gestionado, lo que proporciona una enorme flexibilidad. La versión autogestionada se puede ejecutar en todas las ubicaciones en las que funcione Red Hat OpenShift, ya sea en las instalaciones o en cualquiera de los tres entornos principales de nube pública. La opción de servicio de nube está disponible en Red Hat OpenShift Service on AWS y en Red Hat OpenShift Dedicated (en AWS o Google Cloud Platform). 

Además, nuestras soluciones permiten que se expandan las funciones de inteligencia artificial mediante la colaboración con un amplio ecosistema de varios partners de software de inteligencia artificial y de software como servicio (SaaS). Red Hat OpenShift AI es flexible y tiene capacidad de integración, de modo que los clientes pueden crear una plataforma integral de inteligencia artificial/machine learning que se adapte a sus necesidades específicas.

Para quienes recién comienzan con los modelos de inteligencia artificial generativa, OpenShift AI incluye los elementos de Red Hat® Enterprise Linux® AI, una plataforma de modelos base que permite desarrollar, probar y ejecutar modelos de lenguaje de gran tamaño (LLM) de Granite para impulsar las aplicaciones empresariales. Además de los modelos de Granite que se ofrecen con Red Hat OpenShift AI, el marco admite modelos de HuggingFace, de Stability AI y de otros repositorios.

La plataforma es un elemento fundamental de IBM watsonx.ai, ya que proporciona las herramientas y los servicios esenciales para las cargas de trabajo de inteligencia artificial generativa. Watsonx ofrece un estudio empresarial para que los desarrolladores de inteligencia artificial puedan obtener aplicaciones de esta tecnología casi sin tener que escribir código, con flujos de trabajo fáciles de usar para el desarrollo de modelos y acceso a una biblioteca de modelos base de IBM y modelos open source seleccionados. Red Hat OpenShift y OpenShift AI son requisitos previos técnicos integrados para el software watsonx.

En la figura 1 se ve un cuadro de los elementos de Red Hat OpenShift AI

Figura 1. Elementos de Red Hat OpenShift AI

Las funciones y herramientas principales que proporciona Red Hat OpenShift AI tienen una base sólida:

  • Diseño y perfeccionamiento de modelos. Los analistas de datos pueden realizar análisis de exploración en la interfaz de usuario de JupyterLab, que ofrece imágenes de notebook listas para usarse con bibliotecas y paquetes comunes de Python, entre los que se incluyen TensorFlow, PyTorchy CUDA. Además, las empresas pueden proporcionar sus propias imágenes personalizadas de notebook, lo que les permite crear notebooks y colaborar en ellos mientras organizan las tareas en proyectos y entornos de trabajo.
  • Puesta a disposición de los modelos en la etapa de producción. Red Hat OpenShift AI ofrece varios marcos para el enrutamiento de la puesta a disposición de los modelos en la etapa de producción con el fin de simplificar la implementación del machine learning predictivo o los modelos base en los entornos de producción, independientemente de los requisitos de recursos informáticos. Para las cargas de trabajo de inteligencia artificial generativa, OpenShift AI proporciona inferencias de modelos impulsadas por vLLM, lo cual brinda el mejor rendimiento y eficiencia del sector en los LLM open source más populares. La solución también ofrece flexibilidad y control al permitir que los clientes incluyan y utilicen los tiempos de ejecución que prefieran.
  • Canales de análisis de datos. Red Hat OpenShift AI también incluye elementos de canales de análisis de datos que permiten organizar las tareas en canales y crearlos con un frontend gráfico. Las empresas pueden agrupar los procesos como la preparación de los datos, el diseño y la puesta a disposición de los modelos en la etapa de producción.
  • Control de los modelos. Red Hat OpenShift AI permite que los usuarios que se dedican a las operaciones puedan supervisarlas y observar los indicadores de rendimiento de los servidores de los modelos y los modelos implementados. Los analistas de datos pueden usar la virtualización lista para usar para los indicadores de rendimiento y de operaciones o integrar los datos con otros servicios de determinación del estado interno de los sistemas.
  • Cargas de trabajo distribuidas. Estas cargas permiten que los equipos agilicen el procesamiento de datos junto con el entrenamiento, el perfeccionamiento y la puesta a disposición en la etapa de producción de los modelos. Gracias a esta función, se pueden priorizar y distribuir los trabajos de ejecución, además de optimizar el uso de los nodos. El soporte avanzado para las GPU permite gestionar las exigencias de las cargas de trabajo de los modelos base.
  • Detección de sesgos y desajustes. Red Hat OpenShift AI ofrece herramientas para que los analistas de datos controlen si los modelos son justos e imparciales según los datos de entrenamiento y cuando se implementan en situaciones de la vida real. Las herramientas de detección de desajustes incluyen distribuciones de datos de entrada para los modelos de machine learning implementados. Esto permite identificar el momento en el que los datos activos que se usan para la inferencia se alejan considerablemente de aquellos con los que se entrenó el modelo.
  • AI Guardrails (versión de prueba). Esta función incluye detectores de entrada para proteger los tipos de interacción que puede solicitar el usuario y detectores de salida para revisar la seguridad de los resultados del modelo. Además, permite filtrar el lenguaje de odio, abusivo o vulgar, información de identificación personal y competitiva y otras limitaciones específicas del área. Ofrecemos un conjunto de detectores, y los clientes pueden agregar los suyos.
  • Evaluación de los modelos. Durante las etapas de análisis y desarrollo de los modelos, el elemento de evaluación proporciona información importante sobre la calidad del modelo. Permite que los analistas de datos evalúen el rendimiento de los LLM en varias tareas, como el razonamiento lógico o matemático, el lenguaje natural antagónico y muchos otros. Los indicadores que ofrecemos se basan en los estándares del sector.
  • Registro de modelos. Red Hat OpenShift AI ofrece un lugar central donde ver y gestionar los modelos registrados, lo que permite que los analistas de datos compartan, versionen, implementen y controlen los modelos de inteligencia artificial generativa, sus artefactos y los metadatos.

Además de las imágenes de notebook de Jupyter y el generador de Jupyter para implementar imágenes predefinidas o personalizadas de una empresa para los equipos de análisis de datos, OpenShift AI también incluye el plugin de Git para JupyterLab, que agiliza la integración con Git directamente desde la interfaz de usuario. Pandas, scikit-learn y NumPy son otros paquetes de análisis comunes que se proporcionan como parte del producto para simplificar las operaciones y facilitar la puesta en marcha del proyecto con las herramientas adecuadas. El servidor de RStudio (probado y verificado) y VS Code Server también se ofrecen como entornos de desarrollo integrados (IDE) alternativos de JupyterLab, por lo que los analistas de datos tienen más opciones. La interfaz de usuario permite que creen sus propios espacios de trabajo para organizar y compartir sus imágenes de notebooks y sus artefactos como proyectos. También pueden colaborar con otros usuarios.

Para los proyectos de inteligencia artificial generativa, OpenShift AI habilita el entrenamiento distribuido de InstructLab como una versión de prueba de la función. InstructLab es un elemento esencial de Red Hat Enterprise Linux AI. Proporciona herramientas de alineación de modelos para que las empresas perfeccionen de manera más eficiente los modelos de lenguaje más pequeños con sus datos privados, por más que el equipo no tenga experiencia en inteligencia artificial. Red Hat OpenShift AI respalda el perfeccionamiento eficiente de los LLM con las técnicas de adaptación de bajo rango (LoRA) y de adaptación de bajo rango cuantificada (QLoRA) para reducir la sobrecarga informática y el uso de memoria. También admite las integraciones para que sea más sencillo incorporar la información de un texto con las bases de datos vectoriales que se necesitan para la generación aumentada por recuperación (RAG).

Para poner distribuir los modelos de inteligencia artificial predictiva y generativa, es necesario implementar un enfoque flexible. Red Hat OpenShift AI admite varios marcos, y usted puede elegir los servidores de inferencia de modelo único o de varios modelos que se ofrecen o su propio servidor personalizado. La interfaz de usuario de la puesta a disposición de los modelos en la etapa de producción está directamente integrada en el panel de control de Red Hat OpenShift AI y en los espacios de trabajo de los proyectos. Se puede aumentar o reducir la capacidad de los recursos del clúster fundamental en función de lo que exija la carga de trabajo. Para los LLM que requieren la máxima capacidad de ajuste, Red Hat OpenShift AI ofrece una distribución paralela en varios nodos con tiempos de ejecución de vLLM, lo que permite gestionar varias solicitudes en tiempo real. 

Herramientas para el ciclo de vida completo de la IA

Red Hat OpenShift proporciona los servicios y los sistemas de software que permiten que las empresas entrenen e implementen sus modelos con éxito y los trasladen a la etapa de producción (Figura 2). Este proceso no solo se integra con OpenShift AI, sino también con Red Hat Application Foundations, que incluye Streams for Apache Kafka para la transmisión de datos y eventos en tiempo real, Red Hat 3scale para la gestión de las interfaces de programación de aplicaciones (API) y la compilación de Red Hat de Apache Camel para la integración de los datos.

Figura 2. Un ciclo de vida operativo típico del modelo

El panel de control de Red Hat OpenShift AI ofrece un espacio central para descubrir todas las aplicaciones y la documentación y acceder a ellas, lo cual facilita la adopción. Los tutoriales de Smart Start ofrecen orientación en torno a las prácticas recomendadas para los elementos comunes y los sistemas de software de partners integrados. Además, están disponibles directamente desde el panel, lo cual permite que los analistas de datos adquieran la información necesaria y pongan en marcha sus proyectos en menos tiempo. En las siguientes secciones, se describen las herramientas de los partners tecnológicos que se integran con Red Hat OpenShift AI. Algunas requieren una licencia adicional del partner. 

Starburst

Starburst agiliza el análisis al permitir que los equipos saquen el máximo provecho de los datos de manera sencilla y rápida para mejorar el funcionamiento de la empresa. Se distribuye como un producto autogestionado o un servicio totalmente gestionado y permite que todos puedan acceder a los datos, de manera que los consumidores posean información más completa. Starburst se basa en Trino (antes conocido como PrestoSQL), el motor principal de SQL de procesamiento paralelo masivo (MPP), que cuenta con tecnología de open source. Esta herramienta, cuyo diseño y operación están a cargo de los especialistas en Trino y los creadores de Presto, permite analizar los distintos conjuntos de datos donde sea que se encuentren, sin tener que trasladarlos.

Se integra a los servicios flexibles de almacenamiento en la nube y cloud computing que ofrece Red Hat OpenShift, lo que le permite consultar todos sus datos empresariales con mayor estabilidad, seguridad, eficiencia y rentabilidad. Estas son algunas de las ventajas que ofrece:

  • Automatización. Los operadores de Starburst y Red Hat OpenShift facilitan la configuración, el ajuste y la gestión automáticos de los clústeres.
  • Alta disponibilidad y facilidad para reducir los recursos. El equilibrador de carga de Red Hat OpenShift mantiene a ciertos servicios, como el coordinador de Trino, en permanente funcionamiento.
  • Capacidad de ajuste flexible. Red Hat OpenShift puede ajustar automáticamente el clúster de trabajo de Trino según la carga de la consulta.
Logotipo de Startburst Data

Las empresas necesitan soluciones para la gestión de los datos que ayuden a simplificar todos los procesos, desde las pruebas que se llevan a cabo en las computadoras portátiles hasta las implementaciones empresariales más importantes. HPE Machine Learning Data Management Software (antes conocido como Pachyderm) permite que los equipos de análisis de datos diseñen y ajusten los canales de machine learning basados en los datos y organizados en contenedores con el linaje de datos garantizado que proporciona el control de versiones. Esta herramienta, diseñada para solucionar los problemas reales del análisis de datos, proporciona la base que permite que los equipos automaticen y ajusten su ciclo de vida de machine learning y, al mismo tiempo, garanticen la capacidad de reproducción. Además de los casos prácticos que abarcan desde los datos sin estructurar hasta los almacenes; el procesamiento del lenguaje natural; la extracción, transformación y carga de videos e imágenes; los servicios financieros, y las ciencias biológicas, HPE Machine Learning Data Management Software ofrece:

  • automatización del control de versiones de datos que otorga a los equipos una opción de alto rendimiento para seguir los cambios;
  • canales organizados en contenedores y basados en los datos que agilizan el procesamiento y, al mismo tiempo, disminuyen los costos informáticos;
  • un linaje de datos inmutable que proporciona un registro fijo para todas las actividades y los recursos del ciclo de vida del machine learning;
  • una consola que ofrece una visualización intuitiva de los grafos acíclicos dirigidos (DAG) y asiste en las tareas de depuración y reproducción;
  • compatibilidad entre los notebooks de Jupyter y la extensión JupyterLab Mount para acceder a una interfaz interactiva con las diferentes versiones de los datos;
  • administración empresarial con herramientas sólidas para implementar y gestionar HPE Machine Learning Data Management Software según sea necesario en los distintos equipos dentro de la empresa.
Logotipo de HPE

Las plataformas de hardware y software de informática acelerada de NVIDIA agilizan la nueva era

A medida que las aplicaciones de inteligencia artificial/machine learning se vuelven más necesarias para alcanzar el éxito, las empresas precisan plataformas que puedan gestionar las cargas de trabajo complejas, optimizar el uso del hardware y ofrecer capacidad de ajuste. El procesamiento de datos flexible, el análisis de datos, el entrenamiento del machine learning y las inferencias son ejemplos de tareas que utilizan muchos recursos y que son adecuadas para la informática acelerada. El software de NVIDIA AI Enterprise optimiza la implementación de las soluciones de inteligencia artificial en la etapa de producción. NVIDIA NIM, que pertenece a NVIDIA AI Enterprise, es un conjunto de microservicios fáciles de usar que está diseñado para implementar de manera segura y confiable la inferencia de los modelos de inteligencia artificial de alto rendimiento. Mejora la gestión y el rendimiento de estos modelos dentro del entorno de Red Hat OpenShift, lo que permite que las aplicaciones de inteligencia artificial utilicen todo el potencial de la informática acelerada de NVIDIA y del software de NVIDIA AI Enterprise. La combinación de la informática acelerada de NVIDIA, NVIDIA AI Enterprise y Red Hat OpenShift AI permite una mejor asignación de recursos, una mayor eficiencia y una ejecución más rápida de las cargas de trabajo de inteligencia artificial.

NVIDIA

Kit de herramientas de Intel OpenVINO

La distribución de Intel del kit de herramientas OpenVINO agiliza el desarrollo y la implementación de las aplicaciones de inferencia de deep learning de alto rendimiento en las plataformas de Intel. El kit permite adoptar, optimizar y perfeccionar prácticamente cualquier modelo de red neuronal y ejecutar inferencias integrales de inteligencia artificial con el ecosistema de herramientas de desarrollo de OpenVINO.

  • Modelo. Los desarrolladores de software tienen la flexibilidad de usar sus propios modelos de deep learning. También pueden usar modelos entrenados y optimizados con anterioridad que están disponibles gracias a la colaboración de Intel con Hugging Face para el kit de herramientas de OpenVINO.
  • Optimización. El kit de herramientas de OpenVINO ofrece varias maneras de convertir modelos para mejorar la conveniencia y el rendimiento, lo que ayuda a los desarrolladores de software a ejecutar los modelos de inteligencia artificial de modo más rápido y eficiente. Pueden obviar la conversión del modelo y ejecutar la inferencia directamente desde los formatos de TensorFlow, TensorFlow Lite, ONNX o PaddlePaddle. La conversión al formato IR de OpenVINO ofrece máximo rendimiento al reducir el tiempo que demora la primera inferencia y ahorrar espacio de almacenamiento. El marco Neural Network Compression Framework ofrece mayores mejoras.
  • Implementación. El motor de inferencia de OpenVINO Runtime es una API que está diseñada para integrarse en las aplicaciones y agilizar el proceso de inferencia. Es un enfoque que se basa en escribir el código una vez e implementarlo en todas partes y permite ejecutar tares de inferencia de manera eficiente en varios sistemas de hardware de Intel, incluidas las unidades centrales de procesamiento (CPU), las GPU y los aceleradores.
Logotipo de Intel OpenVINO

Herramientas de IA de Intel®

Las herramientas de inteligencia artificial de Intel (antes conocidas como el kit de herramientas Intel AI Analytics) ofrecen recursos y marcos conocidos de Python a los analistas de datos, los desarrolladores de inteligencia artificial y los investigadores para agilizar los canales integrales de análisis en las arquitecturas de Intel. Los elementos utilizan bibliotecas de oneAPI de Intel para las optimizaciones informáticas de menor importancia. Este kit potencia el rendimiento del procesamiento previo a través del machine learning y ofrece interoperabilidad para un desarrollo de modelos eficiente.

Con las herramientas de inteligencia artificial de Intel puede:

  • ofrecer el entrenamiento de deep learning de alto rendimiento en las unidades XPU de Intel e integrar las inferencias rápidas a su flujo de trabajo de desarrollo de inteligencia artificial con los marcos de deep learning optimizados para Intel para TensorFlow y PyTorch, que incluyen modelos entrenados anteriormente y herramientas de baja precisión;
  • acelerar de manera instantánea el procesamiento previo de los datos y los flujos de trabajo de aprendizaje automático con los paquetes de Python que consumen muchos recursos informáticos, Modin, scikit-learn y XGBoost, los cuales están optimizados para Intel;
  • obtener acceso directo al análisis y las optimizaciones de la inteligencia artificial de Intel para garantizar que su sistema de software funcione en conjunto y sin interrupciones.
Logotipo de las herramientas de inteligencia artificial de Intel

Elastic

La plataforma Elastic Search AI Platform, que se basa en ELK Stack, combina la precisión de la búsqueda y con la inteligencia de la IA, lo que permite que los usuarios creen prototipos y realicen integraciones con los LLM más rápido, además de utilizar la inteligencia artificial generativa para diseñar aplicaciones flexibles y rentables. También ayuda a los usuarios a crear aplicaciones de RAG transformadoras, resolver con anticipación los problemas de determinación del estado interno de los sistemas y abordar las amenazas de seguridad complejas. Elasticsearch se puede implementar en donde sea que se encuentren las aplicaciones: en las instalaciones, en el proveedor de nube que elija o en entornos asilados.

Elastic se integra con los modelos del ecosistema, que incluyen Red Hat OpenShift AI, Hugging Face, Cohere, OpenAI y otros, a través de una sola llamada sencilla a la API. Este enfoque garantiza un código claro para gestionar la inferencia híbrida de las cargas de trabajo de RAG con funciones que incluyen:

  • fragmentación, conectores y rastreadores web para incorporar distintos conjuntos de datos en la capa de búsqueda;
  • búsqueda semántica con Elastic Learned Sparse EncodeR (ELSER), el modelo de machine learning integrado y el modelo de integración E5, lo que habilita la búsqueda vectorial en varios idiomas;
  • seguridad en el campo y los documentos con la implementación de permisos y derechos que se ajusten al control de acceso basado en funciones de la empresa.

Con Elastic Search AI Platform, usted forma parte de una comunidad internacional de desarrolladores en la que la inspiración y el respaldo siempre están a mano. Encuentre la comunidad de Elastic en Slack, nuestros foros de debate o nuestras redes sociales.

Logotipo de Elastic

Conclusión

Gracias a Red Hat OpenShift AI, las empresas pueden probar, colaborar y, finalmente, agilizar su proceso de adopción de aplicaciones que se basan en la inteligencia artificial. Los analistas de datos obtienen flexibilidad al usar esta herramienta como un complemento basado en la nube y gestionado por Red Hat o como una oferta de software autogestionada, lo que simplifica las tareas, independientemente de dónde creen los modelos. Las operaciones de TI se benefician de las funciones de MLOps, lo que permite que los modelos se implementen en producción con mayor rapidez. Las herramientas de autoservicio a las que pueden acceder los desarrolladores y los analistas de datos, que incluyen el acceso a las GPU, agilizan la generación de innovaciones en una plataforma de aplicaciones que la TI empresarial ya utiliza y en la que confía plenamente. A diferencia de los enfoques de la competencia, los analistas pueden elegir las herramientas con las que quieren trabajar, lo cual genera nueva información sin implementar limitaciones arbitrarias.

Etiquetas:IA/ML, Edge computing, Nube híbrida, Linux

Red Hat logoLinkedInYouTubeFacebookX

Productos y carteras

  • Red Hat AI
  • Red Hat Enterprise Linux
  • Red Hat OpenShift
  • Red Hat Ansible Automation Platform
  • Servicios de nube
  • Ver todos los productos

Herramientas

  • Training y Certificación
  • Mi cuenta
  • Soporte al cliente
  • Recursos para desarrolladores
  • Encontrar un partner
  • Red Hat Ecosystem Catalog
  • Documentación

Versiones de prueba, compras y ventas

  • Centro de versiones de prueba de productos
  • Red Hat Store
  • Comprar en línea (Japón)
  • Console

Canales de comunicación

  • Comunícate con la oficina de ventas
  • Comunícate con el servicio al cliente
  • Comunícate con Red Hat Training
  • Redes sociales

Acerca de Red Hat

Red Hat es líder en tecnología de nube híbrida abierta y ofrece una base uniforme y completa para las aplicaciones transformadoras de la TI y de la inteligencia artificial (IA) a nivel empresarial. Como asesor de confianza de las empresas de la lista Fortune 500, Red Hat ofrece tecnologías de plataforma de aplicaciones, automatización, Linux, nube y desarrollo, así como servicios galardonados.

  • Nuestra empresa
  • Nuestra forma de trabajar
  • Casos de éxito de clientes
  • Relaciones con analistas
  • Sala de prensa
  • Nuestro aporte al open source
  • Responsabilidad social
  • Oportunidades de empleo

Seleccionar idioma

  • 简体中文
  • English
  • Français
  • Deutsch
  • Italiano
  • 日本語
  • 한국어
  • Português
  • Español

Red Hat legal and privacy links

  • Acerca de Red Hat
  • Oportunidades de empleo
  • Eventos
  • Sedes
  • Póngase en contacto con Red Hat
  • Blog de Red Hat
  • Inclusión en Red Hat
  • Cool Stuff Store
  • Red Hat Summit
© 2025 Red Hat

Red Hat legal and privacy links

  • Declaración de privacidad
  • Condiciones de uso
  • Todas las políticas y directrices
  • Accesibilidad digital