El desarrollo y la evaluación de nuevas tecnologías de inteligencia artificial son muy importantes para el éxito a largo plazo, pero no lo son todo. En Red Hat, también dedicamos tiempo a crear patrones reutilizables y a perfeccionar los modos de uso de los modelos de inteligencia artificial. De esta manera, tanto nosotros como nuestros clientes podemos adoptar esta tecnología con confianza.
También nos aseguramos de no olvidarnos del aspecto práctico de la inteligencia artificial. Por ejemplo, ¿cómo vamos a dar acceso privado a los modelos de inteligencia artificial a todo el mundo y, a la vez, reducir los costos? ¿Cómo podemos sacarle el máximo provecho a la "próxima gran innovación" y llevarla a gran escala?
Una respuesta clave: los modelos como servicio (MaaS).
No todos queremos ser especialistas en inteligencia artificial y, francamente, ninguna empresa necesita que todos diseñemos nuestros propios modelos. Por ahora, el objetivo debe ser que la mayor cantidad posible de personas utilice la inteligencia artificial de la que ya disponemos. Aquí es donde entra en juego el enfoque MaaS.
Ahora sí, hablemos sobre MaaS. Nuestros usuarios tienden a clasificarse en dos grupos:
- Aficionados de la inteligencia artificial: los creadores, desarrolladores, exploradores y especialistas apasionados por la inteligencia artificial.
- Todos los demás: aquellas personas que solo quieren utilizar la inteligencia artificial sin profundizar en la tecnología.
MaaS es un enfoque para proporcionar modelos de inteligencia artificial como recursos utilizables (en forma de extremos de API) a tu empresa. Es tu equipo de TI, o los ingenieros de tu plataforma de inteligencia artificial, quienes ponen los modelos a disposición en la etapa de producción a través de una puerta de enlace de API para permitirles a los desarrolladores y, de forma indirecta, a todos los usuarios, usar la inteligencia artificial en sus tareas diarias.
Piénsalo de este modo: los gigantes de la inteligencia artificial no te dan acceso a su hardware, sino a sus aplicaciones o a los extremos de la API. Proporcionan MaaS. La única diferencia es que, en este caso, en lugar de alquilar sus servicios, tú utilizas tus propios modelos como servicio para mantener el control de los costos, el acceso y la velocidad de innovación.
Suena maravilloso, ¿no?
¡Así es! Llevamos implementando MaaS de forma interna en Red Hat durante un año. Estas son nuestras observaciones:
Más innovación con menos costos
Cada vez que aparece un nuevo modelo, cientos de representantes de Red Hat quieren implementarlo de inmediato. MaaS nos permite implementarlo una sola vez y conservar nuestro presupuesto. Se acabaron los días en los que teníamos que destinar más de 10, 20 o 50 GPU porque más de 10, 20 o 50 personas querían probar un nuevo modelo.
Todos salimos ganando. Nuestros desarrolladores pueden probar nuevos modelos y centrarse en el diseño de nuevas herramientas sin tener que gastar mucho dinero.
Innovación rápida
Podemos probar cualquier nuevo modelo que llegue al mercado con nuestros propios tiempos. ¿Recuerdas cuando DeepSeek revolucionó el mercado de la inteligencia artificial? Tuvimos DeepSeek R1 en funcionamiento y disponible para todas las personas poco después de su lanzamiento. Lo mismo ocurrió con Granite, Llama 4 y Phi, entre otros.
Privacidad y seguridad
Los datos confidenciales requieren un control total y cuidadoso. Con MaaS, tú eres tu propio proveedor privado de inteligencia artificial capaz de proteger atentamente tus recursos digitales. No es obligatorio utilizar extremos de API públicos. De hecho, muchos de nuestros clientes utilizan sus propios modelos en centros de datos completamente aislados.
Uso empresarial
La puerta de enlace de API que posibilita el MaaS te brinda la capacidad de ajuste necesaria para llegar a todo el personal, la flexibilidad necesaria para seguir el ritmo de la innovación y las herramientas mejoradas de seguridad y observabilidad necesarias para implementar modelos de inteligencia artificial de forma eficaz a tu manera.
Menos costos, otra vez
MaaS reduce los costos al utilizar directamente un modelo de recursos compartidos. Notarás que se necesitan menos GPU para lograr el mismo resultado y que mejorarán los indicadores de uso de GPU. A medida que los modelos mejoran y se vuelven más pequeños, sacarás aún más provecho de este entorno. Incluso podrías usar herramientas de compresión de modelos de lenguaje de gran tamaño (LLM) open source para equilibrar el rendimiento y el tamaño de los modelos según tus propias necesidades. En resumen, MaaS te ayuda a optimizar el entorno y los modelos para sacar el máximo provecho.
MaaS consiste en sentar las bases sólidas y prepararse para el futuro. Tomemos como ejemplo los agentes de inteligencia artificial. Como no son aplicaciones simples de pregunta y respuesta de única vez, seguirán buscando una respuesta, si lo permites. ¿Qué significa esto? Tokens.Muchos tokens. Si buscas capacidad de ajuste y poder proyectar tus costos de manera más precisa, deberías utilizar el enfoque MaaS en tu propia infraestructura.
La inteligencia artificial llegó para quedarse, así que es momento de abordar los costos, la velocidad de la innovación y la privacidad. El modelo como servicio es una solución prometedora por la que apuesta Red Hat. Si estas también son tus prioridades, considera implementar este enfoque.
Consulta esta demostración interactiva en la que Parasol, una aseguradora ficticia, utiliza tres aplicaciones de inteligencia artificial con MaaS. Además, los aficionados a esta tecnología pueden consultar el repositorio de GitHub de MaaS. Por último, si vas a asistir a Red Hat Summit este año, asegúrate de inscribirte en las sesiones How to become the hero of your artificial intelligence story y LLM-as-a-Service for enterprise: Building a customer large language model platform para obtener más información.
resource
Introducción a la inteligencia artificial para las empresas: Guía para principiantes
Sobre el autor
Karl Eklund is a Principal Architect aligning customer goals to solutions provided by the open source community and commercial vendors within the Red Hat OpenShift Data Science platform. Prior to joining Red Hat, Karl advised technology leaders on enterprise data and technology strategies and built machine learning models across multiple academic disciplines.
Más similar
Navegar por canal
Automatización
Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos
Inteligencia artificial
Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar
Nube híbrida abierta
Vea como construimos un futuro flexible con la nube híbrida
Seguridad
Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías
Edge computing
Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge
Infraestructura
Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo
Aplicaciones
Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones
Virtualización
El futuro de la virtualización empresarial para tus cargas de trabajo locales o en la nube