RSS-Feed abonnieren

In den letzten Gesprächen mit Red Hat Kunden, bei denen es immer wieder um KI geht, habe ich oft dasselbe Mantra wiederholt: „Klein, aber fein“. 

Lassen Sie es mich erklären. In Sachen KI kann es sicher nicht schaden, groß zu denken. Die Technologie verspricht enorme Chancen. Kunden haben zu Recht kühne, ehrgeizige Pläne, um diese Chancen zu nutzen. 

Tatsächlich sind es Möglichkeiten wie diese, die Aramco, eines der weltweit größten Energie- und Chemieunternehmen, derzeit mit Red Hat erkundet. Im Rahmen einer Absichtserklärung prüfen wir gemeinsam, wie KI-Initiativen das Training und die Kompetenzentwicklung für lokale Talente übernehmen können. Hinzu kommen weitere Möglichkeiten, wie etwa, wie KI die Performance und Ressourcennutzung von Infrastruktur-Tools steigern könnte, oder neue Strategien zur Verbesserung der Cybersicherheitsmaßnahmen von containerisierten Anwendungen.

Gleichzeitig sehe ich viele Unternehmen, die mit KI schnelle Erfolge erzielen, indem sie ihren Fokus einschränken und in kleineren Dimensionen denken. Was sie gemeinsam haben, ist ihre Konzentration auf ganz bestimmte Herausforderungen am Arbeitsplatz, die sie mithilfe von kleinen Sprachmodellen (Small Language Models, SLMs) bewältigen. 

Im Kontext KI ist der Begriff „klein“ relativ. Während ein Large Language Model (LLM) Hunderte von Milliarden (oder sogar Billionen) von Parametern aufweisen kann, kann ein SLM immer noch zwischen einigen Millionen und einigen Milliarden Parametern liegen. Mit anderen Worten: Es ist gar nicht so klein. Aus diesem Grund neige ich dazu, ein SLM als fokussiertes Sprachmodell oder FLM zu betrachten, wenn ich einen neuen Begriff prägen darf. 

Aufgrund ihrer Größe lassen sich SLMs durch Feinabstimmungen leichter anpassen, wobei sie auf einem begrenzten Datensatz basieren, der sich auf branchen- oder sogar unternehmensspezifisches Know-how bezieht. Durch diesen Ansatz können die Beschäftigten intelligenter Unternehmen ein geschäftliches Problem schneller lösen. Außerdem gewinnen sie einen besseren Einblick, wie KI auf andere Engpässe bei Geschäftsprozessen angewendet werden kann, mit denen sie und ihre Kollegen möglicherweise konfrontiert sind.

Wie auch immer Sie sie nennen, SLMs können in spezifischen, fokussierten Domains hervorragende Leistungen erbringen. So könnte beispielsweise ein Finanzdienstleister eine mit regulatorischen Daten trainiertes SLM verwenden, um nicht konforme Transaktionen zu erkennen. Ein Gesundheitsdienstleister könnte einen SLM-basierten Chatbot verwenden, der mit medizinischen Datensätzen trainiert wurde, um fachspezifisches Wissen gezielt in Antworten auf Patientenfragen zu ihren Erkrankungen zu integrieren. 

Dies ist ein unglaublich effizienter Ansatz, weil ein SLM nicht mit Daten trainiert werden muss, die nicht direkt für den Use Case relevant sind, für den er entwickelt wurde. Es muss sich nicht mit überflüssigen Informationen befassen. Und von einem SLM wird nicht erwartet, dass er weitreichende Abfragen zu einer Vielzahl von Themen interpretiert und beantwortet. 

Dies ist die Aufgabe des LLMs, und sie ist für die schwindelerregende Komplexität und die hohen Ressourcenanforderungen verantwortlich. Im Gegensatz dazu geht das Training und die Feinabstimmung eines SLM schneller, die Hardware-Anforderungen sind viel geringer und die Wahrscheinlichkeit, fehlerhafte oder irrelevante Antworten zurückzugeben, ist deutlich geringer.

KI kann die Kompetenzlücke schließen

In 2025 scheint es mir, dass SLMs bei der Bewältigung vieler geschäftlicher Probleme, mit denen wir konfrontiert sind, eine wichtige Rolle spielen werden. Ein Beispiel, das mir sofort in den Sinn kommt, ist die anhaltende Fachkräftemangel, der sich weiter verschärft, wenn für ältere Mitglieder der schnell alternden europäischen Erwerbsbevölkerung das Rentenalter näher rückt. 

Ein SLM eignet sich womöglich sehr gut für die Übernahme einiger Aufgaben, die von langjährigen, sachkundigen Mitarbeitenden übernommen werden. Dazu zählen beispielsweise das Parsen rechtlicher oder regulatorischer Dokumente oder das Analysieren von Kunden-Feedback im Hinblick auf wiederkehrende Beschwerden zu einem bestimmten Produkt oder Service. Wo es um technische Fähigkeiten geht, können SLMs eingesetzt werden, um Daten zu analysieren, die von Sensoren und intelligenten Geräten in Maschinen und Anlagen gesammelt wurden, um den Wartungsbedarf vorherzusagen. 

Kurz gesagt, könnten SLMs eine gute Möglichkeit für Unternehmen sein, im Jahr 2025 wichtige Fortschritte auf effiziente, zugängliche und hochgradig anpassbare Weise zu machen – und das mit dem Potenzial, schneller ROI zu erzielen. 

Durch den Einsatz von Open Source-Technologien können Unternehmen dieses IT-Erlebnis weiter optimieren, indem sie Technologien einsetzen, die gemeinsam im Open Source-Bereich entwickelt wurden. Das bedeutet, dass sie nicht bei jedem KI-Projekt von vorn anfangen müssen, sondern von den Erkenntnissen und Herausforderungen profitieren können, die andere Teams mit SLMs gemacht haben. 

Darüber hinaus haben Unternehmen die Flexibilität, ihre eigenen, speziell entwickelten, hoch optimierten SLMs zu entwickeln, die auf den für ihr Unternehmen spezifischen Daten und Kenntnissen basiert und ihre Business Use Cases genau nach ihren Wünschen unterstützt. 


Über den Autor

Hans Roth is senior vice president and general manager for Europe, Middle East, and Africa (EMEA) at Red Hat where is he focused on developing and executing the company’s business strategy across EMEA including commercial, enterprise and channel sales, professional service, telecommunications, media and entertainment, consulting and training services, marketing, legal and people team functions. 
 
Roth has held previous EMEA and global leadership roles at Red Hat. He led the company’s EMEA services business between 2016-2019, before being promoted to senior vice president and general manager of Red Hat’s global services and technical enablement division where he was responsible for a global organization of more than 2,000 professionals across consulting and training services, as well as technical and business partner enablement. 
 
Prior to joining Red Hat he was vice president of the service delivery unit for Hewlett-Packard Enterprise for central Europe, and for 20+ years held leadership roles in business process management, IT strategy, system integration and strategic outsourcing.
Read full bio
UI_Icon-Red_Hat-Close-A-Black-RGB

Nach Thema durchsuchen

automation icon

Automatisierung

Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen

AI icon

Künstliche Intelligenz

Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen

open hybrid cloud icon

Open Hybrid Cloud

Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.

security icon

Sicherheit

Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren

edge icon

Edge Computing

Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen

Infrastructure icon

Infrastruktur

Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen

application development icon

Anwendungen

Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen

Virtualization icon

Virtualisierung

Erfahren Sie das Neueste über die Virtualisierung von Workloads in Cloud- oder On-Premise-Umgebungen