In den letzten Gesprächen mit Red Hat Kunden, bei denen es immer wieder um KI geht, habe ich oft dasselbe Mantra wiederholt: „Klein, aber fein“.
Lassen Sie es mich erklären. In Sachen KI kann es sicher nicht schaden, groß zu denken. Die Technologie verspricht enorme Chancen. Kunden haben zu Recht kühne, ehrgeizige Pläne, um diese Chancen zu nutzen.
Tatsächlich sind es Möglichkeiten wie diese, die Aramco, eines der weltweit größten Energie- und Chemieunternehmen, derzeit mit Red Hat erkundet. Im Rahmen einer Absichtserklärung prüfen wir gemeinsam, wie KI-Initiativen das Training und die Kompetenzentwicklung für lokale Talente übernehmen können. Hinzu kommen weitere Möglichkeiten, wie etwa, wie KI die Performance und Ressourcennutzung von Infrastruktur-Tools steigern könnte, oder neue Strategien zur Verbesserung der Cybersicherheitsmaßnahmen von containerisierten Anwendungen.
Gleichzeitig sehe ich viele Unternehmen, die mit KI schnelle Erfolge erzielen, indem sie ihren Fokus einschränken und in kleineren Dimensionen denken. Was sie gemeinsam haben, ist ihre Konzentration auf ganz bestimmte Herausforderungen am Arbeitsplatz, die sie mithilfe von kleinen Sprachmodellen (Small Language Models, SLMs) bewältigen.
Im Kontext KI ist der Begriff „klein“ relativ. Während ein Large Language Model (LLM) Hunderte von Milliarden (oder sogar Billionen) von Parametern aufweisen kann, kann ein SLM immer noch zwischen einigen Millionen und einigen Milliarden Parametern liegen. Mit anderen Worten: Es ist gar nicht so klein. Aus diesem Grund neige ich dazu, ein SLM als fokussiertes Sprachmodell oder FLM zu betrachten, wenn ich einen neuen Begriff prägen darf.
Aufgrund ihrer Größe lassen sich SLMs durch Feinabstimmungen leichter anpassen, wobei sie auf einem begrenzten Datensatz basieren, der sich auf branchen- oder sogar unternehmensspezifisches Know-how bezieht. Durch diesen Ansatz können die Beschäftigten intelligenter Unternehmen ein geschäftliches Problem schneller lösen. Außerdem gewinnen sie einen besseren Einblick, wie KI auf andere Engpässe bei Geschäftsprozessen angewendet werden kann, mit denen sie und ihre Kollegen möglicherweise konfrontiert sind.
Wie auch immer Sie sie nennen, SLMs können in spezifischen, fokussierten Domains hervorragende Leistungen erbringen. So könnte beispielsweise ein Finanzdienstleister eine mit regulatorischen Daten trainiertes SLM verwenden, um nicht konforme Transaktionen zu erkennen. Ein Gesundheitsdienstleister könnte einen SLM-basierten Chatbot verwenden, der mit medizinischen Datensätzen trainiert wurde, um fachspezifisches Wissen gezielt in Antworten auf Patientenfragen zu ihren Erkrankungen zu integrieren.
Dies ist ein unglaublich effizienter Ansatz, weil ein SLM nicht mit Daten trainiert werden muss, die nicht direkt für den Use Case relevant sind, für den er entwickelt wurde. Es muss sich nicht mit überflüssigen Informationen befassen. Und von einem SLM wird nicht erwartet, dass er weitreichende Abfragen zu einer Vielzahl von Themen interpretiert und beantwortet.
Dies ist die Aufgabe des LLMs, und sie ist für die schwindelerregende Komplexität und die hohen Ressourcenanforderungen verantwortlich. Im Gegensatz dazu geht das Training und die Feinabstimmung eines SLM schneller, die Hardware-Anforderungen sind viel geringer und die Wahrscheinlichkeit, fehlerhafte oder irrelevante Antworten zurückzugeben, ist deutlich geringer.
KI kann die Kompetenzlücke schließen
In 2025 scheint es mir, dass SLMs bei der Bewältigung vieler geschäftlicher Probleme, mit denen wir konfrontiert sind, eine wichtige Rolle spielen werden. Ein Beispiel, das mir sofort in den Sinn kommt, ist die anhaltende Fachkräftemangel, der sich weiter verschärft, wenn für ältere Mitglieder der schnell alternden europäischen Erwerbsbevölkerung das Rentenalter näher rückt.
Ein SLM eignet sich womöglich sehr gut für die Übernahme einiger Aufgaben, die von langjährigen, sachkundigen Mitarbeitenden übernommen werden. Dazu zählen beispielsweise das Parsen rechtlicher oder regulatorischer Dokumente oder das Analysieren von Kunden-Feedback im Hinblick auf wiederkehrende Beschwerden zu einem bestimmten Produkt oder Service. Wo es um technische Fähigkeiten geht, können SLMs eingesetzt werden, um Daten zu analysieren, die von Sensoren und intelligenten Geräten in Maschinen und Anlagen gesammelt wurden, um den Wartungsbedarf vorherzusagen.
Kurz gesagt, könnten SLMs eine gute Möglichkeit für Unternehmen sein, im Jahr 2025 wichtige Fortschritte auf effiziente, zugängliche und hochgradig anpassbare Weise zu machen – und das mit dem Potenzial, schneller ROI zu erzielen.
Durch den Einsatz von Open Source-Technologien können Unternehmen dieses IT-Erlebnis weiter optimieren, indem sie Technologien einsetzen, die gemeinsam im Open Source-Bereich entwickelt wurden. Das bedeutet, dass sie nicht bei jedem KI-Projekt von vorn anfangen müssen, sondern von den Erkenntnissen und Herausforderungen profitieren können, die andere Teams mit SLMs gemacht haben.
Darüber hinaus haben Unternehmen die Flexibilität, ihre eigenen, speziell entwickelten, hoch optimierten SLMs zu entwickeln, die auf den für ihr Unternehmen spezifischen Daten und Kenntnissen basiert und ihre Business Use Cases genau nach ihren Wünschen unterstützt.
Über den Autor
Nach Thema durchsuchen
Automatisierung
Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen
Künstliche Intelligenz
Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen
Open Hybrid Cloud
Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.
Sicherheit
Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren
Edge Computing
Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen
Infrastruktur
Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen
Anwendungen
Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen
Virtualisierung
Erfahren Sie das Neueste über die Virtualisierung von Workloads in Cloud- oder On-Premise-Umgebungen