Feed abonnieren

Die KI-Landschaft entwickelt sich mit rasanter Geschwindigkeit weiter. Wie bei jedem Technologiesprung stellt sich die Frage: Welcher Weg gestaltet die Zukunft am besten? Red Hat ist davon überzeugt, dass die Antwort eindeutig ist.

Die Zukunft der KI ist Open Source

Das ist nicht nur eine philosophische Haltung. Bei diesem Ansatz geht es darum, die wahren Vorteile der KI auszuschöpfen und sie zu einem Produkt zu verwandeln, das zugänglicher, demokratischer und leistungsfähiger ist.

Wir haben schon immer an die Leistungsfähigkeit der Open Source-Entwicklung bei der Förderung von Innovationen geglaubt. Dies wurde durch die Entwicklung von Linux, KVM, OpenStack, Kubernetes und vielen anderen Projekten realisiert, die die technische Landschaft von heute mitgestaltet haben. Durch Zusammenarbeit, Transparenz und communitybasierte Innovationen beschleunigen Open Source-Entwicklungsmodelle die Entwicklung, fördern das Experimentieren und demokratisieren den Zugriff auf erstklassige Tools und Technologien. Dies führt zu beschleunigtem Fortschritt, mehr Innovation und dynamischen IT-Ökosystemen.

Mit KI verhält es sich nicht anders.

Bei einer KI, bei der Vertrauen, Sicherheit und Erklärbarkeit von größter Bedeutung sind, sollte jeder – nicht nur diejenigen mit dem größten Budget oder den größten Ressourcen – die Möglichkeit haben, sich daran zu beteiligen. Red Hat engagiert sich für Open Source-Innovationen in KI und ebnet den Weg für die Zukunft dieser Technologie, die auf einer Basis aus communityorientierter Entwicklung, gemeinsamem Fortschritt und Wahlmöglichkeiten aufbaut.

Wir investieren viel in Open Source-Projekte und KI-Technologien, arbeiten mit Partnern aus der gesamten Branche zusammen und entwickeln Lösungen, die es Unternehmen ermöglichen, KI-Workloads flexibel und ortsunabhängig bereitzustellen. Heute haben wir die Unterzeichnung einer endgültigen Vereinbarung zur Übernahme von Neural Magic angekündigt. Ich glaube, dass wir mit diesem wichtigen Meilenstein unseren Fortschritt beschleunigen und unsere Vision für die Zukunft der KI verwirklichen können.

Wir bei Red Hat glauben, dass die Zukunft der KI offen ist und von mehreren wichtigen Säulen abhängt:

Kleine Modelle erleichtern die Einführung

Bei KI geht es nicht nur um riesige, ressourcenintensive Modelle. Wir erleben derzeit einen Wandel hin zu kleineren, spezialisierteren Modellen, die außergewöhnliche Performance und mehr Effizienz bieten. Diese Modelle sind nicht nur effizienter beim Training und Deployment, sondern bieten auch erhebliche Vorteile in Bezug auf kundenspezifische Anpassung und Anpassbarkeit.

Ein Beispiel hierfür ist IBM Granite 3.0, die dritte Generation der LLMs der Granite-Familie, die kleinere, funktionsfähige KI-Modelle in den Vordergrund stellt. Diese Modelle werden unter der freizügigen Apache 2.0-Lizenz veröffentlicht und haben eine Größe von 1B bis 8B Parametern. Dadurch können sie standortunabhängig ausgeführt werden, vom Laptop bis hin zu standardmäßigen GPU-Servern. Genau wie bei Linux führt diese einfache Zugänglichkeit zu Innovation und Akzeptanz im Unternehmen.

Neben einer kleineren Ausgangsgröße ist die Optimierung von KI-Modellen durch Sparsifizierung und Quantisierung ein weiterer Kraftmultiplikator, mit dem wir immer mehr Bedarf mit derselben Hardware bedienen können. Sparsification entfernt strategisch unnötige Verbindungen innerhalb eines Modells und reduziert dadurch dessen Größe und Rechenanforderungen drastisch, ohne dabei Genauigkeit oder Performance zu beeinträchtigen. Durch die Quantisierung wird die Modellgröße dann weiter reduziert, sodass sie auf Plattformen mit reduzierten Speicheranforderungen ausgeführt werden kann. All dies führt zu niedrigeren Kosten, schnelleren Inferenzen und der Möglichkeit, KI-Workloads auf mehr Hardware auszuführen. Ein ähnlicher Fokus auf Linux hat dafür gesorgt, dass es auf praktisch fast jeder Infrastruktur der Welt ausgeführt werden kann – von Uhren bis hin zu Supercomputern. Mit der Übernahme von Neural Magic können wir das gleiche Augenmerk auf den KI-Bereich legen.

Training schafft Geschäftsvorteile

So leistungsstark diese kleinen KI-Modelle auch sind, werden sie dennoch anhand öffentlich zugänglicher Daten trainiert. Sie verfügen über hervorragende Sprachkenntnisse, verstehen das Geschäft und kennen die meisten Themen im Internet. Aber per Definition verstehen sie Ihr Unternehmen nicht. Wenn Ihre Geschäftsprozesse und Ihr geistiges Eigentum nicht Public Domain sind, werden sie nicht verstanden. Und trotzdem müssen Sie Ihre Geschäftsprozesse optimieren, nicht das allgemeine Konzept eines solchen. Um Ihr Geschäftspotenzial wirklich zu entfalten, müssen Sie Ihr Wissen in diese Modelle einbringen. Und dafür braucht es Training.

Red Hat unterstützt dieses Ziel mit dem Open Source-Projekt InstructLab, das es Nutzern erleichtert, Beiträge zu und die Feinabstimmung von LLMs für Anwendungen der Gen-KI zu leisten, selbst wenn sie nicht über Kenntnisse in Data Science verfügen. InstructLab wurde von Red Hat und IBM ins Leben gerufen und ist Teil von Red Hat AI. Es basiert auf einem Prozess, der in einem Forschungsbericht beschrieben wurde, der im April 2024 von Mitgliedern des MIT-IBM Watson AI Lab und IBM veröffentlicht wurde. Dies verringert die Komplexität beim Trainieren eines KI-Modells für Ihre Anforderungen, was einige der teuersten Aspekte von Unternehmens-KI mindert, und LLMs für bestimmte Zwecke leichter anpassbar macht.

Auswahl fördert Innovation

Die Workloads der meisten Unternehmen umfassen sowohl Rechenzentren als auch Cloud-Infrastruktur. KI sollte sich nahtlos in die vorhandene Infrastruktur integrieren lassen, um ein flexibles und konsistentes Deployment in verschiedenen Umgebungen zu ermöglichen, sei es On-Premise, in der Cloud oder am Edge. Sie müssen dort trainieren können, wo Sie Ihre Daten und Ressourcen haben. Und Sie müssen Ihre Modelle dort ausführen, wo es für Ihren Use Case sinnvoll ist. Ähnlich wie bei Red Hat Enterprise Linux (RHEL), bei dem kompilierte Anwendungen auf vielen CPUs ausgeführt werden können, ohne die Anwendung zu ändern, möchten wir sicherstellen, dass mit RHEL AI trainierte Modelle auf beliebigen GPU-Servern ausgeführt werden können. Diese Kombination aus flexibler Hardware, kleinen Modellen, vereinfachtem Training und Optimierung bietet die Flexibilität, die erforderlich ist, um Innovationen zu fördern.

Wir glauben auch, dass KI-Training und -Bereitstellung in großem Umfang dieselbe Disziplin erfordern werden, die wir in den letzten zehn Jahren in der Softwarebranche entwickelt haben. Red Hat OpenShift AI vereint die Bereiche Modellanpassung, Inferenz, Monitoring und Lifecycle-Funktionen mit den Anwendungen, die sie in Red Hat OpenShift nutzen. Neural Magic teilt die gleiche Fokus für den Einsatz von KI auf hybriden Plattformen und ist führend in Open Source Communities, die Innovationen in diesem Bereich fördern.

Erweiterung der Mission von Neural Magic

Neural Magic basiert auf der Überzeugung, dass KI in vielen verschiedenen Umgebungen ausgeführt werden können sollte – von kleinsten Geräten bis hin zu großen Rechenzentren. Die Entstehungsgeschichte des Unternehmens weist Parallelen zu den kleinen, aber leistungsstarken Teams bei Red Hat auf, die Innovationen im Bereich KI entwickeln, darunter auch unser InstructLab-Team. Ich denke, es lohnt sich, sie hier vorzustellen.

Nir Shakit, ein renommierter Professor am MIT mit Schwerpunkt auf Parallel Computing, beschäftigte sich seit Jahrzehnten mit den Feinheiten von Algorithmen und Hardware. Seine Arbeit hatte bereits Bereiche wie gleichzeitige Datenstrukturen und transaktionale Speicher revolutioniert. Alex Matveev, ein ehemaliger Forscher am MIT, verfügte über Fachwissen im Bereich maschinelles Lernen und ein gutes Verständnis für die Herausforderungen, die beim effizienten Einsatz von KI-Modellen auftreten.

Der Startschuss für Neural Magic fiel, als Nir und Alex ein entscheidendes Hindernis bei der Weiterentwicklung von KI erkannten: die Abhängigkeit von teuren und oft seltenen GPUs. Diese Abhängigkeit stellte eine Eintrittsschwelle dar, die die weit verbreitete Einführung von KI in verschiedenen Branchen behindert und ihr Potenzial, unsere Arbeits- und Lebensweisen zu revolutionieren, einschränkt.

Sie haben es sich zur Aufgabe gemacht, alle Menschen unabhängig von ihren Ressourcen in die Lage zu versetzen, die Vorteile der KI zu nutzen. Ihr bahnbrechender Ansatz nutzte Techniken wie Pruning und Quantisierung, um die Modelle für maschinelles Lernen zu optimieren, indem ML-Modelle ohne Leistungseinbußen effizient auf verfügbaren CPUs ausgeführt werden können. Letztendlich verlagerte Neural Magic seine Vision auf die GPU-Beschleunigung und integrierte die gleiche Optimierung und Effizienz in die generative KI durch vLLM. Dieses Engagement für Innovation versprach, KI zugänglicher, erschwinglicher und einfacher zu machen. Ich freue mich über die Möglichkeit, diese Funktionen unseren Kunden in Red Hat AI zur Verfügung zu stellen. Aber ich freue mich ebenso, dass unsere Teams eine Kultur des Experimentierens und Erfindens teilen, die darauf basiert, die gegenwärtigen Beschränkungen zu durchbrechen, die den Fortschritt und die Einführung von KI behindern.

In unserem Büro in Boston arbeiten beispielsweise engagierte Mitarbeiter und Forscher – zufällig vom MIT – an InstructLab, um den Engpass beim Training und bei der weit verbreiteten Einführung von KI zu beheben. Die Technologie von Neural Magic demokratisiert den Zugang zu KI. InstructLab möchte dasselbe für das Trainieren und Tunen von Modellen tun. Ich bin gespannt darauf, zu welchen weiteren Durchbrüchen dieses Team gemeinsam gelangen kann.

Ich freue mich sehr, dass Neural Magic sich Red Hat anschließen und unsere Mission beschleunigen kann, gemeinsam mit der Open Source Community die Zukunft der KI zu gestalten. Wir bei Red Hat wissen, dass Open Source weltweit Potenziale freisetzt. Unsere Mission mit Neural Magic wird es sein, diese Entwicklung mithilfe von KI zu beschleunigen. Ich bin davon überzeugt, dass wir mithilfe der Open Source Community die weltweit besten Ergebnisse erzielen werden.

Wir stehen erst am Anfang.


Über den Autor

Matt Hicks was named President and Chief Executive Officer of Red Hat in July 2022. In his previous role, he was Executive Vice President of Products and Technologies where he was responsible for product engineering for much of the company’s portfolio, including Red Hat® OpenShift® and Red Hat Enterprise Linux®. He is one of the founding members of the OpenShift team and has been at the forefront of cloud computing ever since.

Prior to joining Red Hat 16 years ago, Hicks served in various roles spanning computer engineering, IT, and consulting. He has worked with Linux and open source for more than 25 years, and his breadth of experience has helped him solve customer and business problems across all areas of IT.

Read full bio
UI_Icon-Red_Hat-Close-A-Black-RGB

Nach Thema durchsuchen

automation icon

Automatisierung

Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen

AI icon

Künstliche Intelligenz

Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen

open hybrid cloud icon

Open Hybrid Cloud

Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.

security icon

Sicherheit

Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren

edge icon

Edge Computing

Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen

Infrastructure icon

Infrastruktur

Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen

application development icon

Anwendungen

Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen

Virtualization icon

Virtualisierung

Erfahren Sie das Neueste über die Virtualisierung von Workloads in Cloud- oder On-Premise-Umgebungen