Red Hat stärkt mit Red Hat AI Enterprise-KI über die hybride Cloud hinweg

Mit den Erweiterungen für Red Hat OpenShift AI und Red Hat Enterprise Linux AI können Unternehmen ihre KI-Strategien vorantreiben

Zürich, 26. März 2025 – Red Hat, der weltweit führende Anbieter von Open-Source-Lösungen, stellt die neuesten Updates für Red Hat AI vor. Red Hat AI ist ein Portfolio von Produkten und Dienstleistungen, das Unternehmen dabei hilft, KI-Lösungen in Hybrid-Cloud-Umgebungen schneller zu entwickeln und bereitzustellen. Red Hat AI bietet eine Enterprise-KI-Plattform für Modelltraining und -inferenz, die eine höhere Effizienz, eine vereinfachte Nutzererfahrung und die Flexibilität bietet, überall in einer Hybrid-Cloud-Umgebung eingesetzt zu werden.

Unternehmen suchen weiterhin nach Möglichkeiten, die Kosten für den Einsatz von grossen Sprachmodellen (LLMs) in grossem Massstab zu senken, um eine steigende Anzahl von Anwendungsfällen abzudecken. Allerdings stehen sie ebenso vor der Herausforderung, diese Modelle mit ihren proprietären Daten zu verwenden, die diese Anwendungsfälle antreiben. Gleichzeitig müssen sie sicherstellen, dass die KI-Modelle auf diese Daten überhaupt erst zugreifen können – und zwar egal wo sie sich befinden, sei es in einem Rechenzentrum, in Public-Clouds oder am Edge.

Red Hat AI, das sowohl Red Hat OpenShift AI als auch Red Hat Enterprise Linux AI (RHEL AI) beinhaltet, adressiert diese Herausforderungen. Red Hat stellt mit seinem Lösungsportfolio unter anderem eine Enterprise-KI-Plattform bereit, die es den Nutzern ermöglicht, effizientere und optimierte KI-Modelle zu verwenden, die auf geschäftsspezifische Daten abgestimmt sind und dann über die Hybrid Cloud sowohl für das Training als auch die Inferenz auf einer Vielzahl von beschleunigten Rechenarchitekturen bereitgestellt werden können.

Red Hat OpenShift AI

Red Hat OpenShift AI bietet eine vollständige KI-Plattform zur Verwaltung des Lebenszyklus von prädiktiven und generativen KI-Modellen in der Hybrid Cloud. Die Lösung umfasst Funktionen für Machine Learning Operations (MLOps) und den Betrieb von Large Language Models (LLMOps). Sie ermöglicht überdies den Aufbau prädiktiver Modelle und das Finetuning von generativen KI-Modellen. Auch Tools zur vereinfachten Verwaltung von KI-Modellen sind Teil der Plattform, von der Datenwissenschaft und Modell-Pipelines bis hin zum Monitoring von Modellen und deren Governance.

Die neueste Version, Red Hat OpenShift AI 2.18, bringt Updates und neue Funktionen, die das Ziel von Red Hat AI unterstützen, optimierte und effizientere KI-Modelle in die Hybrid Cloud zu bringen. Zu den Hauptfunktionen gehören:

  • Distributed Serving: Über den vLLM-Inferenz-Server ermöglicht Distributed Serving IT-Teams, das Modell-Serving auf mehrere Grafikprozessoren (GPUs) zu verteilen. Dies verringert die Last auf einzelnen Servern, beschleunigt das Training sowie das Finetuning und nutzt Rechenressourcen effizienter. Distributed Serving hilft zudem, Dienste für KI-Modelle auf mehrere Knoten zu verteilen.
  • End-to-End Model Tuning: Mit InstructLab und OpenShift AI Data Science Pipelines vereinfacht diese neue Funktion das Finetuning von LLMs. Sie macht Large Language Models in grossen Produktivumgebungen skalierbarer, effizienter und besser auditierbar. Darüber hinaus ist eine benutzerfreundliche Verwaltung über das Red Hat OpenShift AI Dashboard möglich.
  • AI Guardrails: Red Hat OpenShift AI 2.18 verbessert die Genauigkeit, Leistung, Latenz und Transparenz von LLMs durch eine Technologieüberprüfung der AI Guardrails. Diese Funktion überwacht Nutzerinteraktionen und Modellausgaben und schützt vor potenziell schädlicher, missbräuchlicher oder obszöner Sprache. Auch die Herausgabe persönlicher Daten und wettbewerbsrelevanter Informationen, die durch Unternehmensrichtlinien eingeschränkt sind, verhindert die Funktion effektiv.
  • Modellbewertung: Mit der Komponente lm-eval (Language Model Evaluation) können Data Scientists die Leistung ihrer LLMs in verschiedenen Aufgaben messen, von logischem und mathematischem Denken bis hin zu widersprüchlicher natürlicher Sprache. Dies hilft bei der Entwicklung effektiverer, reaktionsschnellerer und massgeschneiderter KI-Modelle.

RHEL AI

Auch RHEL AI (Red Hat Enterprise Linux AI) ist Teil von Red Hat AI. Dabei handelt es sich um eine Plattform für Foundation Models, die eine konsistente Entwicklung, Testing und den Betrieb von LLMs zur Unterstützung von Unternehmensanwendungen ermöglicht. RHEL AI stellt Nutzern Granite LLMs und InstructLab-Modelle zur Verfügung, die als bootfähiges Red Hat Enterprise Linux Server Image verpackt sind und über die Hybrid Cloud bereitgestellt werden können.

Mit der Veröffentlichung von RHEL AI 1.4 im Februar 2025 wurden mehrere Verbesserungen eingeführt, darunter:

  • Die Unterstützung für Granite 3.1 8B, das neueste Mitglied der Open-Source-lizenzierten Granite-Modellfamilie. Das Modell bietet mehrsprachige Unterstützung für Inferenz und Taxonomie/Knowledge-Anpassung (aktuell als Developer Preview) sowie ein 128k-Kontextfenster für verbesserte Resultate bei Zusammenfassungen und Aufgaben aus dem Bereich RAG (Retrieval-Augmented Generation).
  • Eine neue grafische Benutzeroberfläche für Skill- und Knowledge-Beiträge (verfügbar als Developer Preview). Das neue Interface vereinfacht die Datenaufnahme und -unterteilung sowie den Prozess, um neue Skills und Beiträge zu einem KI-Modell hinzuzufügen.
  • Document Knowledge-bench (DK-bench) zur einfacheren Vergleichbarkeit von KI-Modellen, die mit relevanten, privaten Daten finegetunt wurden, ohne Leistungseinbussen gegenüber den Basismodellen.

Red Hat AI InstructLab auf der IBM Cloud

Unternehmen suchen ausserdem zunehmend nach KI-Lösungen, die Genauigkeit und Datensicherheit priorisieren, gleichzeitig aber Kosten und Komplexität minimieren. Red Hat AI InstructLab, als Service auf IBM Cloud bereitgestellt, wurde entwickelt, um das Training und die Bereitstellung von KI-Modellen zu vereinfachen, zu skalieren und die Sicherheitsaspekte zu verbessern. Durch die Vereinfachung des InstructLab-Modell-Tunings können Organisationen effizientere Modelle erstellen, die auf ihre einzigartigen Bedürfnisse zugeschnitten sind, und dabei die Kontrolle über ihre Daten behalten.

AI Foundations: Kostenfreies Training für Kunden von Red Hat

KI stellt eine transformative Chance dar und definiert die Art und Weise neu, wie Unternehmen arbeiten und konkurrieren. Um Organisationen in diesem dynamischen Umfeld zu unterstützen, bietet Red Hat den Nutzern seiner Produkte kostenfreie Online-Trainingskurse zu AI Foundations an. Red Hat stellt zwei KI-Zertifizierungsprogramme zur Verfügung, die sowohl für erfahrene Führungskräfte als auch für KI-Neulinge geeignet sind. Die Webinare helfen Nutzern aller Erfahrungsstufen, zu verstehen, wie KI Geschäftsprozesse unterstützt, die Entscheidungsfindung vereinfacht und Innovation vorantreibt. Teilnehmerinnen und Teilnehmer lernen zudem, wie sie dieses Wissen beim Einsatz von KI-Lösungen von Red Hat anwenden können.

Verfügbarkeit

Red Hat OpenShift AI 2.18 und Red Hat Enterprise Linux AI 1.4 sind ab sofort weltweit verfügbar. Weitere Informationen zu neuen Funktionen, Verbesserungen, Bugfixes und ein Update-Plan sind auf der Webseite von Red Hat verfügbar. Die neueste Version von RHEL AI steht ebenfalls zum Download bereit. Das AI Foundations Training von Red Hat ist für Nutzerinnen und Nutzer ebenfalls ab sofort buchbar. Red Hat AI InstructLab on IBM Cloud wird in Kürze verfügbar sein.

Zitate

Joe Fernandes, Vice President und General Manager, AI Business Unit, Red Hat
«Red Hat weiss, dass Unternehmen Wege finden müssen, die steigenden Kosten für ihre GenAI-Deployments zu managen, während sie mehr Anwendungsfälle in die Produktion bringen und in grossem Massstab betreiben. Sie müssen darüber hinaus die Herausforderung meistern, KI-Modelle mit privaten Unternehmensdaten zusammenzuführen und diese Modelle überall dort bereitzustellen, wo eben jene gespeichert sind. Red Hat AI hilft Unternehmen, diese Herausforderungen zu bewältigen, indem es ihnen ermöglicht, effizientere, massgeschneiderte Modelle zu nutzen, die auf ihren Daten trainiert wurden, und flexible Inferenz über On-Premises-, Cloud- und Edge-Umgebungen hinweg zu ermöglichen.»

Régis Lesbarreres, Advanced Analytics and AI Innovation Manager, Digital Innovation, Airbus Helicopters
«Zu Beginn unserer KI-Journey wollten wir bei Airbus Helicopters Künstliche Intelligenz in unsere bestehende Architektur integrieren, Schatten-IT reduzieren, unsere Data Scientists auf einer einzigen KI-Plattform vereinen und die Kosten im grossen Massstab optimieren. Mit Red Hat OpenShift AI konnten wir all diese Ziele erreichen, was zu unserem ersten geschäftlichen Anwendungsfall für KI führte. Die Vision von Red Hat für KI stimmt mit unseren Unternehmenszielen überein und ermöglicht es uns, diese zu erreichen, während wir Flexibilität, Zugänglichkeit und Transparenz bewahren.»

Javier Olaizola Casin, Global Managing Partner, Hybrid Cloud and Data, IBM Consulting
«Unternehmen setzen zunehmend Künstliche Intelligenz ein, um zentrale Geschäftsprozesse zu transformieren. Um ihre individuellen Anforderungen erfüllen zu können, benötigen sie KI-Lösungen, die flexibel, kosteneffektiv und auf vertrauenswürdige Unternehmensdaten abgestimmt sind, um ihre einzigartigen Anforderungen zu erfüllen. Red Hat AI bietet die Konsistenz, Zuverlässigkeit und Geschwindigkeit, die Organisationen benötigen, um KI-Modelle und -Anwendungen in hybriden Cloud-Szenarien zu entwickeln und bereitzustellen. Durch die Kombination der Fach-, Technologie- und Branchenerfahrung von IBM Consulting mit den KI-Technologien von Red Hat unterstützen wir unsere Kunden dabei, ihren ROI aus ihren Technologien zu maximieren.»

Torsten Volks, Principal Analyst, Application Modernization, ESG
«Führende Unternehmen nutzen heute KI-basierte, datenzentrierte Entscheidungsfindung über Teams und Geschäftsbereiche hinweg. Daher wird die Fähigkeit, KI-basierte Lösungen schnell und kostengünstig zu entwickeln, bereitzustellen, zu integrieren, zu skalieren und zu steuern, zu einem entscheidenden Erfolgsfaktor. Diese Fähigkeit aufzubauen, erfordert eine offenes und erweiterbares KI-Fundament, das eine nahtlose Integration mit bestehenden Systemen und Prozessen, betriebliche Agilität und kontinuierliche Governance gewährleistet. Es ist entscheidend, den Mitarbeitenden und Kunden zu ermöglichen, schneller und umfassender von KI-Funktionen zu profitieren, um den langfristigen Geschäftserfolg sicherzustellen.»

Anand Swamy, Executive Vice President and Global Head of Ecosystems, HCLTech
«Um das volle Potenzial von generativer KI auszuschöpfen, müssen Unternehmen agile und flexible Infrastrukturen priorisieren. Durch die Kombination von Red Hat AI, inklusive RHEL AI und Red Hat OpenShift AI, für das Bereitstellen einer umfassenden KI-Anwendungsplattform mit der führenden KI-Expertise sowie den kognitiven Infrastruktur-Dienstleistungen von HCLTech, die Teil der HCLTech AI Foundry-Lösung sind, können Kunden ihre KI-Innovation vorantreiben. So überwinden sie gängige Herausforderungen wie die Wahrung der Datensicherheit, das Skalieren von KI-Arbeitslasten und die Minimierung von Infrastrukturkosten.»

Zusätzliche Materialien

Weitere Informationen zu Red Hat

Über Red Hat, Inc.

Red Hat, der weltweit führende Anbieter von Enterprise-Open-Source-Lösungen, folgt einem von der Community getriebenen Ansatz, um zuverlässige und leistungsstarke Linux-, Hybrid-Cloud-, Container- und Kubernetes-Technologien bereitzustellen. Red Hat unterstützt Kunden bei der Integration neuer und bestehender IT-Anwendungen, der Entwicklung Cloud-nativer Applikationen, der Standardisierung auf unserem branchenführenden Betriebssystem sowie der Automatisierung, Sicherung und Verwaltung komplexer Umgebungen. Preisgekrönte Support-, Trainings- und Consultingleistungen machen Red Hat zu einem vertrauenswürdigen Berater für Fortune-500-Unternehmen. Als strategischer Partner von Cloud-Providern, Systemintegratoren, Applikationsanbietern, Kunden und Open-Source-Communities kann Red Hat Unternehmen bei der Vorbereitung auf die digitale Zukunft unterstützen. Weitere Informationen: https://www.redhat.com/de.

Forward-Looking Statements

Except for the historical information and discussions contained herein, statements contained in this press release may constitute forward-looking statements within the meaning of the Private Securities Litigation Reform Act of 1995. Forward-looking statements are based on the company’s current assumptions regarding future business and financial performance. These statements involve a number of risks, uncertainties and other factors that could cause actual results to differ materially. Any forward-looking statement in this press release speaks only as of the date on which it is made. Except as required by law, the company assumes no obligation to update or revise any forward-looking statements.

###

Red Hat, Red Hat Enterprise Linux, the Red Hat logo, JBoss, Ansible, Ceph, CloudForms, Gluster and OpenShift are trademarks or registered trademarks of Red Hat, Inc. or its subsidiaries in the U.S. and other countries. Linux® is the registered trademark of Linus Torvalds in the U.S. and other countries. The OpenStack Word Mark is either a registered trademark/service mark or trademark/service mark of the OpenStack Foundation, in the United States and other countries, and is used with the OpenStack Foundation’s permission. Red Hat is not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.

Pressekontakt:

Sylvana Zimmermann
Jenni Kommunikation AG
Phone +41 44 388 60 80
Email sylvana.zimmermann@jeko.com
www.jeko.com

Nach oben scrollen