-
Produkte & Dokumentation Red Hat AI
Eine Plattform für Produkte und Services zum Entwickeln und Bereitstellen von KI in der Hybrid Cloud
Red Hat AI Inference Server
Optimieren Sie die Modellperformance mit vLLM für schnelle und kosteneffiziente Inferenz in großem Umfang.
Red Hat Enterprise Linux AI
Entwickeln, testen und nutzen Sie generative KI-Modelle zur Unterstützung von Unternehmensanwendungen.
Red Hat OpenShift AI
Entwickeln und implementieren Sie KI-gestützte Anwendungen und Modelle in großem Umfang in hybriden Umgebungen.
-
Lernen Grundlagen
-
KI-Partner

Red Hat AI
KI für Ihre Welt entwickeln
Nutzen Sie Ihre eigenen Ressourcen und Insights, um Mehrwert durch KI zu schaffen – mit der Freiheit und Flexibilität, die Ihr Unternehmen braucht.
Red Hat® AI unterstützt Sie beim Entwickeln und Ausführen von KI-Lösungen, die sich Ihren geschäftlichen Anforderungen und Abläufen anpassen – von den ersten Experimenten bis in die Produktivumgebung.



Flexible KI für Unternehmen
Konsistenz in der Hybrid Cloud erfordert eine Plattform, mit der Sie dort bereitstellen können, wo sich Ihre Daten befinden.
Mit Red Hat AI erhalten Sie die Kontrolle über generative und prädiktive KI-Funktionen – in der Cloud, On-Premise und am Edge.
Red Hat AI hält Sie flexibel und ermöglicht gleichzeitig die Bereitstellung schneller und skalierbarer Inferenzen mit dem Modell und Beschleuniger Ihrer Wahl.
Red Hat AI umfasst:
Red Hat® AI Inference Server optimiert Modellinferenz in der Hybrid Cloud und ermöglicht schnellere, kostengünstige Modellbereitstellungen.
Auf der Basis von vLLM bietet er Zugang zu validierten und optimierten Modellen von Drittanbietern auf Hugging Face. Außerdem sind LLM Kompressor-Tools enthalten.
Red Hat Enterprise Linux® AI ist eine Plattform für Inferenz und Training von LLMs (Large Language Models) zur Unterstützung von Unternehmensanwendungen.
Sie beinhaltet InstructLab-Tools für die Anpassung von Modellen sowie integrierte Hardwarebeschleuniger.
+ enthält Red Hat AI Inference Server
Red Hat OpenShift® AI basiert auf den Funktionen von Red Hat OpenShift und bietet eine Plattform für das Lifecycle-Management generativer und prädiktiver KI-Modelle in großem Umfang.
Mit integrierten MLOps- und LLMOps-Funktionen bietet sie ein vollständiges Lifecycle-Management mit verteiltem Training, Tuning, Inferenz und Überwachung von KI-Anwendungen in Hybrid Cloud-Umgebungen.
+ enthält Red Hat AI Inference Server
+ enthält Red Hat Enterprise Linux AI



Validierte Performance für reale Ergebnisse
Red Hat AI bietet Zugang zu einer Reihe betriebsbereiter, validierter Modelle von Drittanbietern, die effizient mit vLLM auf unserer Plattform ausgeführt werden.
Nutzen Sie validierte Drittanbietermodelle von Red Hat, um die Modell-Performance zu testen und die Inferenz zu optimieren. Außerdem erhalten Sie Anleitungen, um die Komplexität zu reduzieren und die Einführung von KI zu beschleunigen.
Lokale Anpassung von LLMs mit InstructLab
Red Hat InstructLab ist ein communitybasiertes Projekt, das Entwicklungsteams das Experimentieren mit den Granite-Modellen von IBM erleichtert, selbst wenn sie nur über wenig Erfahrung mit Machine Learning verfügen.
Es ist ein idealer Ausgangspunkt, wenn Sie mit dem KI-Modell Ihrer Wahl experimentieren oder Basismodelle auf Ihrer lokalen Hardware per Fine Tuning anpassen möchten.
So werden die Kosten- und Ressourcenbarrieren für das Experimentieren mit KI-Modellen beseitigt, bevor Sie für den Einsatz von KI in Ihrem Unternehmen bereit sind.
Mehr KI-Partner – mehr Zukunftsmöglichkeiten
Die Zusammenführung von Fachleuten und Technologien sorgt dafür, dass unsere Kunden mit KI mehr erreichen können. Viele verschiedene Technologiepartner arbeiten mit Red Hat zusammen, um ihre Kompatibilität mit unseren Lösungen zu zertifizieren.
Lösungs-Pattern
KI-Anwendungen mit Red Hat und NVIDIA AI Enterprise
Entwickeln einer RAG-Anwendung
Red Hat OpenShift AI ist eine Plattform für das Entwickeln von Data Science-Projekten und Bereitstellen von KI-gestützten Anwendungen. Sie können sämtliche für die Unterstützung von Retrieval-Augmented Generation (RAG), einer Methode zum Abrufen von KI-Antworten aus Ihren eigenen Referenzdokumenten, erforderlichen Tools integrieren. Wenn Sie OpenShift AI mit NVIDIA AI Enterprise kombinieren, können Sie mit Large Language Models (LLMs) experimentieren und so das optimale Modell für Ihre Anwendung finden.
Erstellen einer Pipeline für Dokumente
Damit Sie RAG nutzen können, müssen Sie Ihre Dokumente zunächst in eine Vektordatenbank aufnehmen. In unserer Beispielanwendung integrieren wir eine Anzahl von Produktdokumenten in eine Redis-Datenbank. Da sich diese Dokumente häufig ändern, können wir für diesen Prozess eine Pipeline erstellen, die wir regelmäßig ausführen, damit wir immer die aktuellsten Versionen der Dokumente zur Verfügung haben
Durchsuchen des LLM-Katalogs
Mit NVIDIA AI Enterprise können Sie auf einen Katalog verschiedener LLMs zugreifen. So können Sie verschiedene Möglichkeiten ausprobieren und das Modell auswählen, das die optimalen Ergebnisse erzielt. Die Modelle werden im NVIDIA API-Katalog gehostet. Sobald Sie ein API-Token eingerichtet haben, können Sie ein Modell mit der NVIDIA NIM Model Serving-Plattform direkt über OpenShift AI bereitstellen.
Auswählen des richtigen Modells
Beim Testen verschiedener LLMs können Ihre Nutzerinnen und Nutzer die einzelnen generierten Antworten bewerten. Sie können ein Grafana Monitoring Dashboard einrichten, um die Bewertungen sowie die Latenz- und Antwortzeiten der einzelnen Modelle zu vergleichen. Anhand dieser Daten können Sie dann das optimale LLM für den Produktionseinsatz auswählen.
Red Hat AI in der Praxis
Ortec Finance beschleunigt Wachstum und verkürzt Markteinführungszeiten
Ortec Finance, ein globaler Anbieter von Technologien und Lösungen für das Risiko- und Renditemanagement, stellt ML-Modelle auf Microsoft Azure Red Hat OpenShift bereit und führt Red Hat AI ein.
Denizbank unterstützt ihre Data Scientists
DenizBank entwickelt KI-Modelle, um Kredite für Kunden und gleichzeitig möglichen Betrug zu identifizieren. Mit Red Hat AI erreichten die Data Scientists der Bank eine neue Stufe der Autonomie in Bezug auf die unternehmenseigenen Daten.
Entwicklung auf einer zuverlässigen Basis
Weltweit vertrauen Unternehmen auf unser umfassendes Portfolio an Lösungen für die Hybrid Cloud-Infrastruktur, Anwendungsservices, cloudnative Anwendungsentwicklung und Automatisierung für die schnelle und kosteneffiziente Bereitstellung von IT-Services auf verschiedenen Infrastrukturen.
Red Hat Enterprise Linux
Support für Anwendungsbereitstellungen – ob On-Premise, in der Cloud oder am Edge – in einer flexiblen Betriebsumgebung
Red Hat OpenShift
Schnelle Entwicklung und Bereitstellung von Anwendungen in großem Umfang und Modernisierung bereits vorhandener Anwendungen
Red Hat Ansible
Automation Platform
Automation Platform
Entwicklung, Verwaltung und dynamische Skalierung von Automatisierung in Ihrem gesamten Unternehmen
Red Hat AI
Tuning kleiner Modelle mit unternehmensrelevanten Daten sowie Entwicklung und Bereitstellung von KI-Lösungen in Hybrid Cloud-Umgebungen

