
Red Hat AI
ニーズに合わせて AI を構築
既存のリソースやインサイトを活用し、必要な自由度で AI の価値を実現しましょう。
Red Hat® AI は、最初の実験から実稼働に至るまで、自社のビジネスに沿った AI ソリューションの構築と実行を可能にします。



企業環境に適した柔軟な AI
ハイブリッドクラウド全体で一貫性を保つには、データが存在する場所にデプロイ可能なプラットフォームが必要です。
Red Hat AI を導入すると、クラウド、オンプレミス、エッジのどこででも、生成 AI と予測 AI の両機能を制御できます。
Red Hat AI により、任意のモデルとアクセラレーターを使用して、柔軟性を維持しながら高速でスケーラブルな推論を実現できます。
Red Hat AI のコンポーネント
Red Hat® AI Inference Server は、ハイブリッドクラウド全体でモデル推論を最適化し、より迅速でコスト効率の高いモデルのデプロイメントを可能にします。
vLLM を搭載しており、Hugging Face に登録されているサードパーティ製の検証済みモデルと最適化済みモデルにアクセスできます。また、LLM コンプレッサーツールも含まれています。
Red Hat Enterprise Linux® AI は、エンタープライズ・アプリケーションを強化する大規模言語モデルの推論と学習のためのプラットフォームです。
モデルをカスタマイズするための InstructLab ツールのほか、統合されたハードウェア・アクセラレーターが含まれています。
+ Red Hat AI Inference Server を含む
Red Hat OpenShift® AI は、Red Hat OpenShift の機能を基盤として、生成 AI モデルと予測 AI モデルのライフサイクルを大規模に管理するためのプラットフォームを提供します。
MLOps 機能と LLMOps 機能が統合されており、ハイブリッドクラウド環境全体における AI アプリケーションの分散トレーニング、チューニング、推論、モニタリングを含む包括的なライフサイクル管理を実現します。
+ Red Hat AI Inference Server を含む
+ Red Hat Enterprise Linux AI を含む



実際に効果が得られるよう検証されたパフォーマンス
Red Hat AI は、このプラットフォームの vLLM で効率的に動作することがすでに検証されている、すぐに使えるサードパーティモデルへのアクセスを提供しています。
Red Hat の検証済みサードパーティモデルを使用して、モデルのパフォーマンスをテストし、推論を最適化し、複雑さを軽減して AI 導入を加速するためのガイダンスを得ることができます。
InstructLab を活用して、LLM をローカルでカスタマイズ
Red Hat の InstructLab は、開発者がもっと簡単に IBM の Granite モデルを試せるようにする、コミュニティ主導型プロジェクトです。機械学習の経験がほとんどない方でもご利用いただけます。
希望する AI モデルを試験したり、基盤モデルをローカルハードウェアに合わせてファインチューニングしたりするのに最適な場です。
InstructLab を利用することで、AI モデルの試験にかかるコストやリソースといった、企業が AI を導入する際の障壁が解消されます。
さまざまな AI パートナーとの連携による、さまざまな AI 活用機会
エキスパートとテクノロジーが組み合わさることで、AI 活用の幅が広がります。さまざまなテクノロジーパートナーが Red Hat と連携し、Red Hat ソリューションの運用能力に関する認定を受けています。
ソリューションパターン
Red Hat と NVIDIA AI Enterprise による AI アプリケーション
RAG アプリケーションを作成する
Red Hat OpenShift AI は、データサイエンス・プロジェクトを構築し、AI 対応アプリケーションを提供するためのプラットフォームです。独自の参照ドキュメントから AI の回答を取得する手法の 1 つである 検索拡張生成 (RAG) をサポートするために必要なすべてのツールを統合できます。OpenShift AI を NVIDIA AI Enterprise に接続すると、 大規模言語モデル (LLM) を試して、アプリケーションに最適なモデルを見つけることができます。
ドキュメントのパイプラインを構築する
RAG を利用するには、まずドキュメントをベクトルデータベースに取り込む必要があります。サンプルアプリでは、一連の製品ドキュメントを Redis データベースに埋め込んでいます。これらのドキュメントは頻繁に変更されるため、定期的に実行するこのプロセス用のパイプラインを作成すると、常に最新バージョンのドキュメントを入手できます。
LLM カタログを閲覧する
NVIDIA AI Enterprise ではさまざまな LLM のカタログにアクセスできるため、さまざまな選択肢を試して、最良の結果が得られるモデルを選択できます。モデルは NVIDIA API カタログでホストされています。API トークンを設定したら、OpenShift AI から直接 NVIDIA NIM モデル提供プラットフォームを使用してモデルをデプロイできます。
適切なモデルを選択する
さまざまな LLM をテストする際、ユーザーは生成される応答をそれぞれ評価することができます。Grafana モニタリング・ダッシュボードを設定して、各モデルの評価だけでなく、レイテンシーと応答時間も比較できます。そしてそのデータを使用して、プロダクションで使用する最適な LLM を選択できます。
Red Hat AI の導入事例
Ortec Finance、成長を加速させ、市場投入時間を短縮
リスクおよびリターン管理のためのテクノロジーとソリューションを世界中で提供する Ortec Finance は、Microsoft Azure Red Hat OpenShift に基づく ML モデルを提供しており、Red Hat AI を導入しています。
DenizBank、データサイエンティストを支援
DenizBank は、顧客向けローンや、詐欺の可能性の特定に役立つ AI モデルを開発しており、同行のデータサイエンティストは、Red Hat AI によって、自社データを操作するうえでの自律性を高めています。
信頼できる基盤の上で構築する
Red Hat の広範なポートフォリオは、ハイブリッドクラウド・インフラストラクチャ、アプリケーションサービス、クラウドネイティブ・アプリケーション開発、自動化ソリューションからなり、あらゆるインフラストラクチャで IT サービスを迅速かつコスト効率よく提供することができるという点で、世界中の企業に信頼されています。

