ローカルLLMでAI使い放題!NVIDIA DGX Spark × Azure ハイブリッド構成

ローカルLLMでAI使い放題!NVIDIA DGX Spark × Azure ハイブリッド構成 (2026/02/13 14:00〜)
# HCCJP 第70回勉強会 ## 開催情報 * 日時: 2026年2月13日(金)14:00-15:30 * 形式: オンライン(YouTube Live) * テーマ: ローカルLLMでクラウドアプリもAI使い放題!NVIDIA DGX Spark × Azure ハイブリッド構成 ## 概要 ...

HCCJP 第70回勉強会

開催情報

  • 日時: 2026年2月13日(金)14:00-15:30
  • 形式: オンライン(YouTube Live)
  • テーマ: ローカルLLMでクラウドアプリもAI使い放題!NVIDIA DGX Spark × Azure ハイブリッド構成

概要

毎月第2金曜日14時からはHCCJPの勉強会!

2月は「ローカルLLM × クラウドのハイブリッド構成」をテーマにお届けします!

クラウドLLMのAPI課金が気になる…そんな悩みを解決!NVIDIA DGX Sparkをオンプレミスに設置してローカルLLMを動かせば、AI使い放題の環境が手に入ります。さらにAzure上のアプリケーションからシームレスに利用できるハイブリッド構成を、実践事例を交えてご紹介します。

ポイントはLiteLLM!Ollamaはv0.13.3以降でResponses API(/v1/responses)に対応していますが、stateful(previous_response_id / conversation)には未対応です。必要に応じてLiteLLMを挟むことで、OpenAI互換APIの統合(例:セッション継続やルーティング)を行い、Agent SDK/フレームワーク側の実装をシンプルにできます。

本セッションでは、Ollama、LiteLLMといったオープンソースツールを活用した統合的なLLM基盤の構築方法を学べます!

セッション内容

1. ローカルLLMでクラウドアプリもAI使い放題!NVIDIA DGX Spark × Azure ハイブリッド構成

NVIDIA DGX Sparkは128GB統合メモリを搭載したデスクトップサイズのAIスーパーコンピューター。これをオンプレミスに設置すれば、大規模LLMを使い放題で運用できます。Ollama + LiteLLMで統合的なLLM基盤を構築し、VPN経由でAzure上のアプリケーションから利用する「真のハイブリッドクラウド」構成を実践事例を交えてご紹介します。

  • NVIDIA DGX Sparkとは?128GB統合メモリの威力
  • Ollama / LiteLLM によるローカルLLM環境の構築
  • Azure × オンプレミスLLM ハイブリッド構成の実装

2. Microsoft “Adaptive Cloud” 最新動向

Microsoft高添さんからは毎月恒例のMicrosoft “Adaptive Cloud” の最新動向をお伝えいただきます!Azure Local、Azure Arc、Windows Server関連の最新情報をお見逃しなく!

スピーカー

  • 胡田 昌彦 – 日本ビジネスシステムズ株式会社、Microsoft MVP for Cloud and Datacenter Management, Microsoft Azure
  • 高添 修 氏 – 日本マイクロソフト株式会社

タイムテーブル

時刻時間セッションスピーカー
14:005分オープニング胡田 昌彦
14:0545分ローカルLLMでAI使い放題!NVIDIA DGX Spark × Azure胡田 昌彦
14:5010分Q&A全員
15:0020分Microsoft “Adaptive Cloud” Updates高添 修 氏
15:205分Q&A全員
15:255分クロージング胡田 昌彦
## 視聴方法

主催

ハイブリッドクラウド研究会(HCCJP)

主幹事: 日本ビジネスシステムズ株式会社

幹事(50音順): – NTTコミュニケーションズ株式会社 – 日商エレクトロニクス株式会社 – 日本ヒューレット・パッカード株式会社 – 日本マイクロソフト株式会社 – VistaNet株式会社 – 株式会社ネットワールド – 三井情報株式会社 – レノボ・エンタープライズ・ソリューションズ株式会社

コメント

タイトルとURLをコピーしました