検索結果: 308件
『製品』の検索結果
-
TMN-SDS-Rシリーズ
製品スペック TMN-SDS-Rシリーズ物理容量*最大 3.87PB (物理)ラック(総数)最大 18U (拡張筐体最大4台)ソフトウェアRed Hat Enterprise保守サポート平日翌営業日センドバック保守3年間(標準サポート)コントローラ筐体Supermicro 2Uコントローラ (1台)プロセッサIntel Xeon Silver~Gold (ソケット数x2)物理メモリ64GB ~512GBネットワーク1Gbps, 10Gbps, 25Gbps, 40Gbps (選択可能)ブートドライブM.2 SSD , OS ブート専用 (x2)内蔵ドライブ2.5インチ 24スロットド
-
NVIDIA製品の導入実績豊富なトゥモロー・ネットのご紹介動画
-
Supermicro GPUサーバー製品
ro GPUサーバー製品とは? VDI環境の基盤やAI・ディープラーニング開発など高い演算能力が必要なワークロードに。 SupermicroのパワフルなGPUシステムは、高度な計算能力を必要とするAI、研究開発、科学技術計算、3D Rendering、CADやSimulation用のeVDI基盤用途にご活用いただいています。ラックマウント型、およびタワー型のフォームファクターで用意しており、HPC、AI/Deep Learning、オイル&ガスシミュレーション、金融工学、科学技術、メディア/エンターテイメント向けに最適化されています。 こんな課題を解決 01 高性能GP
-
NVIDIA L4
。 製品の特長と利点 01 リアルタイムAIビデオパイプラインのパフォーマンスを体感 NVIDIA L4がビデオアプリケーションを革新します。L4搭載サーバーは、720p30の解像度で最大1040の同時AV1ビデオストリームをサポートし、数百万人の視聴者へのライブ配信、クリエイティブなストーリーの作成、そして没入感のあるAR/VR体験をモバイルユーザーに提供します¹。第4世代Tensorコアと1.5倍のGPUメモリを搭載したNVIDIA L4 GPUとCV-CUDA™ライブラリの組み合わせは、ビデオコンテンツの理解を次のレベルに引き上げます。L4は、エンドツー
-
NVIDIA L40
。 製品の特長と利点 01 第4世代 Tensorコア 構造的スパース性と最適化されたTF32形式のハードウェアサポートにより、即座にパフォーマンスが向上し、AIやデータサイエンスモデルのトレーニング速度が加速します。また、DLSSを含むAI強化グラフィックス機能を活用することで、特定のアプリケーションにおいて、より高いパフォーマンスで解像度を向上させます。 02 第3世代 RTコア 強化されたスループットと同時レイトレーシングおよびシェーディング機能により、レイトレーシングのパフォーマンスが向上し、製品設計や建築、エンジニアリング、建設のワーク
-
NVIDIA L40S
A 製品の特長と利点 01 第4世代 Tensorコア 第4世代 Tensorコアは、構造的なスパース性と最適化されたTF32形式のハードウェアサポートにより、AIとデータサイエンスのモデルトレーニングのパフォーマンスを向上させます。さらに、AIによるグラフィックス機能をDLSSで加速することで、一部のアプリケーションでは解像度を大幅に向上させることが可能です。 02 第3世代 RTコア 第3世代 RTコアは、スループットと同時レイトレーシングおよびシェーディング機能が強化され、レイトレーシングのパフォーマンスが向上します。これにより、製品設計や
-
NVIDIA H100
。 製品の特長と利点 01 先進のAIトレーニング技術 H100は、第4世代のTensorコアとFP8精度で動作するTransformer Engineを搭載し、前世代と比べて混合エキスパート (MoE) モデルのトレーニング速度を最大9倍に向上させます。第4世代NVLinkによるGPU間の毎秒900ギガバイトの高速通信、NVLINK Switch Systemによるノード全体でのGPU通信の高速化、PCIe Gen5、そしてNVIDIA Magnum IO™ソフトウェアが組み合わさることで、小規模なエンタープライズから大規模な統合GPUクラスターまで、効率的
-
NVIDIA H200
。 製品の特長と利点 01 大容量で高速なメモリによる高いパフォーマンス NVIDIA Hopperアーキテクチャを基盤とするNVIDIA H200は、毎秒4.8テラバイト(TB/s)の帯域幅を持つ141ギガバイト(GB)のHBM3eメモリを搭載した初のGPUです。これは、従来のNVIDIA H100 TensorコアGPUと比較して、約2倍のメモリ容量と1.4倍のメモリ帯域幅を実現します。H200は、生成AIや大規模言語モデル(LLM)の高速化を支援し、エネルギー効率の向上、総所有コストの削減、さらにHPCワークロードにおける科学計算の進化を加速します。 高性能なL
-
NVIDIA データセンター GPU
タセンター GPU 製品でできること AIや機械学習の高速化 AIを学習させたり、推論(結果を導く作業)するときの処理を大幅にスピードアップしてくれます。 ハイパフォーマンス コンピューティング(HPC) AIを学習させたり、推論(結果を導く作業)するときの処理を大幅にスピードアップしてくれます。 大規模なデータ分析 ビッグデータを扱う企業や研究機関で、データを瞬時に分析し、結果をすばやく得ることができます。 主な特徴・技術 NVIDIA H100 Tensorコア 動的に演算を調整することで
-
アクセラレーテッド コンピューティングとは?仕組みについて解説【トゥモロー・ネット テックブログ】
っています。 製品に関するお問い合わせはこちら