Tensor core performance of NVIDIA Tesla P4

回答

The short answer: NVIDIA Tesla P4 runs at FP16 TFLOPS with 192 GB/s of memory bandwidth. The longer answer depends on what you run.

For dense FP16 training with large batches, NVIDIA Tesla P4 saturates tensor cores and delivers throughput close to peak FLOPS. For memory-bound serving on long-context foundation models, bandwidth dominates — the 192 GB/s figure matters more than headline TFLOPS. For scientific computing, FP32 at 5.5 TFLOPS is the relevant number and puts NVIDIA Tesla P4 in line with the HPC expectations of its Pascal class.

Get NVIDIA Tesla P4 on Cherry Servers starting at $0.16/hr — live pricing and fast provisioning.

NVIDIA Tesla P4に関するさらに多くのFAQ

チェリーサーバーズ GPUプロバイダーのレビューと主要情報 (4月 2026)

チェリーサーバーズの概要:最大資金、利益分配、ドローダウン規則、レバレッジ、取引商品、支払いスケジュール、支払い方法、取引許可、KYC。データ検証日 4月 2026。

チェリーサーバーズ GPUプロバイダーのレビューと主要情報 (4月 2026)
チェリーサーバーズ
24年のホスティング経験とハードウェアレベルの完全制御を備えたベアメタルGPUサーバー。
Visit チェリーサーバーズ
概要
Trustpilot評価 4.6
本社所在地 Lithuania
プロバイダータイプ 該当なし
最適用途 AIトレーニング、推論、ファインチューニング、レンダリング、研究、HPC、生成AI、ディープラーニング
GPUハードウェア
GPUモデル A100、A40、A16、A10、A2、Tesla P4
最大VRAM(GB) 80
インスタンスあたり最大GPU数 2
インターコネクト PCIe
価格
開始価格($/時) $0.16/hr
請求単位 時間単位
スポット/プリエンプティブル いいえ
予約割引 該当なし
無料クレジット なし
転送料金 該当なし
ストレージ NVMe SSD、Elastic Block Storage($0.071/GB/月)
インフラストラクチャ
リージョン リトアニア、オランダ、ドイツ、スウェーデン、米国、シンガポール(6拠点)
稼働率SLA 99.97%
開発者体験
フレームワーク PyTorch、TensorFlow、CUDA(ベアメタル—フルスタック制御)
Docker対応 はい
SSHアクセス はい
Jupyterノートブック いいえ
API / CLI はい
セットアップ時間 分単位
Kubernetesサポート はい
ビジネス条件
最低利用期間 なし
コンプライアンス ISO 27001、ISO 20000-1、GDPR、PCI DSS
チェリーサーバーズ

NVIDIA Tesla P4を探る