この記事でiPhoneのSoC技術をまとめましたが、続いてNVIDIAのAI用GPUの技術をまとめました。
ネット上のソースを見てまとめたつもりですが、もし間違っていたら教えてください。
特にインターポーザーやサブストレートのサイズはチップの画像からラフに面積を見積もったので何かソースがあると教えてもらえると嬉しいです。
参考にさせてもらった資料はこちらに乗せておきます。
chemstat.hatenablog.com
参考資料
P100
Pascal (microarchitecture) - Wikipedia
【後藤弘茂のWeekly海外ニュース】NVIDIAの巨大GPUを支えるTSMCのインタポーザ技術 - PC Watch
NVIDIA Tesla P100 PCIe 16 GB Specs | TechPowerUp GPU Database
https://images.nvidia.com/content/pdf/tesla/whitepaper/pascal-architecture-whitepaper.pdf
V100
Volta (microarchitecture) - Wikipedia
TSMC Announces 2x Reticle CoWoS For Next-Gen 5nm HPC Applications – WikiChip Fuse
A100
Ampere (microarchitecture) - Wikipedia
NVIDIA Announces A100 80GB: Ampere Gets HBM2E Memory Upgrade
https://medias.yolegroup.com/uploads/2021/02/SPR21579-IC-NVIDIA-A100-Ampere-GPU-Sample.pdf
H100/200
Hopper (microarchitecture) - Wikipedia
NVIDIA Hopper アーキテクチャの徹底解説 - NVIDIA 技術ブログ
B100/200
Blackwell (microarchitecture) - Wikipedia
NVIDIA 次世代AI GPUアーキテクチャ「Blackwell」と新たな「B200」GPUを発表 | XenoSpectrum
The AI-driven accelerated Computing revolution requires almost three times as much Silicon area as traditional design. Nvidia is overcoming the die size limitation by attaching two dies on a silicon interposer. The blistering fast stacks of High-Bandwidth Memory also require more… pic.twitter.com/whMjeMYlUL
— SemiBizIntel (@siliconomy) 2024年6月7日
💡 NVIDIAのAIチップ年次開発サイクル戦略と次世代AIチップ Rubinシリーズ/R100GPUに求められる役割 $NVDA
— FabyΔ (@FABYMETAL4) 2024年5月23日
1️⃣NVIDIAの新しい年次開発サイクル
NVIDIAのCEO Jensen… pic.twitter.com/WXbA0jmOw1
NVIDIA Unveils Next-Gen Rubin, Rubin Ultra, Blackwell Ultra GPUs & Supercharged Vera CPUs