Báo cáo phân tích: Rủi ro chu kỳ HBM

tapchiphowall.com

1. Bài toán "Mặt bằng trung tâm" của AI

Hiện tại, để các AI như ChatGPT hoạt động, toàn bộ "kiến thức" của chúng phải được nạp vào bộ nhớ tốc độ siêu cao (VRAM) trên GPU.

Ví von đầu tư: Điều này giống như việc doanh nghiệp phải thuê mặt bằng đắt đỏ nhất ở Trung tâm Quận 1 không chỉ để làm phòng giao dịch (tính toán), mà còn dùng để... làm nhà kho chứa tài liệu. Nó gây ra sự lãng phí chi phí vốn (CapEx) khổng lồ.

GPU Compute (Lõi xử lý - Thường xuyên rảnh rỗi chờ dữ liệu)
+
HBM VRAM (Mặt bằng đắt đỏ - Đang bị quá tải bởi việc lưu trữ)

2. Kỷ nguyên vàng của bộ nhớ HBM

Để giải quyết cơn khát bộ nhớ của AI, các hãng công nghệ phải mua HBM (High Bandwidth Memory). Hiện tại, thế giới chỉ có 3 nhà cung cấp chính: SK Hynix, Micron (MU) và Samsung.

Sự độc quyền và nhu cầu đột biến này đã đẩy giá bán HBM và biên lợi nhuận của 3 công ty lên mức kỷ lục (Index Hàn Quốc tăng 50% YTD). Tin tưởng chu kỳ này sẽ kéo dài, các hãng đang đổ hàng chục tỷ USD để xây nhà máy mới.

GIÁ TRỊ 2023 - 2025
2023
2024
H1 2025
Đỉnh Kỳ Vọng

3. Bước ngoặt công nghệ: Kiến trúc Engram

Nghiên cứu "Engram" từ DeepSeek công bố một giải pháp tối ưu chi phí mang tính cách mạng: Tách biệt khả năng suy luận logic và khả năng ghi nhớ dữ kiện của AI.

Thay vì lưu trữ mọi thứ ở "mặt bằng trung tâm" (HBM), AI giờ đây chỉ giữ phần lõi tư duy ở HBM. Toàn bộ kiến thức bách khoa (Memory) được đẩy ra "nhà kho ngoại ô" - tức RAM máy chủ thông thường (DDR5) với giá rẻ hơn hàng chục lần.

CÁCH CŨ (Tốn Kém)
Gom mọi thứ vào
HBM đắt đỏ
TƯ DUY LOGIC
Vẫn dùng GPU/HBM
(Nhưng cần ít hơn)
LƯU TRỮ KIẾN THỨC
Chuyển sang DDR5
(Dung lượng lớn, giá rẻ)

4. Rủi ro dư thừa nguồn cung

Sự chuyển dịch kiến trúc này tạo ra rủi ro dây chuyền, ảnh hưởng không chỉ đến nhà sản xuất bộ nhớ mà còn cả nhà sản xuất GPU.

Rủi ro với MU / SK Hynix / Samsung: Các nhà máy HBM trị giá hàng chục tỷ USD vừa xây xong sẽ đối mặt với dư thừa công suất (Oversupply). Cung vượt cầu dẫn đến cuộc chiến giá, bào mòn biên lợi nhuận.

Rủi ro với NVDA và cả ngành bán dẫn nói chung: Trước đây, các tổ chức buộc phải mua GPU cao cấp đắt tiền chỉ để đáp ứng nhu cầu VRAM — trong khi các lõi xử lý thực sự bị bỏ phí. Engram phá vỡ logic này: nhu cầu GPU hạng nặng để "chứa" model weights sẽ giảm, trực tiếp đe dọa chu kỳ nâng cấp phần cứng mà Nvidia đang hưởng lợi.

LỢI NHUẬN
Đỉnh chu kỳ
Dư thừa Cung