Hiểu rõ lợi nhuận trong tầng lưu trữ AI và cấu trúc ngành nghề trong một bài viết

AI lưu trữ có thể phân thành sáu lớp,

  1. SRAM trên chip

  2. HBM

  3. DRAM trên bo mạch chủ

  4. Tầng pooling CXL

  5. SSD doanh nghiệp

  6. NAS và lưu trữ đối tượng đám mây

Cấu trúc này dựa trên vị trí lưu trữ, càng xuống dưới càng xa đơn vị tính toán, dung lượng lưu trữ càng lớn.

Năm 2025, tổng quy mô của sáu lớp này (SRAM trên chip tính trong chip tính toán, cần loại bỏ giá trị nhúng) khoảng 229 tỷ USD, trong đó DRAM chiếm một nửa, HBM chiếm 15%, SSD chiếm 11%.

Tình hình lợi nhuận, mỗi lớp đều cực kỳ tập trung vào các tập đoàn lớn, ba lớp đầu thường chiếm hơn 90% thị phần.

Có thể chia các nguồn lợi nhuận này thành ba loại,

  1. Hồ lợi nhuận cao của lớp silicon (HBM, SRAM nhúng, SSD QLC)

  2. Hồ lợi nhuận cao mới nổi của lớp liên kết (CXL)

  3. Hồ lợi nhuận lãi kép quy mô của lớp dịch vụ (NAS, lưu trữ đối tượng đám mây)

Ba loại hồ này có tính chất khác nhau, tốc độ tăng trưởng khác nhau, và lợi thế cạnh tranh cũng khác nhau.

Tại sao lưu trữ lại phân lớp?

Vì trên các chip điều khiển CPU và chip tính toán GPU, chỉ có bộ nhớ đệm tạm thời, tức SRAM trên chip. Không gian bộ nhớ đệm này quá nhỏ, chỉ đủ chứa các tham số tạm thời, không đủ chứa các mô hình lớn.

Ngoài hai chip này, cần có bộ nhớ lớn hơn để lưu trữ các mô hình lớn và ngữ cảnh suy luận.

Thời gian truyền dữ liệu giữa các lớp lưu trữ khác nhau có độ trễ và tiêu hao năng lượng, đó mới là vấn đề lớn nhất.

Vì vậy, hiện tại có ba hướng chính,

  1. Phối hợp HBM, đưa bộ nhớ gần GPU hơn, rút ngắn khoảng cách truyền tải

  2. CXL, pooling bộ nhớ thành quy mô rack, chia sẻ dung lượng

  3. Tính toán và lưu trữ hàn trên cùng một wafer, tích hợp tính toán và lưu trữ

Ba hướng này quyết định hình dạng của các hồ lợi nhuận trong năm năm tới.

Dưới đây là phân lớp cụ thể,

L0 SRAM trên chip: Hồ lợi nhuận riêng của TSMC

SRAM (Static Random-access Memory, bộ nhớ truy cập ngẫu nhiên tĩnh) là bộ nhớ đệm bên trong CPU/GPU, tích hợp trong mỗi chip, không giao dịch riêng lẻ.

Thị trường chip SRAM độc lập chỉ khoảng 1-1.7 tỷ USD, dẫn đầu là Infineon (khoảng 15%), Renesas (khoảng 13%), ISSI (khoảng 10%), thị trường nhỏ.

Phần lợi nhuận này chủ yếu nằm trong TSMC, mỗi thế hệ chip AI đều cần mua nhiều wafer hơn để nhồi SRAM.

Và hơn 70% wafer công nghệ tiên tiến toàn cầu nằm trong tay TSMC. Mỗi chip H100, B200, TPU v5 v.v… diện tích SRAM cuối cùng đều trở thành doanh thu của TSMC.

L1 HBM: Hồ lợi nhuận lớn nhất thời đại AI

HBM (High Bandwidth Memory, bộ nhớ băng thông cao) là bộ nhớ DRAM (Dynamic Random-access Memory, bộ nhớ truy cập ngẫu nhiên động) được xếp chồng theo chiều dọc bằng công nghệ TSV (Through Silicon Via), sau đó đóng gói bằng CoWoS và ghép cạnh GPU.

HBM gần như quyết định khả năng chạy các mô hình lớn của bộ tăng tốc AI. SK Hynix, Micron, Samsung chiếm gần 100% thị phần.

Tính đến quý 1 năm 2026, thị phần mới nhất là: SK Hynix 57-62%, Samsung 22%, Micron 21%, SK Hynix đã chiếm phần lớn các đơn hàng của NVIDIA và các công ty khác, là nhà cung cấp chi phối hiện nay.

Trong cuộc họp báo tài chính quý 1 năm 2026, Micron dự báo TAM (Thị trường tiềm năng tổng thể) của HBM sẽ tăng trưởng với CAGR khoảng 40%, từ khoảng 35 tỷ USD năm 2025 lên 100 tỷ USD năm 2028, thời điểm đạt 100 tỷ USD sớm hơn dự kiến hai năm.

Ưu điểm cốt lõi của HBM là biên lợi nhuận cực cao. Quý 1 năm 2026, lợi nhuận hoạt động của SK Hynix đạt mức kỷ lục 72%.

Nguyên nhân lợi nhuận cao,

  1. Công nghệ TSV làm giảm phần công suất DRAM truyền thống, giữ cho HBM luôn trong tình trạng cung không đủ cầu;

  2. Tỷ lệ thành công của đóng gói tiên tiến gặp khó khăn, trước đây Samsung chiếm 40%, nay giảm còn 22% do ảnh hưởng này;

  3. Các nhà cung cấp chính mở rộng sản xuất thận trọng, trong quý 1 năm 2026, giá bán trung bình của DRAM (ASP) tăng hơn 60% so với quý trước, thể hiện vị thế rõ ràng của thị trường bán hàng.

Trong ba ông lớn, SK Hynix được hưởng lợi mạnh từ HBM, doanh thu hoạt động cả năm 2025 đạt 47.21 nghìn tỷ won, lần đầu vượt Samsung Electronics, quý 1 năm 2026, với biên lợi nhuận hoạt động 72%, còn vượt cả TSMC (58.1%) và NVIDIA (65%).

Micron có triển vọng tăng trưởng rất cao, Ngân hàng Mỹ (BofA) đã nâng mục tiêu giá của họ lên 950 USD vào tháng 5 năm 2026. Samsung, nhờ đẩy mạnh sản xuất HBM4, có khả năng lấy lại thị phần lớn nhất.

L2 DRAM trên bo mạch chủ

Lớp này chính là bộ nhớ RAM thông thường chúng ta hay gọi.

DRAM trên bo mạch chủ gồm DDR5, LPDDR, GDDR, MR-DIMM và các loại bộ nhớ phổ biến khác, hiện là phần chiếm tỷ lệ doanh số cao nhất trong hệ thống lưu trữ AI, năm 2025 quy mô thị trường DRAM toàn cầu đạt khoảng 121.83 tỷ USD.

Samsung, SK Hynix, Micron vẫn chiếm phần lớn thị trường. Theo dữ liệu mới nhất quý 4 năm 2025, Samsung chiếm 36.6%, SK Hynix 32.9%, Micron 22.9%.

Hiện tại, năng lực sản xuất đang chuyển hướng sang HBM có lợi nhuận cao hơn, giúp duy trì lợi nhuận và quyền định giá cho bộ nhớ thông thường. Lợi nhuận của từng sản phẩm DRAM trên bo mạch chủ không cao bằng HBM, nhưng quy mô thị trường lớn hơn.

L3 Pooling CXL

CXL (Compute Express Link) cho phép pooling DRAM từ một máy chủ thành toàn bộ rack.

Sau CXL 3.x, trong tương lai, tất cả bộ nhớ trong một tủ máy chủ có thể được chia sẻ và điều phối giữa nhiều GPU, theo nhu cầu. Giải quyết các vấn đề như KV cache, cơ sở dữ liệu vector, RAG không thể chứa hoặc di chuyển.

Mô-đun bộ nhớ CXL năm 2024 chỉ khoảng 1.6 tỷ USD, dự kiến năm 2033 đạt 23.7 tỷ USD. Có vẻ như, thị trường vẫn do các ông lớn như Samsung, SK Hynix, Micron chi phối.

Trong lớp này, Astera Labs đang làm bộ điều chỉnh thời gian giữa CXL và PCIe (Retimer) và bộ điều khiển bộ nhớ thông minh, chiếm khoảng 55% thị phần con này. Doanh thu quý mới nhất là 308 triệu USD, tăng 93% so với cùng kỳ, biên lợi nhuận gộp không GAAP đạt 76.4%, lợi nhuận ròng tăng 85%. Lợi nhuận rất cao.

L4 SSD doanh nghiệp: Người hưởng lợi lớn nhất trong thời kỳ suy luận

SSD NVMe doanh nghiệp là chiến trường chính cho checkpoint huấn luyện AI, RAG, KV cache offload, và lưu trữ trọng số mô hình. SSD QLC dung lượng lớn đã hoàn toàn đẩy HDD ra khỏi hồ dữ liệu AI.

Năm 2025, thị trường SSD doanh nghiệp khoảng 26.1 tỷ USD, CAGR 24%, dự kiến đến 2030 đạt 76 tỷ USD.

Thị trường vẫn do ba ông lớn chi phối.

Theo doanh thu quý 4 năm 2025, thị phần là: Samsung 36.9%, SK Hynix (kể cả Solidigm) 32.9%, Micron 14.0%, Kioxia 11.7%, SanDisk 4.4%. Năm công ty chiếm khoảng 90%.

Điểm đặc biệt lớn nhất của lớp này là sự bùng nổ của SSD QLC trong các kịch bản suy luận AI. Công ty con của Hynix, Solidigm, đã sản xuất sản phẩm dung lượng 122 TB trên một đĩa, KV cache và RAG index của AI đang chuyển từ HBM ra SSD.

Xét về lợi nhuận, SSD doanh nghiệp không đạt biên lợi nhuận cực cao như HBM, nhưng hưởng lợi kép từ mở rộng dung lượng và mở rộng suy luận.

Hynix và Kioxia là các mục tiêu khá thuần túy. Samsung và SK Hynix vừa hưởng lợi từ HBM, DRAM, NAND, là các nền tảng lưu trữ AI toàn diện hơn.

L5 NAS và lưu trữ đối tượng đám mây: Hồ lợi nhuận lãi kép của dữ liệu

NAS và lưu trữ đối tượng đám mây là lớp ngoài cùng của hồ dữ liệu AI, dữ liệu huấn luyện, sao lưu, hợp tác liên nhóm. Năm 2025, NAS khoảng 39.6 tỷ USD (CAGR 17%), lưu trữ đám mây khoảng 9.1 tỷ USD (CAGR 16%).

Các nhà cung cấp chính của lưu trữ tệp doanh nghiệp là NetApp, Dell, HPE, Huawei; các doanh nghiệp nhỏ hơn là Synology, QNAP. Thị phần lưu trữ đám mây dựa trên IaaS ước tính là AWS khoảng 31-32%, Azure khoảng 23-24%, Google Cloud khoảng 11-12%, tổng cộng khoảng 65-70%.

Lớp này chủ yếu sinh lợi từ dịch vụ dài hạn, dữ liệu ra ngoài mạng, và khóa hệ sinh thái.

Tổng kết,

  1. Quy mô DRAM lớn nhất nhưng biên lợi nhuận thấp nhất, khoảng 30-40%; quy mô HBM chỉ bằng một phần ba DRAM nhưng biên lợi nhuận gấp đôi, trên 60%; CXL có quy mô nhỏ nhất nhưng biên lợi nhuận cao nhất, trên 76%. Càng gần đơn vị tính toán, càng khan hiếm và lợi nhuận cao.

  2. Các nguồn lợi nhuận tăng thêm chủ yếu từ ba nơi, HBM (CAGR 28%), SSD doanh nghiệp (CAGR 24%), pooling CXL (CAGR 37%).

  3. Mỗi lớp có các rào cản kinh doanh khác nhau, HBM dựa vào rào cản kỹ thuật, TSV, CoWoS, tỷ lệ thành công; CXL dựa vào IP và chứng nhận, bộ điều chỉnh thời gian; lớp dịch vụ dựa vào chi phí chuyển đổi.

4-3,98%
TSM-2,27%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Đã ghim