Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
CFD
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
Hiểu rõ lợi nhuận trong tầng lưu trữ AI và cấu trúc ngành nghề trong một bài viết
AI lưu trữ có thể phân thành sáu lớp,
SRAM trên chip
HBM
DRAM trên bo mạch chủ
Tầng pooling CXL
SSD doanh nghiệp
NAS và lưu trữ đối tượng đám mây
Cấu trúc này dựa trên vị trí lưu trữ, càng xuống dưới càng xa đơn vị tính toán, dung lượng lưu trữ càng lớn.
Năm 2025, tổng quy mô của sáu lớp này (SRAM trên chip tính trong chip tính toán, cần loại bỏ giá trị nhúng) khoảng 229 tỷ USD, trong đó DRAM chiếm một nửa, HBM chiếm 15%, SSD chiếm 11%.
Tình hình lợi nhuận, mỗi lớp đều cực kỳ tập trung vào các tập đoàn lớn, ba lớp đầu thường chiếm hơn 90% thị phần.
Có thể chia các nguồn lợi nhuận này thành ba loại,
Hồ lợi nhuận cao của lớp silicon (HBM, SRAM nhúng, SSD QLC)
Hồ lợi nhuận cao mới nổi của lớp liên kết (CXL)
Hồ lợi nhuận lãi kép quy mô của lớp dịch vụ (NAS, lưu trữ đối tượng đám mây)
Ba loại hồ này có tính chất khác nhau, tốc độ tăng trưởng khác nhau, và lợi thế cạnh tranh cũng khác nhau.
Tại sao lưu trữ lại phân lớp?
Vì trên các chip điều khiển CPU và chip tính toán GPU, chỉ có bộ nhớ đệm tạm thời, tức SRAM trên chip. Không gian bộ nhớ đệm này quá nhỏ, chỉ đủ chứa các tham số tạm thời, không đủ chứa các mô hình lớn.
Ngoài hai chip này, cần có bộ nhớ lớn hơn để lưu trữ các mô hình lớn và ngữ cảnh suy luận.
Thời gian truyền dữ liệu giữa các lớp lưu trữ khác nhau có độ trễ và tiêu hao năng lượng, đó mới là vấn đề lớn nhất.
Vì vậy, hiện tại có ba hướng chính,
Phối hợp HBM, đưa bộ nhớ gần GPU hơn, rút ngắn khoảng cách truyền tải
CXL, pooling bộ nhớ thành quy mô rack, chia sẻ dung lượng
Tính toán và lưu trữ hàn trên cùng một wafer, tích hợp tính toán và lưu trữ
Ba hướng này quyết định hình dạng của các hồ lợi nhuận trong năm năm tới.
Dưới đây là phân lớp cụ thể,
L0 SRAM trên chip: Hồ lợi nhuận riêng của TSMC
SRAM (Static Random-access Memory, bộ nhớ truy cập ngẫu nhiên tĩnh) là bộ nhớ đệm bên trong CPU/GPU, tích hợp trong mỗi chip, không giao dịch riêng lẻ.
Thị trường chip SRAM độc lập chỉ khoảng 1-1.7 tỷ USD, dẫn đầu là Infineon (khoảng 15%), Renesas (khoảng 13%), ISSI (khoảng 10%), thị trường nhỏ.
Phần lợi nhuận này chủ yếu nằm trong TSMC, mỗi thế hệ chip AI đều cần mua nhiều wafer hơn để nhồi SRAM.
Và hơn 70% wafer công nghệ tiên tiến toàn cầu nằm trong tay TSMC. Mỗi chip H100, B200, TPU v5 v.v… diện tích SRAM cuối cùng đều trở thành doanh thu của TSMC.
L1 HBM: Hồ lợi nhuận lớn nhất thời đại AI
HBM (High Bandwidth Memory, bộ nhớ băng thông cao) là bộ nhớ DRAM (Dynamic Random-access Memory, bộ nhớ truy cập ngẫu nhiên động) được xếp chồng theo chiều dọc bằng công nghệ TSV (Through Silicon Via), sau đó đóng gói bằng CoWoS và ghép cạnh GPU.
HBM gần như quyết định khả năng chạy các mô hình lớn của bộ tăng tốc AI. SK Hynix, Micron, Samsung chiếm gần 100% thị phần.
Tính đến quý 1 năm 2026, thị phần mới nhất là: SK Hynix 57-62%, Samsung 22%, Micron 21%, SK Hynix đã chiếm phần lớn các đơn hàng của NVIDIA và các công ty khác, là nhà cung cấp chi phối hiện nay.
Trong cuộc họp báo tài chính quý 1 năm 2026, Micron dự báo TAM (Thị trường tiềm năng tổng thể) của HBM sẽ tăng trưởng với CAGR khoảng 40%, từ khoảng 35 tỷ USD năm 2025 lên 100 tỷ USD năm 2028, thời điểm đạt 100 tỷ USD sớm hơn dự kiến hai năm.
Ưu điểm cốt lõi của HBM là biên lợi nhuận cực cao. Quý 1 năm 2026, lợi nhuận hoạt động của SK Hynix đạt mức kỷ lục 72%.
Nguyên nhân lợi nhuận cao,
Công nghệ TSV làm giảm phần công suất DRAM truyền thống, giữ cho HBM luôn trong tình trạng cung không đủ cầu;
Tỷ lệ thành công của đóng gói tiên tiến gặp khó khăn, trước đây Samsung chiếm 40%, nay giảm còn 22% do ảnh hưởng này;
Các nhà cung cấp chính mở rộng sản xuất thận trọng, trong quý 1 năm 2026, giá bán trung bình của DRAM (ASP) tăng hơn 60% so với quý trước, thể hiện vị thế rõ ràng của thị trường bán hàng.
Trong ba ông lớn, SK Hynix được hưởng lợi mạnh từ HBM, doanh thu hoạt động cả năm 2025 đạt 47.21 nghìn tỷ won, lần đầu vượt Samsung Electronics, quý 1 năm 2026, với biên lợi nhuận hoạt động 72%, còn vượt cả TSMC (58.1%) và NVIDIA (65%).
Micron có triển vọng tăng trưởng rất cao, Ngân hàng Mỹ (BofA) đã nâng mục tiêu giá của họ lên 950 USD vào tháng 5 năm 2026. Samsung, nhờ đẩy mạnh sản xuất HBM4, có khả năng lấy lại thị phần lớn nhất.
L2 DRAM trên bo mạch chủ
Lớp này chính là bộ nhớ RAM thông thường chúng ta hay gọi.
DRAM trên bo mạch chủ gồm DDR5, LPDDR, GDDR, MR-DIMM và các loại bộ nhớ phổ biến khác, hiện là phần chiếm tỷ lệ doanh số cao nhất trong hệ thống lưu trữ AI, năm 2025 quy mô thị trường DRAM toàn cầu đạt khoảng 121.83 tỷ USD.
Samsung, SK Hynix, Micron vẫn chiếm phần lớn thị trường. Theo dữ liệu mới nhất quý 4 năm 2025, Samsung chiếm 36.6%, SK Hynix 32.9%, Micron 22.9%.
Hiện tại, năng lực sản xuất đang chuyển hướng sang HBM có lợi nhuận cao hơn, giúp duy trì lợi nhuận và quyền định giá cho bộ nhớ thông thường. Lợi nhuận của từng sản phẩm DRAM trên bo mạch chủ không cao bằng HBM, nhưng quy mô thị trường lớn hơn.
L3 Pooling CXL
CXL (Compute Express Link) cho phép pooling DRAM từ một máy chủ thành toàn bộ rack.
Sau CXL 3.x, trong tương lai, tất cả bộ nhớ trong một tủ máy chủ có thể được chia sẻ và điều phối giữa nhiều GPU, theo nhu cầu. Giải quyết các vấn đề như KV cache, cơ sở dữ liệu vector, RAG không thể chứa hoặc di chuyển.
Mô-đun bộ nhớ CXL năm 2024 chỉ khoảng 1.6 tỷ USD, dự kiến năm 2033 đạt 23.7 tỷ USD. Có vẻ như, thị trường vẫn do các ông lớn như Samsung, SK Hynix, Micron chi phối.
Trong lớp này, Astera Labs đang làm bộ điều chỉnh thời gian giữa CXL và PCIe (Retimer) và bộ điều khiển bộ nhớ thông minh, chiếm khoảng 55% thị phần con này. Doanh thu quý mới nhất là 308 triệu USD, tăng 93% so với cùng kỳ, biên lợi nhuận gộp không GAAP đạt 76.4%, lợi nhuận ròng tăng 85%. Lợi nhuận rất cao.
L4 SSD doanh nghiệp: Người hưởng lợi lớn nhất trong thời kỳ suy luận
SSD NVMe doanh nghiệp là chiến trường chính cho checkpoint huấn luyện AI, RAG, KV cache offload, và lưu trữ trọng số mô hình. SSD QLC dung lượng lớn đã hoàn toàn đẩy HDD ra khỏi hồ dữ liệu AI.
Năm 2025, thị trường SSD doanh nghiệp khoảng 26.1 tỷ USD, CAGR 24%, dự kiến đến 2030 đạt 76 tỷ USD.
Thị trường vẫn do ba ông lớn chi phối.
Theo doanh thu quý 4 năm 2025, thị phần là: Samsung 36.9%, SK Hynix (kể cả Solidigm) 32.9%, Micron 14.0%, Kioxia 11.7%, SanDisk 4.4%. Năm công ty chiếm khoảng 90%.
Điểm đặc biệt lớn nhất của lớp này là sự bùng nổ của SSD QLC trong các kịch bản suy luận AI. Công ty con của Hynix, Solidigm, đã sản xuất sản phẩm dung lượng 122 TB trên một đĩa, KV cache và RAG index của AI đang chuyển từ HBM ra SSD.
Xét về lợi nhuận, SSD doanh nghiệp không đạt biên lợi nhuận cực cao như HBM, nhưng hưởng lợi kép từ mở rộng dung lượng và mở rộng suy luận.
Hynix và Kioxia là các mục tiêu khá thuần túy. Samsung và SK Hynix vừa hưởng lợi từ HBM, DRAM, NAND, là các nền tảng lưu trữ AI toàn diện hơn.
L5 NAS và lưu trữ đối tượng đám mây: Hồ lợi nhuận lãi kép của dữ liệu
NAS và lưu trữ đối tượng đám mây là lớp ngoài cùng của hồ dữ liệu AI, dữ liệu huấn luyện, sao lưu, hợp tác liên nhóm. Năm 2025, NAS khoảng 39.6 tỷ USD (CAGR 17%), lưu trữ đám mây khoảng 9.1 tỷ USD (CAGR 16%).
Các nhà cung cấp chính của lưu trữ tệp doanh nghiệp là NetApp, Dell, HPE, Huawei; các doanh nghiệp nhỏ hơn là Synology, QNAP. Thị phần lưu trữ đám mây dựa trên IaaS ước tính là AWS khoảng 31-32%, Azure khoảng 23-24%, Google Cloud khoảng 11-12%, tổng cộng khoảng 65-70%.
Lớp này chủ yếu sinh lợi từ dịch vụ dài hạn, dữ liệu ra ngoài mạng, và khóa hệ sinh thái.
Tổng kết,
Quy mô DRAM lớn nhất nhưng biên lợi nhuận thấp nhất, khoảng 30-40%; quy mô HBM chỉ bằng một phần ba DRAM nhưng biên lợi nhuận gấp đôi, trên 60%; CXL có quy mô nhỏ nhất nhưng biên lợi nhuận cao nhất, trên 76%. Càng gần đơn vị tính toán, càng khan hiếm và lợi nhuận cao.
Các nguồn lợi nhuận tăng thêm chủ yếu từ ba nơi, HBM (CAGR 28%), SSD doanh nghiệp (CAGR 24%), pooling CXL (CAGR 37%).
Mỗi lớp có các rào cản kinh doanh khác nhau, HBM dựa vào rào cản kỹ thuật, TSV, CoWoS, tỷ lệ thành công; CXL dựa vào IP và chứng nhận, bộ điều chỉnh thời gian; lớp dịch vụ dựa vào chi phí chuyển đổi.