Phiên bản đầu tiên của bộ nhớ băng thông cao (HBM) có phần hạn chế, chỉ cho phép tốc độ lên tới 128 GB/s trên mỗi ngăn xếp. Tuy nhiên, có một lưu ý lớn: card đồ họa sử dụng HBM1 có giới hạn bộ nhớ là 4 GB do hạn chế về mặt vật lý.
Theo thời gian, các nhà sản xuất HBM như SK Hynix và Samsung đã cải thiện những thiếu sót của HBM. Bản cập nhật đầu tiên, HBM2, tăng gấp đôi tốc độ tiềm năng lên 256 GB/giây trên mỗi ngăn xếp và dung lượng tối đa lên 8 GB. Vào năm 2018, HBM2 đã nhận được một bản cập nhật nhỏ (HBM2E), bản cập nhật này đã tăng thêm giới hạn dung lượng lên 24 GB và mang đến một mức tăng tốc độ khác, cuối cùng đạt mức cao nhất là 460 GB/s trên mỗi chip.
Khi HBM3 ra mắt, tốc độ lại tăng gấp đôi, cho phép đạt tối đa 819 GB/s trên mỗi ngăn xếp. Ấn tượng hơn nữa, dung lượng tăng gần gấp ba lần, từ 24 GB lên 64 GB. Giống như HBM2E, HBM3 có một bản nâng cấp giữa vòng đời khác, HBM3E, tăng tốc độ lý thuyết lên tới 1,2 TB/s trên mỗi ngăn xếp.
Trong quá trình phát triển, HBM dần dần được thay thế trong card đồ họa dành cho người tiêu dùng bằng bộ nhớ GDDR giá cả phải chăng hơn. Bộ nhớ băng thông cao đã trở thành tiêu chuẩn trong các trung tâm dữ liệu, khi các nhà sản xuất card tập trung vào nơi làm việc chọn sử dụng giao diện nhanh hơn nhiều.

Trong suốt các bản cập nhật và cải tiến khác nhau, HBM vẫn giữ nguyên giao diện 1.024-bit (mỗi ngăn xếp) trong tất cả các lần lặp lại của nó. Theo một báo cáo từ Hàn Quốc, điều này cuối cùng có thể thay đổi khi HBM4 tiếp cận thị trường. Nếu các xác nhận quyền sở hữu hợp lệ, giao diện bộ nhớ sẽ gấp đôi từ 1.024 bit đến 2.048 bit.
Về mặt lý thuyết, việc chuyển sang giao diện 2.048 có thể tăng gấp đôi tốc độ truyền. Thật không may, các nhà sản xuất bộ nhớ có thể không thể duy trì cùng tốc độ truyền tải với HBM4 so với HBM3E. Tuy nhiên, giao diện bộ nhớ cao hơn sẽ cho phép nhà sản xuất sử dụng ít ngăn xếp hơn trong card.
Ví dụ: Card AI hàng đầu của Nvidia, H100, hiện đang sử dụng sáu khuôn xếp chồng tốt 1.024-bit, cho phép tạo ra giao diện 6.144-bit. Nếu giao diện bộ nhớ tăng gấp đôi lên 2.048-bit, về mặt lý thuyết, Nvidia có thể giảm một nửa số khuôn xuống còn ba và nhận được hiệu suất tương tự. Tất nhiên, vẫn chưa rõ các nhà sản xuất sẽ đi theo con đường nào vì HBM4 gần như chắc chắn phải mất nhiều năm nữa mới được đưa vào sản xuất.
Hiện tại, cả SK Hynix và Samsung đều tin rằng họ sẽ có thể đạt được “hiệu suất 100%” với HBM4 khi bắt đầu sản xuất nó. Chỉ có thời gian mới biết được liệu các báo cáo có đúng hay không, vì vậy hãy tin tưởng vào tin tức này.