Đối với mỗi bộ tăng tốc AI acceleration GPU H100 được bán ra, Nvidia có thể thu lại mức tỉ suất lợi nhuận đạt tới 1.000% chi phí sản xuất.
Bộ tăng tốc AI (AI acceleration) được thiết lập để trở thành một trong những mảng kinh doanh phần cứng thịnh vượng nhất trong những tháng và năm tới và Nvidia đang ở vị trí đắc địa để chiếm thị phần đáng kể trên thị trường này. GPU trung tâm dữ liệu H100 đã chứng tỏ là một công cụ tạo doanh thu chính cho công ty có trụ sở tại Santa Clara.
Đối với mỗi bộ tăng tốc AI acceleration GPU H100 được bán ra, Nvidia có thể thu lại mức lợi nhuận rất cao, với tỷ suất lợi nhuận được báo cáo đạt tới 1.000% chi phí sản xuất. Tae Kim, một nhà báo công nghệ cao cấp tại Barron, gần đây hé lộ rằng Nvidia chi khoảng 3.320 USD để sản xuất một đơn vị H100 duy nhất, sau đó được bán cho khách hàng cuối với mức giá từ 25.000 đến 30.000 USD. Những ước tính này được cung cấp bởi công ty tư vấn Raymond James và dường như bao gồm cả chi phí liên quan đến chip bộ nhớ HBM tích hợp.
Nếu các ước tính được chứng minh là chính xác, điều này có thể đánh dấu sự khởi đầu của một kỷ nguyên vàng chưa từng có đối với hoạt động kinh doanh GPU của Nvidia. Kim cho biết nhu cầu về các đơn vị GPU H100 cao đến mức về cơ bản chúng đã được bán hết cho đến năm 2024. Trong khi đó, các công ty AI đang cố gắng đảm bảo có đủ bộ tăng tốc GPU để cung cấp năng lượng cho các mô hình sản xuất và dịch vụ do AI cung cấp. Foxconn dự đoán rằng thị trường máy chủ AI sẽ đạt giá trị 150 tỷ USD vào năm 2027 và những máy chủ AI hiện đại này phụ thuộc rất nhiều vào khả năng tính toán mạnh mẽ của phần cứng Nvidia mới nhất.
GPU H100 dựa trên vi kiến trúc Hopper, được thiết kế làm trung tâm dữ liệu đối trọng với kiến trúc Ada Lovelace hỗ trợ thế hệ GPU chơi game GeForce RTX mới nhất. Tuy nhiên, trọng tâm chính của Hopper không phải là chơi game, như được biểu thị bằng điểm chuẩn hiệu suất. Bộ tăng tốc H100 được trang bị GPU GH100 đã được sửa đổi có 14.592 lõi CUDA, ngoài ra còn có 80GB RAM HBM3 với bus bộ nhớ 5.120 bit.

Nvidia chắc chắn đang chiếm ưu thế trong thời kỳ bùng nổ AI hiện nay, mặc dù chi phí ước tính 3.320 USD cho mỗi GPU H100 do Kim đề xuất cần được làm rõ thêm. Phát triển một GPU mới là một nỗ lực tốn kém và mất thời gian, liên quan đến nhiều kỹ sư phần cứng và công nhân chuyên môn. Những công nhân này yêu cầu được bồi thường và các ước tính gần đây cho thấy mức lương trung bình của Nvidia cho một kỹ sư phần cứng là khoảng 202.000 USD mỗi năm.
Mặt khác, việc sản xuất và bán GPU H100 có thể tốn kém hơn nhiều so với chi phí 3.320 USD được báo cáo. Mặt khác, Kim đã theo dõi Nvidia trong 30 năm và hiện ông thậm chí còn đang viết một cuốn sách với tên gọi “lịch sử cuối cùng” của công ty. Do đó, khi nói đến hoạt động bên trong của Nvidia và mức chi phí, anh ấy có thể biết mình đang nói về điều gì.