CUDA + RISC-V: Thông báo “bom tấn” tại RISC-V Summit 2025
Tại sự kiện RISC-V China Summit 2025, ông Frans Sijstermans – Phó TGĐ khối phần cứng NVIDIA – khẳng định:
“NVIDIA sẽ mang CUDA lên nền tảng RISC-V, mở đường cho vi xử lý RISC-V gia nhập các trung tâm dữ liệu và hệ thống AI quy mô lớn.”
Như vậy, sau x86 và Arm, RISC-V trở thành kiến trúc CPU thứ ba được CUDA “bật đèn xanh”.
Vì sao CUDA quan trọng đến vậy?

| Kiến trúc | Thị phần DC/AI | Ưu điểm chính | Điểm nghẽn |
|---|---|---|---|
| x86 (Intel, AMD) | ~80 % CPU DC | Hệ sinh thái phần mềm đồ sộ, tối ưu hóa sâu cho CUDA | Chi phí bản quyền, tiêu thụ điện |
| Arm (Ampere, NVIDIA GB200, AWS Graviton) | Đang tăng | Hiệu năng/ W cao, linh hoạt tùy biến SoC | Phụ thuộc IP có phí, rủi ro địa chính trị |
| RISC-V (SiFive, Alibaba T-Head, StarFive…) | <1 % | Mã nguồn mở, tùy biến sâu, phí bản quyền ≈0 | Chưa có toolchain AI/HPC ngang CUDA |
CUDA chính là “keo” kết dính GPU NVIDIA với CPU trong các khối công việc AI, HPC. Do RISC-V thiếu vắng bộ công cụ tương đương, việc NVIDIA đồng ý hỗ trợ trở thành bước ngoặt.
Tác động tới thị trường và hệ sinh thái

1. Nâng tầm RISC-V trong AI & HPC
-
Các hãng bán dẫn có thể ghép SoC RISC-V với GPU H20 /H200 hoặc dòng B/BX, tạo nên giải pháp “AI stack” có tính tự chủ cao.
-
Trung tâm dữ liệu tại những khu vực bị hạn chế xuất khẩu công nghệ x86/Arm sẽ có thêm lựa chọn.
2. Cơ hội cho Trung Quốc và thị trường đang phát triển
-
Trung Quốc xem RISC-V là đường tắt “bán dẫn tự cường”. CUDA hỗ trợ RISC-V giúp lấp khe hở phần mềm AI hiệu năng cao.
-
Các start-up trong lĩnh vực robot, edge AI có thể thiết kế chip RISC-V tùy biến mà vẫn truy cập thư viện CUDA, cuDNN, TensorRT.
3. NVIDIA mở rộng doanh thu, nhưng… vẫn giữ “then chốt”
-
CUDA vẫn là phần mềm sở hữu của NVIDIA, giấy phép phân phối – cập nhật hoàn toàn do hãng kiểm soát.
-
Rủi ro địa chính trị: nếu Mỹ siết chặt hạn chế, NVIDIA có thể ngưng cập nhật CUDA SDK cho vùng/đối tác nhất định dù kiến trúc CPU là mở.
Thách thức kỹ thuật & pháp lý
-
Tương thích trình điều khiển: GPU driver phải giao tiếp với bộ lệnh RISC-V – cần tầng chuyển dịch tương đương nvidia-kernel cho x86/Arm.
-
Chuỗi công cụ biên dịch: GCC/LLVM dành cho RISC-V phải bổ sung các intrinsic CUDA để lập trình song song.
-
Bảo mật & cấp phép: CUDA SDK áp dụng cơ chế license; doanh nghiệp dùng RISC-V vẫn phải tuân thủ quy định xuất khẩu của Hoa Kỳ.
Nhìn về tương lai
-
2025 H2: NVIDIA phát hành beta CUDA-for-RISC-V – trước mắt hỗ trợ thư viện tính toán căn bản và cuBLAS.
-
2026: Các nền tảng N1X/N1C (Mediatek + NVIDIA) và server RISC-V 128 nhân dự kiến thương mại, đi kèm GPU H20/GB200 phiên bản giới hạn.
-
2027 +: Khả năng xuất hiện siêu máy tính RISC-V + NVIDIA trong top 500, cạnh tranh các cụm x86/Arm hiện hữu.
Kết luận
Việc CUDA bắt tay RISC-V là cột mốc quan trọng, biến cuộc đua AI/HPC thành “tam quốc diễn nghĩa” thực thụ.
-
x86 giữ lợi thế di sản phần mềm.
-
Arm dẫn đầu hiệu suất/ W và đang vào server AI nhờ Grace Hopper/ GB200.
-
RISC-V nay có “chiếc vé” bước vào sân khấu lớn – nhưng còn phải vượt rào cản driver, chuỗi công cụ và chính trị xuất khẩu.
Dù vậy, người dùng cuối và nhà phát triển sẽ là bên hưởng lợi lớn nhất, khi thị trường GPU + CPU AI thêm phần cạnh tranh, chi phí sở hữu giảm và tùy chọn triển khai đa dạng hơn bao giờ hết.