AMD đã công bố kế hoạch ra mắt hệ thống rack AI thế hệ mới Helios tại CES 2026, nhắm cạnh tranh trực tiếp với chuẩn rack-scale NVL72 của Nvidia bằng cấu hình GPU tương đương.
Thông báo này cho thấy cuộc đua hạ tầng AI đang chuyển từ chip đơn lẻ sang “hệ thống ở quy mô rack”, nơi hiệu năng, liên kết nội bộ và khả năng mở rộng quyết định chi phí huấn luyện, suy luận và tốc độ triển khai trung tâm dữ liệu.
- Helios của AMD được giới thiệu như đối trọng trực tiếp với Nvidia Vera Rubin NVL72 tại CES 2026.
- AMD nói dòng GPU MI500 có thể tăng hiệu năng AI tối đa 1.000 lần so với MI300X, nhằm đáp ứng nhu cầu vài năm tới.
- Nvidia công bố nền tảng Rubin, nhấn mạnh hiệu quả cao hơn, giảm số GPU cần cho huấn luyện và hạ chi phí token khi suy luận.
Helios của AMD được định vị để đối đầu trực tiếp Nvidia Vera Rubin NVL72
AMD cho biết rack Helios sẽ cạnh tranh trực tiếp hệ NVL của Nvidia, với mục tiêu ghép 72 chip MI455X để tương ứng cấu hình 72 GPU Rubin trong NVL72.
Tại CES 2026 ở Las Vegas, CEO Lisa Su lần đầu trình diễn một rack Helios kích thước lớn trên sân khấu và mô tả các điểm chính về thiết kế, cách xây dựng hệ thống. Điểm nhấn nằm ở hướng tiếp cận “rack-scale” giống xu thế Nvidia đang dẫn dắt, nơi cấu hình được tối ưu theo khối hệ thống thay vì chỉ tập trung vào từng GPU.
Theo bà Su, Helios sẽ nhắm vào phân khúc mà Nvidia đặt chuẩn với các hệ NVL, đặc biệt là Vera Rubin NVL72. AMD nêu mục tiêu “cân đối lực lượng” ở cấp độ rack: 72 chip MI455X so với 72 GPU Rubin trong NVL72. Cách so sánh này cho thấy AMD muốn được đánh giá bằng tổng thông lượng hệ thống và khả năng mở rộng theo rack.
Dòng GPU MI500 được AMD kỳ vọng tăng hiệu năng AI tối đa 1.000 lần so với MI300X
AMD công bố thêm thông tin về GPU MI500 và tuyên bố chúng có thể đạt tối đa 1.000 lần hiệu năng AI so với MI300X, nhằm đáp ứng nhu cầu tính toán tăng mạnh trong các năm tới.
Trong phần cập nhật sản phẩm, AMD cho biết hãng có kế hoạch mở rộng nỗ lực AI bằng việc cung cấp thêm chi tiết về dòng MI500. Thông tin được nhắc kèm trong bài đăng tại Yahoo Finance.
CEO Lisa Su nhấn mạnh mức tăng hiệu năng là cần thiết trong vài năm tới và đưa ra nhận định rằng trong 5 năm tới có thể sẽ có khoảng 5 tỷ người dùng AI hằng ngày. Dù đây là dự báo, thông điệp chính là: năng lực tính toán toàn cầu phải tăng nhanh để phục vụ cả huấn luyện và suy luận, kéo theo nhu cầu về GPU, CPU, mạng và lưu trữ chuyên dụng.
AMD mở rộng danh mục PC AI và trung tâm dữ liệu với Ryzen AI 400, Ryzen AI Pro 400 và MI455
AMD giới thiệu các chip Ryzen AI 400 và Ryzen AI Pro 400 cho PC, đồng thời trình diễn bộ xử lý MI455 như thành phần quan trọng trong trung tâm dữ liệu chạy chương trình AI.
Song song với Helios và lộ trình GPU, AMD công bố dòng Ryzen AI 400 series cho PC và đưa MI-455 lên sân khấu. Theo AMD, MI455 là mảnh ghép cốt lõi cho các trung tâm dữ liệu cung cấp năng lực tính toán cho ứng dụng AI, nhấn mạnh định hướng “end-to-end” từ thiết bị người dùng đến hạ tầng doanh nghiệp.
AMD cũng đưa Ryzen AI Pro 400 series vào nhóm sản phẩm hướng doanh nghiệp, với mục tiêu cạnh tranh trực tiếp các bộ xử lý Core Ultra 3 mới của Intel. AMD lưu ý Core Ultra 3 được xây dựng trên công nghệ tiến trình 18A của Intel, cho thấy cạnh tranh đang diễn ra đồng thời ở cả mảng PC AI lẫn máy chủ AI.
Robot hình người GENE.01 được trình diễn như ví dụ ứng dụng AI công nghiệp chạy trên CPU và GPU của AMD
CEO Lisa Su mời CEO Generative Bionics lên sân khấu để ra mắt robot hình người GENE.01, thiết kế cho môi trường công nghiệp và chạy bằng CPU, GPU của AMD.
Trong bài phát biểu, CEO Daniele Pucci của Generative Bionics xuất hiện để giới thiệu GENE.01 lần đầu tiên. AMD cho biết robot này dùng phần cứng của AMD và được tối ưu cho vận hành trong môi trường công nghiệp, qua đó minh họa nhu cầu AI không chỉ nằm ở mô hình trên cloud mà còn đi vào hệ thống vật lý cần tính toán ổn định tại chỗ.
AMD dự báo năng lực tính toán toàn cầu cần tăng ít nhất 100 lần trong vài năm tới
AMD nhận định các công ty công nghệ sẽ phải tăng năng lực tính toán toàn cầu ít nhất 100 lần trong vài năm tới, xu hướng có thể mang lợi ích cho cả AMD và Nvidia.
AMD cho rằng tốc độ mở rộng nhu cầu AI sẽ buộc ngành công nghệ nâng công suất tính toán ở quy mô rất lớn. Công ty cũng nêu bối cảnh thị trường khi đề cập vốn hóa của Nvidia ở mức 4,5 nghìn tỷ USD và của AMD là 359 tỷ USD, phản ánh kỳ vọng tăng trưởng mạnh quanh hạ tầng AI.
Ryzen AI Max+ và nền tảng Halo nhắm đến phát triển mô hình AI cục bộ trên mini-PC
AMD công bố Ryzen AI Max+ cho workstation nhẹ, mini-PC và laptop, đồng thời giới thiệu nền tảng Halo để nhà phát triển xây mô hình AI cục bộ thay vì phụ thuộc cloud.
AMD cho biết chip Ryzen AI Max+ hướng tới nhiều thiết bị hiệu năng cao gọn nhẹ. Hãng cũng trình làng nền tảng phát triển Ryzen Halo, trong đó mini-PC cho phép nhà phát triển dựng và chạy mô hình AI ngay trên máy, hữu ích cho các tình huống cần kiểm soát dữ liệu, độ trễ thấp, hoặc môi trường hạn chế kết nối.
AMD định vị Halo cạnh tranh với DGX Spark mini-PC của Nvidia, được mô tả có giá gần 4.000 USD. Tuy nhiên, AMD chưa công bố giá cho Halo, nên bức tranh tổng chi phí sở hữu vẫn cần chờ thêm thông tin.
Nền tảng Nvidia Rubin hợp nhất GPU Rubin và CPU Vera trong một “Vera Rubin processor”
Nvidia giới thiệu Rubin Platform kết hợp Rubin GPUs và Vera CPU để tạo thành một bộ xử lý Vera Rubin, nhắm tới các tác vụ agentic AI và mô hình suy luận nâng cao.
Thông tin về Rubin Platform được nêu tại Yahoo Finance. Nvidia mô tả đây là nền tảng phù hợp cho agentic AI với các mô hình reasoning tiên tiến, cho thấy hãng tiếp tục đóng gói phần cứng và hệ sinh thái theo dạng “platform” thay vì sản phẩm rời rạc.
“Rubin xuất hiện đúng thời điểm, khi nhu cầu tính toán AI cho cả huấn luyện và suy luận đang tăng vọt.”
– Jensen Huang, CEO Nvidia, Yahoo Finance/2026
Rubin Platform mở rộng thành hệ thống gồm DPU, switch và SuperNIC cho kết nối trung tâm dữ liệu
Nvidia cho biết Rubin Platform không chỉ có GPU và CPU, mà còn gồm DPU, switch và SuperNIC để triển khai ở quy mô trung tâm dữ liệu.
Theo Nvidia, Rubin Platform bao gồm Nvidia BlueField-4 DPU, Nvidia NVLink 6 Switch, Nvidia Spectrum-6 Ethernet Switch và Nvidia ConnectX-9 SuperNIC. Cấu trúc này cho thấy trọng tâm nằm ở hạ tầng truyền dữ liệu nội bộ và I/O, vốn thường trở thành nút thắt khi mô hình tăng kích thước và khi cụm máy mở rộng.
Nvidia cũng nêu rằng việc kết hợp nhiều hệ NVL72 có thể tạo thành siêu máy tính AI DGXX SuperPOD. Công ty đề cập các hyperscaler như Microsoft, Amazon, Meta và Google đang chi hàng tỷ USD để mua các hệ thống quy mô lớn, phản ánh mô hình đầu tư capex mạnh cho trung tâm dữ liệu AI.
Nvidia nói Rubin giúp giảm số GPU cần cho huấn luyện và giảm chi phí token khi suy luận
Nvidia cho biết Rubin hiệu quả hơn thế hệ trước, có thể giảm 4 lần số GPU cần để huấn luyện cùng hệ MoE và cắt chi phí token suy luận tới 10 lần.
Theo mô tả, giảm số GPU cho cùng bài toán huấn luyện đồng nghĩa giải phóng phần cứng cho tác vụ khác trong trung tâm dữ liệu. Nvidia cũng nhấn mạnh lợi ích ở suy luận thông qua việc giảm chi phí token, yếu tố ảnh hưởng trực tiếp đến chi phí vận hành các ứng dụng AI tiêu thụ lượng lớn truy vấn.
Nvidia quảng bá lưu trữ AI Inference Context Memory Storage cho mô hình suy luận nhiều bước
Nvidia tiếp tục giới thiệu hệ lưu trữ Inference Context Memory Storage, được thiết kế để lưu và chia sẻ dữ liệu do mô hình reasoning đa bước quy mô 1 nghìn tỷ tham số tạo ra.
Theo Nvidia, hệ lưu trữ “AI-driven” này nhắm tới việc quản lý dữ liệu ngữ cảnh phát sinh khi mô hình suy luận nhiều bước, vốn có thể tạo lượng dữ liệu lớn cần chia sẻ giữa các thành phần hệ thống. Điều này bổ trợ cho chiến lược tích hợp toàn stack: GPU/CPU, mạng, DPU và lưu trữ để tối ưu tổng thể hiệu năng và chi phí.
Những câu hỏi thường gặp
Helios AI rack của AMD là gì và ra mắt khi nào?
Helios là hệ thống rack AI thế hệ mới của AMD, dự kiến được AMD giới thiệu tại CES 2026 ở Las Vegas. CEO Lisa Su đã cho xem trước hệ thống và nói Helios được thiết kế để cạnh tranh trực tiếp các hệ NVL của Nvidia.
AMD so sánh Helios với Nvidia NVL72 như thế nào?
AMD cho biết Helios sẽ cạnh tranh với Nvidia Vera Rubin NVL72 và đặt mục tiêu cấu hình 72 chip MI455X để “đối sánh” với NVL72 có 72 GPU Rubin ở cấp độ rack-scale.
MI500 của AMD được nói có mức tăng hiệu năng ra sao?
AMD tuyên bố dòng GPU MI500 có thể cung cấp tối đa 1.000 lần hiệu năng AI so với MI300X. Đây là tuyên bố định hướng năng lực xử lý cần thiết cho giai đoạn vài năm tới.
Ryzen Halo developer platform của AMD nhắm tới điều gì?
Nền tảng Ryzen Halo được AMD giới thiệu như một hướng để nhà phát triển xây và chạy mô hình AI cục bộ trên mini-PC, giảm phụ thuộc vào giải pháp cloud trong một số kịch bản như độ trễ thấp hoặc cần kiểm soát dữ liệu.
Nvidia Rubin Platform gồm những thành phần nào ngoài GPU và CPU?
Nvidia cho biết Rubin Platform, ngoài Rubin GPUs và Vera CPUs, còn có BlueField-4 DPU, NVLink 6 Switch, Spectrum-6 Ethernet Switch và ConnectX-9 SuperNIC để phục vụ triển khai trung tâm dữ liệu.
Nvidia nói Rubin cải thiện chi phí và hiệu quả huấn luyện/suy luận như thế nào?
Nvidia cho biết Rubin hiệu quả hơn thế hệ trước, có thể giảm 4 lần số GPU cần để huấn luyện cùng hệ MoE và giảm chi phí token suy luận tới 10 lần, đồng thời cho phép phân bổ GPU “dư” sang tác vụ khác.
