Các nhà nghiên cứu AI hàng đầu tại Trung Quốc thừa nhận nước này khó bắt kịp Mỹ trong tương lai gần, và nút thắt lớn nhất nằm ở khả năng tiếp cận chip tính toán hiệu năng cao.
Những hạn chế xuất khẩu của Mỹ với chip Nvidia đang buộc doanh nghiệp Trung Quốc phải tìm cách thuê năng lực tính toán ở nước thứ ba, đồng thời chuyển trọng tâm từ nghiên cứu thế hệ tiếp theo sang ứng dụng sản phẩm. Dù vậy, một số công ty vẫn thu hẹp khoảng cách nhờ tối ưu hiệu suất.
- Thiếu chip tiên tiến và hạn chế xuất khẩu khiến AI Trung Quốc khó rút ngắn khoảng cách với Mỹ.
- Lãnh đạo ngành ước tính cơ hội vượt OpenAI/Anthropic trong 3–5 năm chỉ khoảng 20% hoặc thấp hơn.
- DeepSeek và các mô hình mã nguồn mở giúp thu hẹp chênh lệch, nhưng năng lực sản xuất chip vẫn là điểm nghẽn.
Khoảng cách AI Mỹ–Trung có thể đang nới rộng vì chip
Điểm nghẽn lớn nhất với AI Trung Quốc là chip: hạn chế mua GPU tiên tiến khiến khả năng mở rộng huấn luyện mô hình bị bó hẹp, làm khó việc đuổi kịp Mỹ trong ngắn hạn.
Tại một hội nghị ở Bắc Kinh, Tang Jie (nhà sáng lập công ty AI Zhipu) cảnh báo khoảng cách có thể không thu hẹp mà còn “đang nới rộng”, dù Trung Quốc vẫn có tiến bộ ở một số mảng. Nhận định này đi ngược với các tiêu đề lạc quan trước đó, nhưng phản ánh ràng buộc phần cứng ngày càng rõ.
Sự thiếu hụt càng lộ diện khi Nvidia ra mắt phần cứng Rubin vào tháng 1 và công bố nhiều khách hàng Mỹ, trong khi không nêu tên nhà phát triển AI Trung Quốc. Các quy định của Mỹ ngăn Nvidia bán trực tiếp Rubin sang Trung Quốc, khiến nguồn cung chip cho các dự án huấn luyện quy mô lớn trở nên bấp bênh.
Để “lách” bài toán GPU, một số doanh nghiệp Trung Quốc trao đổi về việc thuê năng lực tính toán từ các trung tâm dữ liệu ở Đông Nam Á và Trung Đông nhằm tiếp cận chip Rubin. Trước đó, thị trường cũng từng tìm cách tiếp cận dòng chip Blackwell của Nvidia theo hướng tương tự.
Các phương án thông qua nước thứ ba phần lớn được xem là hợp pháp, nhưng tạo ra ma sát vận hành và chi phí cơ hội. So với đối thủ Mỹ có ngân sách dồi dào và mua chip mới nhất thuận lợi hơn, các nhóm AI Trung Quốc thường phải chấp nhận số lượng chip ít hơn và rủi ro triển khai cao hơn.
Xác suất bắt kịp trong 3–5 năm được đánh giá 20% hoặc thấp hơn
Lãnh đạo kỹ thuật của Qwen (Alibaba) ước tính cơ hội để một công ty Trung Quốc vượt OpenAI và Anthropic trong 3–5 năm chỉ khoảng 20% hoặc thấp hơn.
Tại cùng hội nghị, Justin Lin (phụ trách phát triển mô hình Qwen) được hỏi liệu doanh nghiệp Trung Quốc có thể “nhảy vọt” lên trước OpenAI và Anthropic trong 3–5 năm tới hay không. Ông trả lời xác suất khoảng 20% hoặc thấp hơn, phản ánh niềm tin rằng lợi thế phần cứng và hệ sinh thái đang nghiêng về phía Mỹ.
Kiểm soát xuất khẩu từ Mỹ khiến nhiều công ty Trung Quốc dè dặt khi theo đuổi AI tiên phong, vì các hướng này cần lượng tính toán khổng lồ. Thay vào đó, họ ưu tiên đưa AI vào sản phẩm thường nhật để tạo doanh thu và đáp ứng nhu cầu giao hàng, trong khi các công ty Mỹ vẫn liên tục mua thế hệ chip mới để đẩy nghiên cứu dài hạn.
Justin Lin cho biết một lượng tính toán rất lớn tại OpenAI và các công ty Mỹ được dành cho nghiên cứu thế hệ tiếp theo, còn nguồn lực ở phía Trung Quốc bị “căng mỏng”. Theo ông, chỉ riêng việc đáp ứng nhu cầu bàn giao đã tiêu tốn phần lớn tài nguyên.
UBS ước tính các công ty internet lớn nhất Trung Quốc đã chi khoảng 57 tỷ USD cho đầu tư vốn trong năm ngoái, phần đáng kể liên quan đến AI. Mức này được mô tả là xấp xỉ bằng một phần mười so với chi tiêu của các công ty Mỹ trong cùng kỳ.
Dù vậy, giới đầu tư vẫn chưa loại trừ khả năng bứt phá. DeepSeek cho thấy có thể làm được nhiều với nguồn lực hạn chế. Zhipu và MiniMax cũng huy động tổng cộng hơn 1 tỷ USD thông qua chào bán cổ phiếu tại Hồng Kông trong tháng này, và cổ phiếu MiniMax tăng hơn gấp đôi so với giá khởi điểm.
“Sự thật có thể là khoảng cách thực sự đang nới rộng. Dù chúng tôi làm tốt ở một số lĩnh vực, chúng tôi vẫn phải thừa nhận những thách thức và chênh lệch đang đối mặt.”
– Tang Jie, nhà sáng lập Zhipu, phát biểu tại hội nghị ở Bắc Kinh
“Một lượng tính toán khổng lồ ở OpenAI và các công ty Mỹ khác dành cho nghiên cứu thế hệ tiếp theo, trong khi chúng tôi bị kéo căng nguồn lực. Chỉ riêng việc đáp ứng nhu cầu giao hàng đã tiêu tốn phần lớn tài nguyên.”
– Justin Lin, phụ trách phát triển mô hình Qwen (Alibaba)
DeepSeek thu hẹp chênh lệch nhờ tối ưu hiệu suất và công bố nghiên cứu
DeepSeek gây chú ý bằng cách đẩy mạnh hiệu suất huấn luyện, chia sẻ phương pháp và tài liệu kỹ thuật giúp xây mô hình lớn hơn với ít chip hơn, góp phần rút ngắn khoảng cách với các mô hình hàng đầu của Mỹ.
DeepSeek từng thu hút sự quan tâm tại Mỹ với một mô hình mạnh khoảng một năm trước. Sau đó, công ty chia sẻ các phương pháp tăng hiệu quả phát triển AI và được một số nhà nghiên cứu phương Tây tiếp nhận. Tháng này, DeepSeek công bố hai bài báo mô tả thiết lập huấn luyện mới và thiết kế bộ nhớ nhằm cải thiện khả năng chạy mô hình.
Thiết lập huấn luyện mới được DeepSeek mô tả trong bài thiết lập huấn luyện hướng tới việc xây mô hình lớn hơn với ít chip hơn. Bài còn lại tập trung vào thiết kế bộ nhớ để giúp mô hình vận hành hiệu quả hơn trong thực tế.
Theo Epoch AI, các mô hình từ DeepSeek và Alibaba đã rút khoảng cách với nhóm dẫn đầu của Mỹ xuống còn khoảng 4 tháng, từ mức trung bình 7 tháng trong các năm gần đây. Nhiều mô hình hàng đầu của Trung Quốc theo hướng mã nguồn mở, cho phép tải về và chỉnh sửa, giúp nâng độ phủ và tốc độ lan tỏa so với các mô hình hàng đầu của Mỹ vốn thường đóng.
Tuy nhiên, DeepSeek cũng gặp trở ngại phần cứng khi xây mô hình chủ lực mới vào năm ngoái. Nhóm dự án đã thử chip từ Huawei và một số nhà sản xuất Trung Quốc khác nhưng kết quả không đạt kỳ vọng, sau đó chuyển sang dùng chip Nvidia cho một phần khối lượng công việc. Công ty được cho là đã có tiến triển và dự kiến phát hành mô hình trong vài tuần tới.
“Nút thắt chính là năng lực sản xuất chip.”
– Yao Shunyu, lãnh đạo AI tại Tencent, phát biểu tại sự kiện ở Bắc Kinh
H200 được phép bán sang Trung Quốc khó tạo khác biệt lớn
Việc Nvidia được phép bán chip H200 sang Trung Quốc được đánh giá không thay đổi cục diện, vì H200 đã tụt hai thế hệ so với Rubin và không đủ mạnh để huấn luyện các mô hình AI hàng đầu.
Theo các nguồn trong ngành, H200 hiện kém xa Rubin (được mô tả là hai thế hệ phía sau) và đã trở nên quá yếu đối với bài toán huấn luyện mô hình tiên tiến. Ngoài ra, các công ty vẫn cần chờ phê duyệt từ Bắc Kinh để mua chip, trong bối cảnh cơ quan chức năng được cho là đang soạn thảo quy tắc quản lý việc mua sắm.
Mảng kinh doanh của Nvidia tại Trung Quốc tiếp tục chịu tác động chính trị. Doanh thu từ Trung Quốc giảm 45% so với cùng kỳ xuống khoảng 3 tỷ USD trong quý gần nhất. Trong khi đó, tổng doanh thu quý 3 của Nvidia đạt 57 tỷ USD, tăng hơn 60%, và công ty trở thành doanh nghiệp đầu tiên đạt mức định giá 5 nghìn tỷ USD vào mùa thu năm ngoái.
Rủi ro dài hạn với Nvidia là khả năng các công ty Trung Quốc phát triển phần mềm mã nguồn mở chạy tốt trên nhiều loại chip, không chỉ Nvidia. Lợi thế cạnh tranh của Nvidia phần lớn gắn với nền tảng CUDA, vốn tạo hiệu ứng “khóa” nhà phát triển vào hệ GPU của hãng.
“Đó mới là kịch bản ác mộng thực sự.”
– Jay Goldberg, nhà phân tích tại Seaport
Nếu các nhà phát triển Trung Quốc, bị buộc phải dùng chip nội địa, xây được bộ công cụ phần mềm được toàn cầu chấp nhận, lợi thế phòng thủ của Nvidia có thể bị xói mòn. Ở chiều ngược lại, CEO Jensen Huang cho rằng Trung Quốc chỉ chậm Mỹ “tính bằng nano giây” trong AI và nhấn mạnh Mỹ cần chiến thắng bằng cách tăng tốc và giành nhà phát triển trên toàn thế giới.
Những câu hỏi thường gặp
Vì sao Trung Quốc khó bắt kịp Mỹ về AI trong ngắn hạn?
Nguyên nhân chính là hạn chế tiếp cận chip tính toán hiệu năng cao, đặc biệt là các GPU mới của Nvidia, khiến năng lực huấn luyện mô hình quy mô lớn bị giới hạn và chi phí vận hành tăng do phải tìm giải pháp thay thế qua nước thứ ba.
Doanh nghiệp Trung Quốc đang làm gì để có tài nguyên tính toán?
Một hướng được thảo luận là thuê năng lực tính toán từ trung tâm dữ liệu ở Đông Nam Á và Trung Đông để tiếp cận các dòng chip bị hạn chế. Cách làm này có thể hợp pháp nhưng thường khiến họ có ít chip hơn và phức tạp vận hành hơn so với đối thủ Mỹ.
DeepSeek đã thu hẹp khoảng cách với các mô hình Mỹ như thế nào?
DeepSeek tập trung vào tối ưu hiệu suất và công bố nghiên cứu kỹ thuật, gồm thiết lập huấn luyện giúp xây mô hình lớn hơn với ít chip hơn và thiết kế bộ nhớ giúp mô hình chạy hiệu quả, qua đó rút ngắn độ trễ so với các mô hình dẫn đầu.
Vì sao H200 khó thay đổi cuộc chơi AI tại Trung Quốc?
H200 được nhận định đã tụt hai thế hệ so với Rubin và không còn đủ mạnh để huấn luyện các mô hình AI hàng đầu. Thêm vào đó, doanh nghiệp còn phải chờ phê duyệt mua sắm từ phía Trung Quốc, khiến tác động thực tế có thể hạn chế.
