Cisco ra mắt Silicon One G300 (102,4 Tbps) để cạnh tranh trực tiếp với chip băng thông cao của Nvidia và Broadcom trong mạng trung tâm dữ liệu phục vụ AI.
Động thái này nhắm vào nhu cầu kết nối cho các cụm GPU ngày càng lớn, nơi băng thông, độ ổn định và khả năng vận hành quyết định tốc độ huấn luyện, suy luận và chi phí triển khai AI ở quy mô doanh nghiệp.
- Cisco công bố Silicon One G300 với thông lượng chuyển mạch 102,4 Tbps cho triển khai GPU quy mô lớn.
- G300 dùng 512 SerDes 200 Gbps, có thể hợp nhất để đạt kết nối tới 1,6 Tbps và giảm số switch cần thiết cho cụm 128.000 GPU.
- Cisco giới thiệu AgenticOps qua AI Canvas và tối ưu Nexus One để đơn giản hóa vận hành, gỡ nút thắt mở rộng data center AI.
Cisco đưa Silicon One G300 vào cuộc đua mạng AI cho trung tâm dữ liệu
Silicon One G300 là silicon chuyển mạch 102,4 Tbps được Cisco định vị để cạnh tranh với các giải pháp mạng AI băng thông cao, đồng thời phục vụ triển khai GPU lớn trong data center.
Cisco cho biết G300 có 512 SerDes xử lý dữ liệu ở mức 200 Gigabits/giây, tương tự cách tiếp cận của các chip băng thông cao trên thị trường. Hệ SerDes này có thể hợp nhất để tạo kết nối nhanh hơn, tối đa tới 1,6 terabits/giây.
Theo công bố, radix lớn giúp hạ số lượng thiết bị mạng cần dùng cho cụm GPU quy mô rất lớn: triển khai tới 128.000 GPU chỉ cần 750 switch, so với 2.500 switch trước đây để đạt cùng mức đầu ra. Điểm này nhắm đến việc giảm độ phức tạp khi mở rộng mạng, số lượng hop và chi phí vận hành.
Cisco cho biết G300 có thể là nền tảng cho các hệ thống Cisco N9000 và Cisco 8000, những dòng thiết bị hãng đặt ở “trung tâm” của mạng AI trong data center. Mục tiêu là tăng khả năng ghép nối hạ tầng mạng với các cụm GPU mật độ cao.
Cisco cũng nêu việc tích hợp các hệ thống làm mát bằng chất lỏng mới giúp switch vận hành với optics mật độ cao và đạt các mốc hiệu quả mới. Hãng đồng thời cho biết đã tối ưu Nexus One để tinh giản vận hành phát triển AI cho doanh nghiệp và loại bỏ nhiều lớp phức tạp có thể cản trở việc mở rộng data center AI.
“Cisco đang dẫn dắt hiệu năng, khả năng quản trị và bảo mật trong mạng AI bằng cách đổi mới trên toàn bộ ngăn xếp – từ silicon đến hệ thống và phần mềm.”
– Jeetu Patel, Chủ tịch kiêm Giám đốc Sản phẩm, Cisco
Silicon One G300 sẽ mang lại “mạng hiệu năng cao, có thể lập trình và có tính quyết định” để giúp người dùng “tận dụng tối đa năng lực tính toán và mở rộng AI một cách an toàn, đáng tin cậy trong môi trường sản xuất.”
– Martin Lund, Phó Chủ tịch Điều hành, Common Hardware Group, Cisco
Cisco nói G300 tăng mức khai thác mạng và rút ngắn thời gian hoàn tất tác vụ AI
Cisco cho biết G300 cung cấp “Intelligent Collective Networking”, giúp tăng mức sử dụng mạng 33% và giảm thời gian hoàn tất tác vụ 28% so với mô phỏng chọn đường không tối ưu.
Theo mô tả của Cisco, cơ chế này tập trung vào tối ưu đường đi để nâng mức utilization và giảm thời gian thực thi job trong mạng của cụm GPU. Hãng cũng liên hệ lợi ích vận hành với hiệu quả kinh tế của data center AI, chẳng hạn tăng “tokens tạo ra trên mỗi GPU-giờ”.
Cisco nhấn mạnh switch được thiết kế để xử lý kiểu lưu lượng AI “bùng nổ” (bursty), phản ứng nhanh hơn khi xảy ra lỗi đường truyền và giảm nguy cơ rơi gói (packet drops) vốn có thể làm treo job. Mục tiêu là đảm bảo chuyển dữ liệu tin cậy ngay cả trên khoảng cách xa trong các triển khai quy mô lớn.
Sự linh hoạt sau triển khai là điểm nhấn của Silicon One G300
Cisco cho biết G300 có tính lập trình cao và vẫn tương thích với các chức năng mạng mới ngay cả sau khi đã triển khai, nhằm hỗ trợ nhiều vai trò mạng và các use case mới.
Theo Cisco, khả năng mở rộng chức năng sau triển khai giúp switch đảm nhiệm nhiều vai trò mạng, hỗ trợ các tình huống sử dụng mới nổi, đồng thời bảo vệ đầu tư hạ tầng dài hạn. Hãng cũng nói đến “bảo mật toàn diện ở tốc độ đường truyền” (at-speed security) để duy trì hiệu quả vận hành của các cụm AI.
AgenticOps qua AI Canvas nhắm đến đơn giản hóa khâu khắc phục sự cố mạng data center
Cisco công bố phát hành AgenticOps cho mạng trung tâm dữ liệu thông qua AI Canvas, hướng tới hỗ trợ xử lý sự cố bằng hội thoại có hướng dẫn và có con người giám sát.
Theo mô tả, AgenticOps hỗ trợ quy trình troubleshooting bằng các cuộc hội thoại “human-in-the-loop”, chuyển đổi tác vụ phức tạp thành các bước xử lý có thể hành động. Trọng tâm là giảm thời gian xác định nguyên nhân, đơn giản hóa thao tác vận hành và tăng tính nhất quán khi xử lý sự cố trong môi trường AI data center.
Chi tiết công bố của Cisco có thể xem tại: thông cáo ra mắt Silicon One G300 của Cisco.
Bối cảnh thị trường chip hưởng lợi từ nhu cầu data center
Các nhận định trong ngành cho rằng thị trường chip có thể tiếp tục tăng trưởng, được thúc đẩy bởi nhu cầu chip mạnh hơn cho data center trên toàn cầu.
Bài viết dẫn lời John Neuffer, lãnh đạo Semiconductor Industry Association, rằng ngành bán dẫn là nền tảng của các ngành chiến lược quan trọng. Bối cảnh này được mô tả là giúp gia tăng nhu cầu với chip hiệu năng cao, qua đó tạo điều kiện cho các nhà sản xuất chip ghi nhận doanh số tốt trong làn sóng mở rộng hạ tầng AI.
Những câu hỏi thường gặp
Silicon One G300 của Cisco có thông lượng bao nhiêu?
Cisco cho biết Silicon One G300 là silicon chuyển mạch đạt 102,4 Tbps, nhắm đến các mạng trung tâm dữ liệu phục vụ AI và triển khai GPU quy mô lớn.
G300 có gì đáng chú ý về SerDes và tốc độ kết nối?
G300 có 512 SerDes ở mức 200 Gbps. Cisco cho biết các SerDes có thể hợp nhất để hỗ trợ kết nối nhanh hơn, tối đa tới 1,6 Tbps.
Cisco nói G300 giúp giảm số switch trong cụm GPU như thế nào?
Cisco nêu rằng có thể triển khai tới 128.000 GPU chỉ với 750 switch, so với 2.500 switch trước đây để đạt cùng mức đầu ra.
AgenticOps là gì trong thông báo của Cisco?
Cisco cho biết AgenticOps cho mạng trung tâm dữ liệu được phát hành qua AI Canvas, hỗ trợ khắc phục sự cố bằng hội thoại có hướng dẫn và có con người tham gia giám sát, giúp biến tác vụ phức tạp thành hướng xử lý cụ thể.



