Một bước tiến lớn cho trung tâm dữ liệu AI
Cisco vừa ra mắt Cisco 8223, một router được trang bị ASIC Silicon One P200 với băng thông 51,2 Tbps, hứa hẹn giải quyết những giới hạn về năng lượng, dung lượng và khả năng mở rộng của các trung tâm dữ liệu hiện nay. Thiết kế của Cisco hướng đến việc kết nối các trung tâm dữ liệu rời rạc — hay còn gọi là “bit barn” — trở thành một cụm tính toán thống nhất, đủ sức hỗ trợ hàng triệu GPU chạy các mô hình AI lớn.
Khi kết hợp với quang học coherent 800 Gbps, Cisco cho biết 8223 có thể kết nối các trung tâm dữ liệu cách nhau lên tới 1.000 km. Về lý thuyết, nếu triển khai đủ số lượng router, băng thông tổng hợp có thể đạt 3 exabit/giây, vượt xa nhu cầu của bất kỳ siêu cụm huấn luyện AI nào hiện nay.
“Mạng như vậy cho phép triển khai đa site với hàng triệu GPU,” một kỹ sư Cisco giải thích, “nhưng để đạt được mức băng thông đó, cần hàng ngàn router — chi phí không hề rẻ.”
Đối với các doanh nghiệp không cần băng thông tối đa, Cisco vẫn cung cấp giải pháp mạng hai tầng nhỏ hơn với khả năng lên tới 13 Pbps, đảm bảo linh hoạt và mở rộng theo nhu cầu.
Chiến lược mở rộng liên trung tâm dữ liệu
Ý tưởng về mạng tốc độ cực cao, liên kết nhiều trung tâm dữ liệu đã thu hút sự chú ý của các “ông lớn” đám mây, bao gồm Microsoft và Alibaba. Dennis Cai, Trưởng bộ phận hạ tầng mạng của Alibaba Cloud, phát biểu: “Chip định tuyến mới sẽ cho phép chúng tôi mở rộng mạng Core, thay thế các router chassis truyền thống bằng cụm thiết bị P200. Điều này nâng cao độ ổn định, độ tin cậy và khả năng mở rộng của mạng DCI.”
Cisco không phải là nhà cung cấp duy nhất tham gia xu hướng này. Đầu năm 2025, Broadcom và Nvidia cũng công bố các ASIC và switch mở rộng liên trung tâm dữ liệu:
- Broadcom Jericho4: Switch 51,2 Tbps, kết nối trung tâm dữ liệu cách nhau 100 km với băng thông 100 Pbps, nhắm vào các cụm AI quy mô lớn.
- Nvidia Spectrum-XGS: Switch hướng đến biến các trung tâm dữ liệu phân tán thành siêu máy tính thống nhất, được nhà vận hành CoreWeave cam kết triển khai.
Những bước đi này cho thấy cuộc đua xây dựng siêu cụm AI toàn cầu đã chính thức mở màn, với các ASIC và router mới đóng vai trò “xương sống” cho các mạng dữ liệu tốc độ cực cao.
Vật lý vẫn là rào cản
Dù tốc độ băng thông khổng lồ hứa hẹn kết nối hàng triệu GPU, độ trễ vật lý vẫn là thách thức lớn. Một gói dữ liệu đi từ trung tâm A đến trung tâm B cách nhau 1.000 km mất khoảng 5 ms một chiều, chưa kể các độ trễ phát sinh từ transceiver, bộ khuếch đại, repeater.
Độ trễ là yếu tố quan trọng cần cân nhắc khi kết nối các trung tâm dữ liệu xa nhau.
Tuy nhiên, các nhà nghiên cứu từ DeepMind (Google) đã chỉ ra rằng bằng cách nén mô hình AI và lập lịch thông tin giữa các trung tâm dữ liệu, nhiều hạn chế về độ trễ có thể được khắc phục. Kết hợp với các ASIC mới, phương pháp này giúp khai thác tối đa băng thông mà vẫn duy trì độ ổn định trong huấn luyện AI. “Các giải pháp này biến thách thức vật lý thành cơ hội để mở rộng quy mô AI toàn cầu,” báo cáo nghiên cứu của DeepMind nhận định.
Ai thắng trong cuộc đua ASIC
Cisco, Nvidia và Broadcom đang tạo ra hệ sinh thái các ASIC và router liên trung tâm dữ liệu. Những thiết bị này không chỉ nâng cao băng thông mà còn cách mạng hóa cách các siêu máy AI được triển khai:
- Cho phép tích hợp hàng triệu GPU trong cùng một mạng logic thống nhất.
- Tối ưu hóa mạng lưới dữ liệu, giảm rủi ro quá tải, đảm bảo độ tin cậy.
- Thúc đẩy các mô hình AI siêu lớn với tốc độ huấn luyện nhanh hơn.
Có thể nói, các router như Cisco 8223 đang thay đổi cách thế giới xây dựng siêu cụm AI, mở ra khả năng triển khai AI quy mô toàn cầu mà trước đây chỉ nằm trong lý thuyết.








