Anthropic vừa thực hiện bước tiến mới nhất trong cuộc chiến AI viết code
Cuộc cạnh tranh giành ưu thế trong mảng AI phục vụ lập trình đang nóng lên rõ rệt. Một trong những chiến tuyến then chốt của cuộc đua này là “context window” — bộ nhớ làm việc của mô hình AI, đại diện cho lượng văn bản mà mô hình có thể đồng thời tiếp nhận, duy trì và cân nhắc khi sinh đáp án. Ở phương diện đó, Anthropic vừa giành thêm lợi thế. Hôm nay, startup AI này thông báo tăng gấp 5 lần context window khi tăng tốc chạy đua với OpenAI, Google và các đối thủ dẫn đầu khác, cho thấy tốc độ lặp sản phẩm nhanh và định hướng rõ ràng vào các trường hợp sử dụng ở quy mô doanh nghiệp.
Context windows được đo bằng token ( đơn vị tối thiểu của văn bản đầu vào/đầu ra được mô hình sử dụng để tính toán), và mức mới dành cho Claude Sonnet 4 — một trong các mô hình chủ lực mạnh nhất của Anthropic — có thể xử lý 1 triệu token. Để tham chiếu, trước đây Anthropic từng cho biết một context window 500 nghìn token có thể bao trùm xấp xỉ 100 cuộc gọi bán hàng kéo dài nửa giờ hoặc khoảng 15 báo cáo tài chính. Với mốc mới gấp đôi, người dùng có thể đưa vào bối cảnh hàng chục bài nghiên cứu học thuật hoặc hàng trăm tài liệu trong một yêu cầu API duy nhất, theo khẳng định của Anthropic, giúp giảm thiểu tình trạng phân mảnh tài liệu và rủi ro mất mát ngữ nghĩa xuyên suốt.
Quan trọng hơn cả, năng lực phục vụ lập trình tăng cường rõ rệt — nâng từ khả năng phân tích khoảng 20.000 dòng mã (ứng với context window 200 nghìn token trước đó) lên quy mô toàn bộ codebase (toàn bộ kho mã nguồn của một dự án/phần mềm, bao gồm cấu trúc thư mục, tệp mã, phụ thuộc, cấu hình và lịch sử thay đổi) ước tính 75.000 đến 110.000 dòng. Với ngưỡng ngữ cảnh mới, mô hình có thể duy trì “bức tranh tổng thể” của hệ thống phần mềm, nắm bắt quan hệ phụ thuộc giữa các mô-đun, thư viện và lớp trừu tượng, cũng như lịch sử thay đổi theo thời gian; từ đó giảm nhu cầu chia nhỏ đầu vào vốn khiến việc truy vết lỗi hoặc hiểu kiến trúc trở nên rời rạc.
“Đây là bước tiến thực sự ấn tượng vì nó tháo gỡ một trong những rào cản lớn nhất mà tôi thấy ở khách hàng,” Brad Abrams, lãnh đạo sản phẩm của Claude, chia sẻ với The Verge trong một cuộc phỏng vấn. “Trước đây họ buộc phải chia nhỏ vấn đề thành từng mảnh để phù hợp với context window hiện tại; còn với 1 triệu token, mô hình có thể tiếp nhận toàn bộ phạm vi bối cảnh — xử lý bài toán ở quy mô đầy đủ của nó.” Lập luận này phản ánh đúng nhu cầu của các đội ngũ kỹ sư khi xử lý tác vụ phức tạp đòi hỏi hiểu biết liên mô-đun và liên phiên làm việc.
Abrams cho biết Sonnet 4 hiện có thể hấp thụ khối lượng tương đương khoảng 2.500 trang văn bản, và rằng “một bản đầy đủ của Chiến tranh và Hòa bình cũng dễ dàng vừa vặn trong đó.” Ở quy mô này, các quy trình như rà soát pháp lý đa tài liệu, tổng hợp báo cáo tài chính nhiều kỳ, hay tổng hợp nghiên cứu liên ngành có thể gói gọn vào một lượt truy vấn duy nhất, giúp chuẩn hoá dòng công việc và cắt giảm chi phí điều phối giữa các công cụ.
Tuy nhiên, Anthropic không phải là công ty AI đầu tiên đưa ra context window ở ngưỡng cao như vậy. Họ vẫn ở thế bám đuổi: vào tháng 4, GPT-4.1 của OpenAI đã công bố mức tương đương. Sự kiện này đặt động thái của Anthropic trong bối cảnh cạnh tranh “rượt đuổi bậc thang”, nơi các hãng liên tục hoán đổi vị trí dẫn đầu bằng những cập nhật kỹ thuật nhằm thu hút nhà phát triển và khách hàng doanh nghiệp.
Đối với các nhà cung cấp như Anthropic và OpenAI, phân khúc doanh nghiệp sẵn sàng chi ngân sách đáng kể cho trợ lý lập trình — một dòng doanh thu cụ thể, dễ đo lường, đặc biệt hấp dẫn trong bối cảnh các startup AI tiêu tốn nguồn lực lớn cho hạ tầng và R&D. Trong nhiều quý gần đây, cả hai đã đối đầu sát nút trong mảng AI coding, thay nhau tung tính năng cạnh tranh, công bố benchmark và nhấn mạnh chất lượng trải nghiệm. Tuần trước, OpenAI ra mắt GPT-5, nhấn mạnh các thước đo mã hoá vượt trội so với đối thủ. Claude của Anthropic vốn được biết đến với năng lực lập trình, nên dễ hiểu khi công ty muốn giành lại lợi thế — đồng thời, theo các báo cáo, đang hướng đến hoàn tất một vòng gọi vốn có thể đưa định giá lên tới 170 tỷ đô la.
Theo Abrams, các khách hàng của Anthropic trong những lĩnh vực như phát triển phần mềm, dược phẩm, bán lẻ, dịch vụ chuyên môn và pháp lý đặc biệt quan tâm đến khung ngữ cảnh mới này. Đặc điểm của các ngành này là phải xử lý khối lượng tài liệu khổng lồ, các định dạng khác nhau và cần duy trì ý nghĩa thống nhất xuyên suốt; do đó, một khung ngữ cảnh đủ rộng có thể trở thành "cần cẩu" nâng cao hiệu quả, giảm nguy cơ sai sót và hạn chế công việc tiền xử lý tốn kém.
Khi được hỏi liệu việc OpenAI công bố GPT-5 có thúc đẩy Anthropic mở rộng khung ngữ cảnh sớm hơn hay không, Abrams trả lời: "Chúng tôi đang hoạt động rất nhanh và chú trọng lắng nghe ý kiến của khách hàng. Chỉ mới hai tháng rưỡi trước, chúng tôi ra mắt Opus 4 và Sonnet 4, và... một tuần trước, chúng tôi giới thiệu Opus 4.1, và giờ chúng tôi tung ra mốc 1 triệu. Tôi nghĩ điều này cho thấy khách hàng doanh nghiệp của chúng tôi thực sự khao khát những cải tiến này, và chúng tôi đang cố gắng hết sức để mang đến cho họ." Câu trả lời này nhấn mạnh khả năng triển khai với tốc độ cao, đồng thời phản ánh chu kỳ cải tiến sản phẩm được rút ngắn trong ngành.
Khung ngữ cảnh mới hiện đã có sẵn trong Anthropic API cho một số khách hàng nhất định — như những người dùng có Tier 4 và giới hạn tốc độ tùy chỉnh, tức đã đầu tư thời gian và chi phí đáng kể trên nền tảng — và phạm vi mở rộng sẽ được triển khai trong vài tuần tới, theo bài đăng blog của Anthropic. Điều này cho thấy chiến lược "ra mắt theo từng nhóm" nhằm đảm bảo chất lượng dịch vụ và sự ổn định trong vận hành trước khi mở rộng toàn diện.