Mục lục
Hiện nay, với sự phát triển nhanh chóng của công nghệ mô hình ngôn ngữ lớn (LLM), khả năng xử lý ngữ cảnh dài của AI đã trở thành một thách thức mới. Để AI thật sự có được trí tuệ, việc hiểu ngữ cảnh liên tục và có ý nghĩa chứ không chỉ đơn giản là truyền dữ liệu là điều cần thiết.
Trong mối liên quan này, MCP (Giao thức Ngữ cảnh Mô hình) của Anthropic được chú ý như một bước ngoặt quan trọng trong việc giải quyết vấn đề xử lý ngữ cảnh dài. Tuy nhiên, trước khi MCP ra đời, nhiều công ty công nghệ đã nỗ lực xử lý ngữ cảnh dài và tích hợp các công cụ, và hiện tại vẫn đang đối phó với vấn đề này bằng những cách khác nhau.
Vì vậy, sự phát triển AI trong tương lai có thể được xem là phụ thuộc vào khả năng nâng cao hiệu quả xử lý ngữ cảnh dài này.
Chuỗi bài viết về MCP và Công nghệ Kết Nối AI
Tính năng plugin và gọi hàm của OpenAI
OpenAI đã giới thiệu tính năng plugin ChatGPT vào năm 2023, cho phép tích hợp với API bên ngoài. Nhờ đó, mô hình có thể tương tác với nhiều công cụ bên ngoài như duyệt web hay gọi dịch vụ của bên thứ ba, và thực hiện các tác vụ cụ thể theo quy định của spec OpenAPI.
Tuy nhiên, kiểu tích hợp plugin chỉ hoạt động trong môi trường giao diện web hạn chế của ChatGPT. Mỗi plugin cần tích hợp và lưu trữ riêng biệt, điều này tạo ra giới hạn về khả năng mở rộng và tính nhất quán. Đặc biệt, mỗi plugin yêu cầu quy trình xác thực riêng, gây khó khăn trong việc duy trì dòng chảy đối thoại liên tục và nhận thức công cụ.
Sau đó, OpenAI đã bổ sung tính năng Gọi Hàm (Function Calling), cho phép mô hình gọi các hàm được thiết lập bởi nhà phát triển dưới định dạng JSON. Tính năng này kết hợp với các khung như LangChain để hỗ trợ một cách có cấu trúc hơn trong việc sử dụng công cụ. Tuy nhiên, phương pháp này cũng có giới hạn ở dạng tĩnh chỉ có thể truy cập vào các công cụ đã được định nghĩa trước.
Những thay đổi như vậy đã góp phần nâng cao khả năng sử dụng của mô hình AI, nhưng vẫn còn những phần cần cải thiện. Đó là lý do khiến chúng ta kỳ vọng vào sự phát triển trong tương lai.
Các hạn chế mà MCP đã giải quyết
MCP là một hệ thống đổi mới vượt qua các hạn chế hiện có. Nhờ vào cấu trúc cho phép mô hình tự động nhận diện và sử dụng server MCP mới trong thời gian chạy, nó đã có thể truy cập vào các công cụ một cách động mà không cần định nghĩa trước.
Ví dụ, LangChain đã được cải tiến trong bản cập nhật gần đây để có thể coi server MCP như một nguồn công cụ duy nhất. Điều này cho phép client và server MCP kết hợp với gọi hàm, làm cho AI có khả năng gọi công cụ và hiệu quả sử dụng kết quả. Những thay đổi này mở ra khả năng ứng dụng trong nhiều lĩnh vực khác nhau.
Sự chấp nhận MCP của Microsoft và OpenAI
MCP do Anthropic dẫn dắt, và cả OpenAI và Microsoft cũng đã tham gia vào tiêu chuẩn mới này. OpenAI dự định sẽ thêm hỗ trợ MCP vào SDK đại lý của họ trước cuối năm 2024, nhằm giúp người dùng mô hình OpenAI có thể dễ dàng sử dụng các công cụ thuộc hệ sinh thái MCP.
Mặt khác, Microsoft đã tích hợp MCP vào dịch vụ Azure AI Agents của họ. Vào tháng 3 năm 2025, blog Azure đã đề xuất các ví dụ về cách AI như Claude có thể truy cập vào tìm kiếm Bing hoặc tài liệu SharePoint trong doanh nghiệp theo thời gian thực bằng cách sử dụng MCP. Điều này cho thấy MCP đang trở thành một tiêu chuẩn mở tương thích cho nhiều nền tảng và nhiều mô hình. Sự phát triển này hy vọng sẽ mở rộng khả năng ứng dụng của các công nghệ AI khác nhau.
Tính năng Extensions của Google Bard
Vào năm 2023, Google đã thêm tính năng Extensions mới vào chatbot Bard của mình. Nhờ tính năng này, AI đã có thể truy cập vào các nền tảng như Gmail, Google Drive và Google Docs. Nhờ đó, AI đã có khả năng đọc và tóm tắt tài liệu trong hộp thư hoặc ổ đĩa của người dùng, điều này có mục tiêu mở rộng tương tự như MCP.
Tuy nhiên, các Extensions của Google hoạt động chỉ trong hệ sinh thái Google nên có sự khác biệt rõ rệt so với MCP, vốn hướng tới một cách kết nối mở mà ai cũng có thể sử dụng. Sự khác biệt này sẽ đóng vai trò quan trọng trong cách AI được sử dụng và khả năng tiếp cận của người dùng trong tương lai.
Cải thiện khả năng xử lý văn bản siêu dài của mô hình
Có một cách khác để mở rộng cửa sổ ngữ cảnh của mô hình. OpenAI đã báo cáo rằng GPT-4 Turbo hỗ trợ tối đa 128.000 token, và trong mô hình o3 được công bố sau đó, có thể hỗ trợ tới 200.000 token. Mô hình Gemini của Google được cho là có khả năng xử lý hơn một triệu token.
Sự phát triển này cho thấy khả năng AI có thể hiểu một lượng văn bản tương đương một cuốn sách trong một lần. Tuy nhiên, có những giới hạn nhất định trong cách mà tất cả dữ liệu chỉ được thu thập và xử lý một cách đơn giản.
Theo một nghiên cứu được công bố tại ICLR 2024, chỉ với việc thêm ngữ cảnh dựa trên tìm kiếm cũng có thể đạt được hiệu suất tương tự như các mô hình cửa sổ quy mô lớn. Hơn nữa, việc tìm kiếm thông tin là điều luôn góp phần nâng cao hiệu suất bất kể kích thước của cửa sổ ngữ cảnh. Những kết quả nghiên cứu này được kỳ vọng sẽ mở rộng khả năng ứng dụng của AI hơn nữa.
Chiến lược tốt nhất để xử lý ngữ cảnh dài là ‘kết nối’
Như đã thảo luận trước đó, có nhiều cách tiếp cận để giải quyết vấn đề ngữ cảnh dài.
Đầu tiên là các plugin kín được sử dụng trong nền tảng (OpenAI, Google). Thứ hai là kiểu kết nối công cụ tĩnh và gọi hàm (Function Calling, LangChain). Thứ ba là phương pháp mở rộng cửa sổ của mô hình (GPT-4 Turbo, Gemini). Cuối cùng là MCP, tiêu chuẩn mở có thể kết nối động.
Trong số đó, MCP có cấu trúc độc đáo kết hợp tính mở và tính đa dụng, đã trở thành một tiêu chuẩn công nghiệp thực tế có thể được sử dụng trên nhiều mô hình và nền tảng khác nhau. Cấu trúc này được kỳ vọng sẽ thúc đẩy sự phát triển công nghệ hơn nữa.
Cuối cùng, có nhiều cách để cung cấp ngữ cảnh nhiều hơn cho AI, nhưng cốt lõi vẫn chỉ có một.
Kết nối thông tin cần thiết để AI có thể sử dụng một cách kịp thời, an toàn và tự do.
Và công nghệ gần nhất với câu trả lời đó chính là
MCP
.
#MCP, #tích_hợp_công_cụ_AI, #plugin_OpenAI, #gọi_hàm, #LangChain, #Azure_AI, #Google_Bard, #GPT_4_Turbo, #Gemini, #cửa_sổ_ngữ_cảnh, #AI_siêu_dài, #mở_rộng_ngữ_cảnh_AI, #sinh_thái_AI, #đại_lý_AI, #tiêu_chuẩn_AI, #triển_khai_MCP, #Anthropic, #SDK_đại_lý_OpenAI, #Microsoft_Azure, #AI_đám_mây, #tiêu_chuẩn_mở_AI, #tích_hợp_tự_động_AI, #khung_đại_lý, #LangChain_MCP, #chiến_lược_bổ_sung_AI, #AI_dựa_trên_tìm_kiếm, #ICLR_2024, #OpenReview, #công_nghệ_AI_tương_lai