목차
현재 대형 언어 모델(LLM)의 기술이 급속히 발전함에 따라, AI의 긴 문맥 처리 능력이 새로운 도전 과제로 떠오르고 있다. AI가 진정한 지능을 갖추기 위해서는 단순한 데이터 전달이 아니라, 연속적이고 의미 있는 맥락을 이해하는 것이 필수적이다.
이와 관련하여, Anthropic의 MCP(Model Context Protocol)는 긴 문맥 처리 문제를 해결하는 중요한 전환점으로 주목받고 있다. 하지만 MCP가 등장하기 전에도 여러 기술 기업들이 긴 문맥을 처리하고 도구를 통합하려는 노력을 기울여 왔으며, 현재도 각기 다른 방법으로 이 문제에 대응하고 있다.
따라서 앞으로의 AI 발전은 이러한 긴 문맥 처리 능력을 얼마나 효과적으로 향상시킬 수 있는가에 달려 있다고 볼 수 있다.
OpenAI의 플러그인과 함수 호출 기능
OpenAI는 2023년에 ChatGPT 플러그인 기능을 선보이며 외부 API와의 통합을 가능하게 했다. 이로 인해 모델은 웹 브라우징이나 서드파티 서비스 호출 등 다양한 외부 도구와 상호작용할 수 있게 되었으며, OpenAPI 명세에 따라 특정 작업을 수행하는 것이 가능해졌다.
그럼에도 불구하고, 플러그인 방식은 ChatGPT의 웹 인터페이스라는 제한된 환경에서만 작용한다는 단점이 있었다. 각 플러그인은 개별적인 통합과 호스팅을 필요로 하며, 이는 확장성과 일관성에 있어 한계를 초래했다. 특히, 플러그인마다 별도의 인증 절차를 요구함에 따라 지속적인 대화 흐름 유지나 도구 인식에 어려움이 있었다.
이후 OpenAI는 Function Calling(함수 호출) 기능을 추가하여, 모델이 JSON 형식으로 개발자가 설정한 함수를 호출할 수 있도록 했다. 이 기능은 LangChain과 같은 프레임워크와 결합되어 도구 활용을 보다 구조적으로 지원하게 되었다. 그러나 이 접근 방식 또한 사전에 정의된 도구에만 접근할 수 있는 정적 형태라는 한계를 지니고 있다.
이와 같은 변화들은 AI 모델의 활용도를 높이는 데 기여하고 있지만, 여전히 개선이 필요한 부분들이 존재한다. 앞으로의 발전이 기대되는 이유이다.
MCP와 AI 연결 기술 시리즈
MCP가 해결한 한계점
MCP는 기존의 한계를 극복하는 혁신적인 시스템이다. 런타임 중에 모델이 새로운 MCP 서버를 자동으로 인식하여 사용할 수 있는 구조 덕분에, 사전 정의 없이도 동적으로 도구에 접근할 수 있게 되었다.
예를 들어, LangChain은 최근 업데이트를 통해 MCP 서버를 하나의 도구 소스로 간주할 수 있도록 개선되었다. 이로 인해 MCP 클라이언트와 서버가 함수 호출과 결합되어, AI가 도구를 호출하고 그 결과를 효과적으로 활용하는 구조가 가능해졌다. 이와 같은 변화는 다양한 분야에서의 활용 가능성을 높여준다.
Microsoft와 OpenAI의 MCP 채택
MCP는 Anthropic이 주도하는 가운데, OpenAI와 Microsoft도 이 새로운 표준에 동참하고 있는 상황이다. OpenAI는 2024년 말까지 에이전트 SDK에 MCP 지원을 추가할 계획으로, 이를 통해 OpenAI 모델 사용자들이 MCP 생태계의 다양한 도구를 쉽게 활용할 수 있도록 할 예정이다.
한편, Microsoft는 Azure AI Agents 서비스에 MCP를 통합했다. 2025년 3월, Azure 블로그에서는 MCP를 활용해 Claude와 같은 AI가 Bing 검색이나 기업 내 SharePoint 문서에 실시간으로 접근하는 사례를 제시하였다. 이는 MCP가 멀티플랫폼 및 멀티모델 호환이 가능한 개방형 표준으로 자리 잡아가고 있음을 나타내고 있다. 이러한 발전은 다양한 AI 기술의 응용 가능성을 더욱 넓혀줄 것으로 기대된다.
Google Bard의 Extensions 기능
2023년 Google은 자사의 챗봇 Bard에 새로운 Extensions 기능을 추가했다. 이 기능 덕분에 AI는 Gmail, Google Drive, Google Docs와 같은 플랫폼에 접근할 수 있게 되었다. 이를 통해 AI는 사용자 메일함이나 드라이브에 있는 문서를 읽고 요약하는 능력을 갖추게 되었으며, 이는 MCP와 유사한 확장 목표를 지닌다.
하지만 Google의 Extensions는 Google 생태계 내에서만 작동하는 폐쇄형 통합이라는 점에서, 누구나 자유롭게 사용할 수 있는 개방형 연결 방식을 지향하는 MCP와는 확연한 차이가 있다. 이러한 차별성은 향후 AI의 활용 방식과 사용자의 접근성을 결정짓는 중요한 요소로 작용할 것으로 보인다.
모델 자체의 초장문 처리 능력 향상
모델의 컨텍스트 윈도우를 확장하는 또 다른 방법이 있다. OpenAI는 GPT-4 Turbo에서 최대 128,000토큰을 지원하며, 이후 발표된 o3 모델에서는 최대 200,000토큰이 가능하다고 전했다. 구글의 Gemini 모델은 무려 백만 토큰 이상을 처리할 수 있는 능력을 지니고 있다고 한다.
이러한 발전은 AI가 책 한 권에 해당하는 분량의 텍스트를 한꺼번에 이해할 수 있는 가능성을 나타낸다. 하지만 모든 데이터를 단순히 모아서 처리하는 방식에는 분명한 한계가 존재한다.
2024년 ICLR에서 발표된 연구에 따르면, 검색 기반의 컨텍스트 추가만으로도 대규모 윈도우 모델과 유사한 성능을 발휘할 수 있다고 한다. 또한, 맥락 창의 크기와는 상관없이 정보 검색(Retrieval)은 항상 성능을 향상시키는 데 기여하는 것으로 확인되었다. 이러한 연구 결과는 AI의 활용 가능성을 더욱 넓혀줄 것으로 기대된다.
긴 문맥을 다루는 최고의 전략은 ‘연결’
앞서 논의한 바에 따르면, 긴 문맥 문제를 해결하기 위한 접근 방식은 여러 가지로 나눌 수 있다.
첫 번째로, 플랫폼 내에서 사용되는 폐쇄형 플러그인(OpenAI, Google)이 있다. 두 번째로는 정적 함수 호출 및 코드 기반 툴 연결(Function Calling, LangChain) 방식이 존재한다. 세 번째로는 모델 자체의 윈도우 확장(GPT-4 Turbo, Gemini)을 통해 이뤄지는 접근법이 있다. 마지막으로, 동적 연결이 가능한 개방형 표준인 MCP가 있다.
이 중에서 MCP는 개방성과 범용성을 동시에 갖춘 독특한 구조로, 다양한 모델과 플랫폼에서 사용될 수 있는 사실상의 산업 표준으로 자리 잡고 있다. 이러한 구조는 기술의 발전을 더욱 촉진할 것으로 기대된다.
결국 AI에게 더 많은 문맥을 제공하는 방법은 다양하지만, 그 핵심은 하나다.
필요한 정보를 AI가 적시에, 안전하게, 자유롭게 사용할 수 있도록 연결하는 것.
그리고 지금 그 해답에 가장 근접한 기술이 바로
MCP
다.
#MCP, #AI도구연동, #OpenAI플러그인, #함수호출, #LangChain, #AzureAI, #GoogleBard, #GPT4Turbo, #Gemini, #컨텍스트윈도우, #초장문AI, #AI문맥확장, #AI생태계, #AI에이전트, #AI표준, #MCP도입, #Anthropic, #OpenAI에이전트SDK, #MicrosoftAzure, #클라우드AI, #오픈에이아이, #AI개방형표준, #AI자동연동, #에이전트프레임워크, #LangChainMCP, #AI보완전략, #검색기반AI, #ICLR2024, #OpenReview, #AI미래기술