[커버스토리] AI 에이전트 새 지평 여는 ‘MCP’와 ‘A2A’
외부 시스템 및 LLM, 에이전트 간 연동·협력 ‘초점’…기술·운영 측면 과제도
[컴퓨터월드] 인공지능(AI)의 최종 목적지는 어디일까. 아마 많은 사람들은 그 해답을 영화에 등장하는 AI 슈퍼컴퓨터 ‘스카이넷(SKYNET)’, 혹은 가상 인격을 갖춘 개인 AI 비서 ‘자비스(JARVIS)’에서 찾을지 모르겠다. 인간의 개입이 가장 완벽하게 배제되고 자율적 사고를 실행으로까지 옮길 수 있는 영역이 아닐까 싶다.
이처럼 완전한 자율성과 실행력을 갖춘 AI를 현실화하기 위해서는 단순히 데이터를 학습해 답을 내놓는 수준을 넘어, 외부 시스템과의 연결 그리고 여러 AI 간의 협업이 필수적이다. AI가 의미 있는 작업을 수행하기 위해선 다양한 도구와 데이터를 활용하고, 다른 에이전트와 유기적으로 소통할 수 있어야 한다.
AI 에이전트 초입에 들어선 현재, 이러한 요구에 부응하는 두 가지 핵심 기술이 부상하고 있다. 바로 앤트로픽이 출시한 MCP(Model Context Protocol)와 구글이 공개한 A2A(Agent-to-Agent)다. 두 기술은 AI 에이전트가 자율적으로 실행과 협업을 구현하는 근간이 되고 있다.
AI 에이전트 시대 개막
2025년 현재, ‘AI 에이전트’ 시대 초입에 있다. AI는 이제 챗봇 수준을 넘어 특정 목적을 달성하기 위해 AI 모델 스스로 계획하고 도구를 선택하며 일련의 행동을 자동으로 수행할 수 있는 AI 시스템을 뜻하는 AI 에이전트로 발전하고 있다. AI 에이전트는 거대언어모델(LLM)의 응답 수준을 넘어, 인간과 같이 능동적으로 ‘사고하고 행동할 수 있는’ AI를 의미한다.
AI 에이전트가 제대로 작동하기 위해서는 학습된 데이터로 답을 생성하는 능력만으로는 부족하다. 외부 시스템과 LLM이 연결돼 맥락을 유지하고, 다른 AI와 협력하는 등 복잡한 기술 요건들이 선행돼야 한다. AI가 의미 있는 작업을 하려면 API를 호출하고 문서를 분석하며 파일을 수정하고, 다른 AI나 툴과 통신할 수 있는 의사소통 능력이 필요하다.
최근 이러한 수요에 대응할 수 있는 핵심 기술이 IT 업계의 주목을 받고 있다. 바로 앤트로픽이 개발한 MCP(Model Context Protocol)와 구글이 제안한 A2A(Agent-to-Agent communication protocol)다. 이 두 프로토콜은 AI가 진정한 에이전트로 나아가는 데 절대적으로 필요한 ‘연결성’과 ‘협업성’이라는 중요한 축을 담당하고 있다.
AI 실행력 확대 위한 통신 표준 ‘MCP’
현존하는 대부분 LLM은 기본적으로 스테이트리스(stateless) 구조로, 문맥 유지와 외부 데이터 활용에 한계가 있다. 스테이트리스 구조는 각 요청이 이전의 맥락이나 상태 정보를 기억하지 않고 독립적으로 처리되는 시스템 아키텍처를 의미한다. 그렇기 때문에 기존 LLM은 이전에 어떤 요청이 있었는지 알 수 없으며 외부 도구를 사용할 수 없다.
사람의 사고나 작업 흐름과는 본질적으로 다른 방식이다. 사람은 기존의 사고와 문맥을 유지하고 필요한 정보를 찾고 외부 시스템을 다룰 수 있지만, LLM은 그렇지 못하다.
이러한 한계를 극복하고자 앤트로픽은 LLM의 실행력을 확대할 수 있는 프로토콜인 ‘MCP(Model Context Protocol)’를 공개했다. 앤트로픽이 공개한 MCP는 단순히 외부 API를 호출하는 기능을 넘어, AI가 자율적으로 외부 도구를 인식하고 사용하며 상태를 추적하고 계획을 조정할 수 있게 하는 ‘실행 프레임워크’다.
MCP와 관련해 올거나이즈 신기빈 CAIO는 “AI 에이전트를 구동하는 엔진은 LLM이다. 하지만 LLM만으로는 좋은 결과를 낼 수 없다. 가령 사용자가 ‘식당을 예약해줘’라고 아무리 입력해도 LLM은 외부와 통신을 하지 않기 때문에 작업을 완결할 수 없다. 따라서 외부와 LLM 사이에 상호작용하는 부분이 필요하다. 이를 구현하는 기능이 ‘펑션 콜링(Function Calling)’ 혹은 ‘툴 콜링(Tool Calling)’이다. LLM에게 자신이 활용할 수 있는 도구를 알려주고 필요할 때마다 도구의 결과를 요청하도록 만든다. 에이전트 AI의 구동부는 도구를 호출하고 결과를 다시 LLM에게 알려줘 계속 LLM이 작업을 이어갈 수 있게 만든다”면서 “이러한 도구 활용과 LLM 간 통신 방식을 정의한 것이 MCP다. MCP는 지난해 처음 공개됐으며, 커서(Cursor)가 MCP를 지원하면서 활용처를 늘린 것이 MCP의 제작자와 사용자를 폭발적으로 늘린 계기가 됐다”고 설명했다.
MCP는 앤트로픽이 SW 개발에서 널리 쓰이는 LSP(Language Server Protocol)라는 표준 통신 방식에서 영감을 받아 개발한 것으로 알려진다. LSP가 개발자 도구와 언어 서버를 연결하는 표준이었다면, MCP는 AI와 외부 도구를 연결하는 표준이다.
MCP도 LSP와 유사하게 JSON-RPC 방식을 따른다. JSON-RPC는 데이터를 주고받을 때 “이런 작업을 해줘”라고 요청하는 명령(프로시저 명)을 메시지 안에 직접 써서 송출하는 방식이다. 가령 “이 문서 요약해”라는 요청을 메시지에 담아 MCP 서버로 보내는 식이다.
MCP는 기능 목록도 교환한다. MCP 서버가 처음 연결될 때 “이런 도구를 제공할 수 있어”라는 식으로 목록을 알려준다. 이를 통해 AI는 어떤 도구(기능)를 쓸 수 있는지 미리 파악할 수 있다.
이러한 구조 때문에 MCP는 다양한 서버와 클라이언트를 서로 쉽게 연동할 수 있다. 새로운 도구나 기능이 추가돼도 복잡한 설정 없이 즉시 연동이 가능하다.
세 가지 물리적·논리적 계층으로 구성
MCP의 물리적인 시스템은 크게 △외부 LLM △MCP 에이전트 △MCP 서버 등 세가지로 구성된다. MCP 에이전트는 등록된 MCP 서버의 목록을 가지고 있고, 성능 파악 과정을 통해서 각 서버가 제공하는 도구의 목록과 스펙을 획득한다. 그리고 사용자의 요구사항을 LLM으로 해석한다. 이 과정에서 LLM으로 하여금 어떤 도구를 사용해야 원하는 목적을 달성할 수 있는지를 파악·결정하며, 요청 달성을 위한 전체적인 흐름을 통제한다.
이에 관해 디노티시아 한병전 상무는 “MCP는 MCP 에이전트와 MCP 서버가 통신할 수 있는 채널만 오픈되면 기술적으로 타 시스템과의 통신이 가능하다. 일반적으로 MCP 에이전트가 MCP 서버 프로세스를 통째로 복사하면서 만들어지는 파이프를 통해 STDIO(STDIN/STDOUT) 통신하거나, 네트워크 기반 통신을 통해 웹 환경에서 데이터를 받아올 때 실시간 스트리밍이 가능한 SSE(Server Sent Event) 방식을 사용할 수 있다”면서 “같은 컴퓨터 내에서 연결하는 STDIO 방식은 에이전트가 MCP 서버 프로그램을 내부적으로 새로 실행한다는 의미다. 이때 에이전트와 MCP 서버는 파이프를 통해 데이터를 주고받는다. 이 파이프는 운영체제의 표준 입력(STDIN)과 표준 출력(STDOUT)을 사용한다. 에이전트가 MCP 서버에 요청을 보내면, 해당 내용이 STDIN을 통해 서버로 전달되고 서버는 결과를 STDOUT으로 에이전트에 돌려주는 구조다”라고 설명했다.
이어 한 상무는 “MCP 서버는 LLM이나 AI 에이전트가 필요한 정보를 제공하는 외부 데이터 소스(컨텍스트 제공자)와 MCP 에이전트 사이에서 ‘중간 통역사’ 역할을 하는 API 래퍼 계층이다. 이 구조 덕분에 MCP가 LLM 모델 및 외부 도구와 쉽게 통신할 수 있다”고 설명했다.
외부 시스템이나 서비스(API)는 사용법, 데이터 형식, 인증 방식이 모두 다른데, API 래퍼 계층은 이런 복잡한 API를 LLM이나 에이전트가 일관된 방식으로 쉽게 사용할 수 있도록 감싸준다. 즉 MCP 서버는 MCP 에이전트와 LLM이 필요한 데이터나 기능을 가진 컨텍스트 제공자를 연결하는 중개자 역할을 한다는 것이다.
아울러 MCP는 △컨텍스트 메모리 계층(Contextual Memory Layer) △도구 호출 인터페이스(Tool Abstraction Interface) △계획자 및 실행자 아키텍처(Planner Executor Architecture) 등 세 가지 논리적 계층(아키텍처 레이어)으로 구성된다.
컨텍스트 메모리 계층은 기존 LLM이 제공하는 일회성 문맥 유지에서 나아가, 장기적 상태(state)와 중간 결과를 기억할 수 있는 구조를 제공한다. 이를 통해 에이전트는 “지금까지 어떤 일을 해왔는지”를 파악하고, 후속 작업을 조정할 수 있다. 이 계층은 단순 캐시가 아니라, 작업 히스토리와 학습된 맥락을 유기적으로 결합해 상황 인식 능력을 높인다.
도구 호출 인터페이스는 AI가 단순히 “이 API를 호출해”라는 명령을 따르게끔 하는 것이 아닌, 작업 목적에 따라 어떤 도구가 필요한지 판단하고 호출 방식까지 스스로 결정할 수 있도록 한다. MCP는 도구의 기능과 사양을 메타데이터 기반으로 등록하고, AI는 이를 이해한 뒤 자동으로 결합해 사용한다. 이를 통해 완전한 비지도 툴 활용이 가능해진다.
계획자 및 실행자 구조는 인간의 문제 해결 방식인 목표, 계획, 실행, 점검, 재계획의 루프를 모방했다. 복잡한 요청에 대해 AI는 먼저 세부 작업 단위(task)를 자동 분해한 후, 단계마다 어떤 도구를 어떤 순서로 사용할지 계획하고 실행 결과를 평가해 다음 행동을 조정한다. 이처럼 MCP는 단순한 LLM을 하나의 작업 단위 수행 주체(Task Executor)로 탈바꿈시킨다. 이는 AI가 실제 문제 해결을 위해 외부 시스템과 유기적으로 연결되는 구조다.
디노티시아 한병전 상무는 “둘 이상의 MCP 서버를 조합하면 재미있는 결과를 얻을 수도 있다. 예를 들어서 ERP에 있는 데이터를 조회하는 MCP 서버를 만들고 자사 벡터 DB와 결합한다면, 벡터 DB에 있는 고객사의 소개자료를 토대로 ERP에서 관리 중인 상품의 정보와 조합해 재고파악, 마케팅 방안 추천 등을 좀 더 구체적인 데이터를 토대로 수행할 수 있다”고 부연했다.
A2A, 역할 분담과 협업으로 집단 지능 실현
MCP와 함께 AI 에이전트의 또 다른 핵심 축이 바로 A2A(Agent to Agent)다. MCP가 단일 AI를 외부 환경과 연결해 AI의 도구 사용을 확장하는 구조라면, A2A는 여러 개의 AI가 함께 일하며, 집단 지능을 발휘하는 구조다. A2A는 단일 AI가 처리하기 어려운 복합적인 문제를 분업과 협업을 통해 해결하는 다중 에이전트 시스템이다. 하나의 거대한 LLM보다 다양한 역할에 특화된 에이전트들이 서로의 출력을 입력으로 삼아 의사결정과 실행을 반복하는 구조다. A2A를 개발한 구글은 A2A를 “역할 기반 에이전트의 대화 프로토콜”이라고 정의했다.
디노티시아 한병전 상무는 “A2A는 특정 기능에 특화된 에이전트가 동료 에이전트와 유연하게 협업할 수 있게 만들어 주는 표준이다. 특히 에이전트 간 통신은 작업 위임 및 상태 공유 등 네트워크 또는 시스템에서 모든 노드(장치, 서버, 에이전트 등)가 서로 직접 연결된 풀 메쉬(Full Mesh) 구조다. 이를 표준화하기 위해 MCP와 마찬가지로 다양한 플레이어들이 협업할 수 있는 표준을 제시한 것이 A2A다”라고 설명했다.
이어 한 상무는 “A2A를 통해 AI 에이전트 생태계가 확장된다면, 우리 AI 산업이 직면한 LLM 스케일-업 한계를 돌파할 수 있는 해결책이 될 수 있다. 초지능 AI는 몇몇 세계적인 업체가 지배하고 있으며 보다 강력한 GPU 자원을 요구한다. A2A 생태계가 활성화된다면 다양한 분야의 전문가 모델들이 서로 협업하는 윈윈(Win-Win) 전략을 가져갈 수 있고, 도메인 특화된 학습 데이터를 토대로 각자의 영역에서 작은 언어모델을 통한 에이전트도 경쟁력을 가질 수 있게 된다”고 덧붙였다.
병렬적 피드백 루프 구조로 성능 향상
A2A의 기술 구성은 △역할 기반 프롬프트 스페이스(Role-based Prompt Spaces) △구조화된 메시지 패싱 아키텍처(Structured Message Passing) △집단적 의사결정 루프(Collaborative Planning and Replanning)로 이뤄진다.
역할 기반 프롬프트 스페이스 단계에서는 각 에이전트가 자신만의 특화된 프롬프트 및 응답을 내놓는다. 예를 들어 ‘연구자(Researcher)’는 최신 데이터를 조사하고, ‘분석가(Analyst)’는 이를 해석하고, ‘작성자(Writter)’는 문장으로 재구성한다. 이 구조는 사람들이 팀을 구성해 협업하는 구조와 유사하다. 각 역할이 명확히 구분되기 때문에 책임 추적이 가능해 신뢰성도 높다.
구조화된 메시지 패싱 아키텍처는 AI 에이전트들 간의 정보를 주고받을 때의 표준 메시지 포맷을 의미한다. 대체로 JSON 파일을 기반으로 사용한다. 요청(Request), 결과(Result), 피드백(Feedback) 등 의사소통 유형을 표준화해 에이전트 간 오해를 줄이는 과정이다. 이는 API 호출에서의 표준 메시지 포맷 개념을 AI 간 통신으로 확장한 것이다.
쉽게 설명하면 AI 에이전트들이 서로 대화하거나 정보를 주고받을 때, 자유롭게 아무 방식이나 사용하면 오류가 발생할 수 있다. 이를 해결하고자 모든 에이전트가 약속된 형식(JSON 파일 형태)으로 메시지를 주고받는다는 것이다. 예를 들어 글쓰기 에이전트가 디자인 에이전트에게 그림 제작 요청을 보내고, 그에 대한 결과물이나 피드백을 정해진 틀에 맞춰 주고받는 식이다. 이렇게 하면 에이전트들이 서로 무슨 말을 하는지 헷갈릴 일이 줄어들고, API에서 표준 메시지 형식으로 통신하는 것처럼, AI끼리도 쉽게 정보를 주고받을 수 있다.
집단적 의사결정 루프는 하나의 문제가 각 역할 간 피드백을 거쳐 여러 차례 개선되면서 점점 완성되는 방식이다. 단순한 직렬 처리가 아닌 병렬적 피드백 루프를 통해 전체 성능을 향상한다.
이에 대해 한국교통대학교 곽정한 교수는 “여러 AI 에이전트가 한 팀처럼 협업할 때, 한 번에 정답을 내는 것이 아닌 각 역할을 맡은 에이전트들이 서로 의견을 주고받으며 결과를 점점 더 다듬어 간다. 예를 들어 한 에이전트가 초안을 만들면, 다른 에이전트가 그걸 보고 수정하거나 의견을 내는 등 피드백이 여러 번 오가면서 결과물이 계속 개선되는 방식이다. 이 과정은 한 줄로 차례대로 처리하는 게 아니라, 여러 에이전트가 동시에 피드백을 주고받아 최종 결과의 품질과 정확도를 높일 수 있다”고 부연했다.
실행과 협업의 완성형 AI 에이전트 생태계
A2A는 AI 에이전트들이 팀을 구성해 구동하는 방식이다. 팀 구성 내 개별 에이전트가 외부 도구를 사용하기 위해서는 앞서 설명한 MCP와의 연동이 필수적이다. MCP와 A2A는 표면적으로는 상이한 기술처럼 보이지만, 실상은 서로 부족한 부분을 보완하고 있다. A2A는 다중 에이전트의 유기적 소통과 협업을 지원하고, MCP는 각 에이전트의 외부 도구 활용 및 실행을 담당한다. 즉, A2A가 조율자라면 MCP는 실행자라 할 수 있다.
우선 사용자의 요청이 발생할 경우, A2A는 에이전트를 역할별로 요청을 분해하고 분배한다. 이후 MCP를 기반으로 에이전트가 실행된다. 이때 에이전트는 MCP를 통해 외부 도구를 사용해, 기존 레거시 시스템에 접근하게 된다. 이후 A2A로 다시금 넘어와 결과를 피드백하고 개선하는 과정을 거쳐 답변을 제시한다. 이 같은 구조를 통해 MCP와 A2A는 유기적으로 연결되고 하나의 최종 결괏값을 도출하기 위해 보완한다.
예를 들어 법률 문서를 요약하는 시스템을 구현한다면, A2A는 역할을 분배하고 MCP는 문서를 열람하고 요약하며 외부 판례 DB를 조회하는 데 사용된다. 이러한 유기적인 구조는 특정 AI 모델 하나가 모든 것을 처리하지 않아도 되게 만들며, 여러 개의 특화된 AI가 팀처럼 유기적으로 일하게 만드는 기반을 제공한다.
MCP와 A2A 기반의 AI 에이전트는 산업 전반에 서서히 녹아들며 작업 방식의 패러다임을 전환하고 있다.
가장 대표적인 분야가 ‘지식노동 자동화’다. 회의 정리, 초안 작성, 번역 등 반복적 작업을 AI가 분업과 실행을 통해 처리한다. 단일 LLM으로 수행하는 것보다 높은 정확도와 유연성을 확보할 수 있다. 개발 파이프라인 최적화코드 생성, 테스트, 리뷰, 배포까지 역할 기반 AI 팀이 수행하며, 각각의 실행은 MCP가 담당한다. 이는 기존 데브옵스 파이프라인에 지능적 자동화를 도입하는 방식으로 진화하고 있다.
사례로는 커서(Cursor)와 깃허브(Github), 세일즈포스(Salesforce), 워크데이(Workday) 등 기업이 있다. 커서는 코드 생성, 테스트, 리뷰, 배포 등 개발 파이프라인 자동화에 MCP를 적용했다. 커서의 AI 코딩 어시스턴트는 MCP를 통해 깃허브나 지라 등 다양한 개발 도구와 연동돼 개발 생산성을 향상할 수 있다.
깃허브 역시 ‘깃허브 코파일럿 X(GitHub Copilot X)’를 통해 MCP 기반 코드 리뷰, 배포 자동화 등 개발자 워크플로우에 AI 자동화를 지원하고 있으며, 세일즈포스와 워크데이는 MCP와 A2A를 활용해 인사(HR) 자동화, 온보딩, 복리후생 관리 등 지식노동 프로세스를 혁신하고 있다. 예를 들어, 채용 에이전트가 워크데이의 인사 데이터를 MCP로 조회하고, 온보딩 에이전트가 서비스나우와 연동해 IT 계정 개설을 자동화할 수 있다.
클라우드 인프라 분야에서는 아마존웹서비스(AWS)가 대표적이다. AWS는 MCP 서버를 통해 인프라 관리, 배포, 모니터링, 비용 최적화 등 클라우드 운영 자동화에 활용하고 있다. MCP 서버는 각각의 역할을 맡은 AI 에이전트들과 연결돼 복잡한 클라우드 운영을 훨씬 더 효율적으로 만들 수 있도록 돕는다.
이와 관련해 클라우드 기업 한 관계자는 AWS 클라우드 사례를 들어 설명했다. 이 관계자는 “배포 에이전트는 ‘테라폼’이라는 자동화 도구의 설정 파일을 읽어와서 서버나 네트워크 등 필요한 자원을 자동으로 배포하도록 구성하고, 모니터링 에이전트는 실시간으로 서버 상태나 비용, 성능 지표를 수집해 MCP 서버에 전달하도록 만든다. 이 정보로 시스템의 상태를 파악할 수 있다. 다음으로 비용 에이전트를 통해 자원이 적절하게 쓰이고 있는지, 불필요한 비용이 발생하지 않는지 분석해서, 필요한 경우 자원 할당을 줄이거나 늘리도록 다른 에이전트에게 요청하도록 구성할 수 있다”고 소개했다.
이와 유사한 사례로 베스핀글로벌의 ‘헬프나우 오토MSP’가 있다. 베스핀글로벌은 헬프나우 오토MSP 솔루션 개발 과정에 MCP를 적용했다.
이와 관련 베스핀글로벌 구상원 티바나AI 개발팀장은 “헬프나우 오토MSP를 개발하는 과정에서 MCP를 적용했다. 이를 통해 복잡한 외부 시스템 연동 작업을 표준화하고, 반복적인 코딩 작업을 크게 줄일 수 있었다. 특히 앤트로픽의 ‘클로드 코드(Claude Code)’를 통해 개발 자동화 및 결과 보고서 생성에 소요되는 시간을 기존 2주에서 8시간으로 단축했다”고 부연했다.
이어 구상원 팀장은 “앤트로픽의 클로드 코드는 개발자들이 일상적으로 하는 코드 작성, 수정, 테스트, 디버깅, 문서화 등 다양한 작업을 AI가 대신하거나 도와주는 도구다. 명령어 한 번으로 코드베이스 전체를 분석해 구조를 파악하고, 문제점을 찾아내거나, 필요한 코드를 자동으로 작성한다. 여러 파일에 걸친 오류 수정이나 반복적인 작업도 AI가 알아서 처리한다. 여기에 MCP라는 표준을 적용하면, AI가 다양한 외부 데이터나 도구와 쉽게 연결돼 더 많은 정보를 활용할 수 있게 된다. 복잡한 개발 환경에서도 AI가 필요한 자료를 바로바로 찾아 쓰면서 작업을 빠르게 진행할 수 있게 된다”고 덧붙였다.
국내 기업인 올거나이즈의 경우 MCP를 활용해 ‘알리(Alli)’의 ‘다트 에이전트(DART Agent)’를 개발해 제공하고 있다. 올거나이즈 신기빈 CAIO는 “알리 다트 에이전트는 공개된 다트 MCP 서버에서 노출되는 툴들과 웹 서치 툴, 그리고 문서를 만들기 위한 docx 툴들까지 넣고 에이전트를 개발했다”고 설명했다.
국내 AI 스타트업 디노티시아는 벡터 DB 및 임베딩 모델을 서빙해 MCP 연동을 지원하는 벡터 DB 서비스 ‘씨홀스 클라우드(Seahorse Cloud)’를 제공하고 있다. 디노티시아 한병전 상무는 “우리가 제공하는 씨홀스 클라우드는 벡터 DB 기반의 RAG 스튜디오 기능을 갖추고 있다. 이를 토대로 사용자의 데이터를 벡터화해서 씨홀스 DB에 넣고, 씨홀스 DB에서 검색하는 기능을 MCP 서버로 제공할 수 있다. 이를 통해서 MCP 에이전트 사용자는 벡터DB에 있는 데이터를 토대로 답변을 제공받고 리포트를 작성할 수 있다”고 설명했다.
이어 한 상무는 “다만 A2A의 경우 구체적인 방향성이 확립된 것은 아니지만, 자체 파운데이션 모델을 학습할 수 있는 기술을 보유한 만큼 시장성이 보이는 에이전트 개발의 기회가 생긴다면 언제든 MCP와 A2A 기반 에이전트 서비스 제공사로 변신할 채비를 갖추고 있다”고 말했다.
기술·운영상 문제 해결해야
MCP와 A2A는 AI 에이전트 기술의 혁신을 이끌고 있다. 그러나 이를 안전하게 활용하기 위해선 여러 기술적·운영적 과제를 해결해야 한다는 문제점도 존재한다.
우선 상호 운용성과 표준화가 미비해 통합에 한계가 있다. AI 에이전트 간, 그리고 AI와 기존 시스템 간 원활한 통신을 목표로 하는 A2A와 MCP는 서로 다른 조직별로 독자적인 구현체를 이루고 있다. 이로 인해 에이전트 간 프로토콜 불일치 문제가 발생한다. 앤트로픽의 MCP 기반 에이전트는 구글 A2A 프로토콜과 메시지 포맷이 다르기 때문에 두 플랫폼 간 AI 에이전트가 자유롭게 협업하기 어렵다.
현재 이러한 문제를 해결하고자 업계에서는 ISO, IEEE와 같은 국제 표준화 기구나 기업 간 컨소시엄을 통한 MCP·A2A 프로토콜 표준을 제정하고자 노력 중이다. 특히 누구나 볼 수 있도록 소스코드가 공개된 표준 사례도 필요하다.
다음은 보안 및 프라이버시 문제다. 이 두 기술은 개방형 표준을 지향하는 만큼, 보안 위협에 노출될 수 있다. 우선 MCP는 이해하기 쉬운 형태로 만들어진 개방형 표준이기에 보안에 대한 문제가 발생할 수 있다. 일례로 암호화되지 않은 프로토콜로 원격지의 MCP 서버와 통신할 경우, 중간자 공격(MITM)에 의해 응답이 변조되거나 민감 정보가 유출될 수 있으며, 관리자 권한을 부여받은 MCP 서버에 의해 LLM은 사용자의 데이터를 삭제하거나 외부로 유출할 수 있다.
새로운 기술의 등장으로 생태계를 확산하는 데 역점을 두고 있지만, 엔터프라이즈 환경에서 중요 영역에 적용되기 시작하면 얼마나 신뢰할 수 있는 MCP 서버와 LLM을 사용하는지에 대한 인증 시스템 및 외부 통신에 대한 보안 채널 구성이 중요한 요소로 부각되고 있다.
A2A 역시 다중 AI 에이전트가 민감한 데이터를 주고받으며 외부 도구를 호출하는 과정에서, 데이터 유출 및 악의적인 공격이 발생할 위험이 크다. 의료 분야를 예로 들어보자. 환자 개인정보가 포함된 데이터를 AI 에이전트들이 처리하는데, 이 과정에서 적절한 암호화와 권한 분리가 없다면 법적 문제가 발생할 여지가 있다. 이를 해결하기 위해선 AI가 정말 믿을 만한 프로그램인지 확인하는 ‘에이전트 인증’ 절차와 개인정보를 비식별화하는 ‘데이터 비식별화’, 정보를 보여주지 않고 본인임을 증명할 수 있는 ‘영지식증명’과 같은 보안기술 도입과 함께 산업별 컴플라이언스를 준수해야 한다.
이와 관련해 국내 대학의 한 교수는 “AI 에이전트가 외부 도구 및 시스템과 자유롭게 연동하는 구조는, 동시에 보안 취약점을 내포한다. 민감한 데이터가 에이전트 간 주고받는 과정에서 유출되거나 변조될 위험이 크다”면서 “인증되지 않은 에이전트가 네트워크에 침투하거나, 악의적 행위자가 데이터 조작 시도도 가능할 것으로 보인다”고 말했다.
이어 “일례로 금융 기관의 AI 에이전트가 고객 정보를 조회하는 과정에서, 해킹으로 인한 데이터 유출 사고가 발생하면 막대한 피해가 초래된다. 이를 해결하기 위해서는 강력한 인증 체계, 데이터 암호화, 행위 모니터링 및 이상 탐지 시스템 구축이 필수다. 또한 AI 에이전트의 의사결정 과정을 추적할 수 있게 만들어 책임 소재를 명확히 해야 한다”고 설명했다.
아울러 시스템 복잡도 및 성능, 운영비가 증가할 수 있다는 점도 해결해야 할 문제다. 다중 에이전트 협업 체계는 시스템 아키텍처가 복잡하고, 도구를 호출하는 횟수가 늘어나면 리소스의 확장성에 문제가 발생할 수 있고 소모량도 늘어날 수 있다. 에이전트 수가 늘어날수록 각 에이전트 간 상호 통신량이 기하급수적으로 증가해, 전체 시스템의 관리와 조율이 어려워진다. 예를 들어 10개의 에이전트가 있을 때보다 100개, 1,000개로 늘어나면 각 에이전트가 주고받는 메시지와 데이터가 폭증하면서 네트워크 지연, 처리 병목, 동기화 오류 등이 발생할 수 있다.
이러한 리소스 폭증은 결국 비용 부담으로 연결된다. 에이전트 수가 늘어나면 API 호출, 데이터 처리, 모델 실행이 모두 증가해 클라우드 자원 소모가 커진다. AWS, 구글 클라우드 등 주요 퍼블릭 클라우드 환경에서 다중 에이전트 시스템을 도입한 후 예상보다 높은 인프라 비용이 발생하는 사례도 존재한다.
또한 사용자 경험(UX)에 따른 도입 장벽도 존재한다. AI 에이전트 시스템이 아무리 기술적으로 완성도가 높아도, 실제 사용자들이 쉽고 편리하게 접근하지 못하면 도입이 쉽지 않다. 복잡한 설정, 불친절한 인터페이스, 맞춤화 어려움 등은 비전문가의 접근을 막게 된다. 중소기업에서 AI 에이전트 도입 시, IT 인력이 부족해 초기 구성과 유지관리에 큰 어려움을 겪을 수 있다는 것이다. 이를 해결하기 위해서는 직관적 UI/UX 설계, 자동화된 에이전트 배포·관리 도구, 맞춤형 솔루션 제공 및 교육 강화가 필수다.
윤리적·법적 책임도 고려해야 한다. AI 에이전트가 자율적으로 의사결정을 내리는 상황에서 오류, 편향, 부작용 등이 야기될 수 있는데, 이러한 잘못된 판단이 사회적 피해로 이어질 경우 책임 소재가 불분명하다는 문제가 발생할 수 있다.
변화하는 환경 및 비정형 문제 활용 한계 극복해야
가장 중요한 문제가 있다. 바로 ‘급변하는 환경과 비정형 문제에 대한 활용 한계’다. MCP와 A2A 구조는 주로 사전 정의된 역할과 도구를 활용하나, 급변하는 환경과 비정형 문제에 대해서는 활용성이 제한적이다.
자연어 이해나 멀티모달 상황 인식에서 인간처럼 유연한 대응을 위해서는 지속적인 메타러닝과 강화학습이 통합돼야 한다. 쉽게 말하면, 새로운 도구가 추가되거나 업무 프로세스가 바뀌거나 예측하지 못한 데이터가 들어왔을 때 MCP와 A2A 구조의 에이전트가 유연하게 대응하지 못한다는 것이다. 이를 지속적인 메타러닝(Learning to Learn)과 강화학습(Reinforcement Learning)과 같은 지속적인 자기학습을 통해 해결해야 한다.
구글과 앤트로픽 역시 이 부분을 차세대 연구 과제로 삼아 다양한 학습 알고리즘을 실험 중이다. 구글 딥마인드는 ‘알파이볼브(AlphaEvolve)’라는 진화형 LLM 기반 에이전트 시스템을 개발했다. 이 시스템은 LLM이 다양한 문제 상황에서 스스로 새로운 알고리즘과 해결책을 탐색·진화시키며, 자동 평가 시스템을 통해 가장 효과적인 전략을 선택·개선할 수 있다.
실제로 알파이볼브는 구글 데이터센터 운영, 대규모 코드 최적화, 수학·과학 문제 해결 등에서 기존 고정형 에이전트보다 뛰어난 적응성과 문제해결력을 입증했다. 또한 A2A 환경에서 에이전트가 실시간 피드백을 받아 스스로 행동 전략을 바꾸고, 새로운 상황에 맞춰 학습하는 강화학습·메타러닝 기반 알고리즘을 실험중에 있다.
앤트로픽은 MCP의 동적 컨텍스트와 메타러닝 실험을 이어가고 있다. 앤트로픽은 단순히 정해진 도구만 쓰는 것이 아니라, 에이전트가 상황에 따라 어떤 도구를 쓸지 스스로 판단하고 새로운 도구가 추가되면 자동으로 탐색·연동하는 ‘동적 컨텍스트 관리’ 기능을 강화하고 있다. LLM이 새로운 업무나 데이터 유형이 등장했을 때 기존 경험을 바탕으로 빠르게 적응하는 ‘메타러닝’ 기술도 MCP 구조에 접목되고 있다.
아울러 MCP 기반 연동·확장이 가능하도록 SDK, 자동화 툴 그리고 레퍼런스 서버 등을 지속적으로 개발·공개하고 있다. 레퍼런스 서버와 관련해 AI 기업 한 관계자는 “MCP 사례를 실제로 구현한 사례다. 누구나 참고해 표준에 맞는 시스템을 쉽게 만들 수 있도록 지원하는 가이드”라고 설명하며 “깃허브에 공개된 ‘modelcontextprotocol/servers’가 MCP 레퍼런스 서버 모음이다. 파일 시스템, 데이터베이스, 웹 API 등 다양한 예제 서버가 포함돼 개발자들이 바로 참고하고 사용할 수 있다. 이 외에도 MCP코어(MCPCore), 노드MCP(NodeMCP), 러스트MCP(RustMCP) 등 각각 파이썬, 자바스크립트, 러스트 등 언어로 만든 MCP 레퍼런스 서버가 존재하며 연구, 웹 서비스, 고성능 컴퓨팅 등 용도에 맞게 활용되고 있다”고 설명했다.
5년 내 중견·중소기업으로 활용 확대 전망
1~2년 내 주요 대기업과 연구소를 중심으로 MCP와 A2A를 활용한 특정 업무 자동화 프로젝트가 진행될 것으로 예상된다. 실제로 앤트로픽, 구글, 오픈AI 등 글로벌 빅테크와 금융·헬스케어·IT 대기업, 주요 병원, 연구소에서 MCP-A2A 기반 시범 프로젝트와 PoC(개념검증)가 진행되고 있다. MS와 AWS, 오픈AI는 MCP를 공식적으로 지원하겠다고 발표했고, 구글은 A2A를 오픈소스화하며 대기업 중심의 초기 도입·확산을 주도하고 있다.
3~5년 후에는 상호운용성 표준과 보안·윤리 규제가 정비되면서 중견기업까지 도입이 본격화될 전망이다. 복수의 AI 에이전트가 협업하는 ‘AI 팀’ 개념이 자리 잡으며, IT 개발 자동화 파이프라인, 지식 노동 지원, 법률·금융 분석 분야에서 눈에 띄는 생산성 향상이 기대된다. 사용자 맞춤형 에이전트 UX 설계도 고도화되며, 에이전트 간 보안 프로토콜과 책임 추적 시스템이 정착된다.
스테티스타와 마켓앤마켓 등 글로벌 시장조사에 따르면, 2025년 AI 에이전트 도입이 서서히 시작돼 2028년에는 중견기업을 포함한 다양한 기업 내 조직 전반으로 확산될 것으로 예상된다. 스테티스타가 공개한 보고서에 따르면, 2025년 기준, 전 세계 기업의 48%가 3년 내 AI 에이전트 도입을 계획 중이며, 복잡한 자동화·분업·협업 업무로의 확장도 예측되고 있다. 가트너 역시 2028년에는 엔터프라이즈 SW의 33% 이상이 MCP-A2A 기반의 에이전트형 AI를 내장하고, 85%의 기업이 AI 에이전트를 실제 업무에 도입할 것으로 예상하고 있다.
다만 앞서 제시됐던 상호운용성 표준, 보안·윤리 규제, 책임 추적 시스템 등 불안 요소들이 정비돼야만 중견·중소기업의 도입 장벽이 크게 낮아질 것이라는 게 복수 관계자들의 중론이다.
5년 후에는 에이전트 기반 AI 컴퓨팅 생태계가 완성돼 AI가 인간과 자연스럽게 협업하는 업무 환경이 일반화될 것으로 보인다. 스마트 시티 인프라에서 교통, 환경, 긴급 대응 AI 에이전트가 MCP·A2A 기반으로 실시간 협력하고, 의료·교육·제조업 등 다방면에서 에이전트 팀이 상시 가동된다. 다만 글로벌 분산 에이전트 네트워크, 윤리·법적 체계 확립 등 장기적인 과제도 존재할 것으로 예상된다.
LLM 친화적 MCP 개선 및 오픈 API 환경 대체 예상
한편, 현재 주로 공개된 MCP의 상당수가 개인용인데, 점차 엔터프라이즈 환경에서 사용할 수 있도록 개선될 것이라는 예상도 나왔다. 지금까지 공개된 MCP들은 대부분 개인 사용자를 위한 것이다. 개인이 자신의 일정이나 간단한 업무를 자동화할 때 쓰는 MCP 서버들이 주로 공개되고 있다. 하지만 앞으로는 기업 환경에서 쓸 수 있도록, 보안·인증·대용량 데이터 처리 등 기업의 요구를 반영한 MCP들이 점점 더 많이 만들어지고, 공유될 것으로 보인다.
또한 MCP가 LLM 친화적이지 않은 가운데, 이 부분 역시 개선될 것이라는 목소리도 존재한다. 지금까지 나온 MCP 서버들은 기존에 있던 슬랙, 구글 캘린더 등 API를 감싸서(Layer, wrapper) LLM이 쓸 수 있게 해주는 방식이 많았다. 하지만 이런 방식은 LLM에 맞게 설계되지 않은 경우가 많다. 가령 슬랙용 MCP 서버가 있는데, 이 MCP는 데이터를 ‘검색(search)’하는 기능이 없다. 오직 ‘리스트(list)’로만 보여준다. 이처럼 리스트로만 데이터를 보여주면, LLM은 필요한 정보를 찾기 위해 전체 데이터를 모두 읽어야 한다. 이 과정에서 문맥 용량을 많이 소모하고, 성능이 저하되며 원하는 정보를 찾기 어려워진다.
앞으로는 LLM이 필요한 정보만 똑똑하게 골라서 쓸 수 있게 검색 등 효율적인 기능이 포함된 LLM 친화적(LLM-friendly)인 MCP 서버들이 만들어져서 공개될 것으로 예상된다.
오픈 API 생태계를 대체하는 환경이 될 것이라는 예상도 있다. 디노티시아 한병전 상무는 “MCP와 A2A는 지금의 애플리케이션 스토어와 같이 서비스를 판매하는 앱스토어 및 서비스 개발자들을 주축으로 한 서비스 레지스트리, 서비스에 대한 인증 시스템이 강화되는 방향으로 발전할 것으로 전망된다. 최종적으로 두 개의 기술을 토대로 지금의 오픈 API 생태계가 대체될 수 있을 것으로 보인다”고 강조했다.
MCP와 A2A, AI 에이전트 생태계 조성의 핵심
MCP와 A2A는 각각 AI 에이전트 구현의 중요한 축을 담당하며, AI가 단순한 ‘도구’가 아닌 ‘협력하는 동료’로 자리매김하는 데 필수적인 역할을 한다. MCP는 AI를 외부 시스템과 유기적으로 연결해 실제 문제 해결을 위한 실행력을 갖추게 한다. 단일 AI 모델이 외부 API나 레거시 시스템, DB 등과 자유롭게 소통하며 자율적으로 작업 계획을 수립하고 실행하는 능력을 제공한다는 점에서, MCP는 ‘실행 프레임워크’로서 AI의 독립적 작업 수행을 가능하게 한다.
반면 A2A는 다중 AI 에이전트가 각기 다른 역할을 맡아 팀처럼 협업하는 ‘조율자’ 역할을 한다. 이를 통해 복잡하고 다층적인 문제에 대해 분업과 피드백을 반복하며 점진적으로 해답에 접근한다. 각 에이전트가 특화된 역할을 하고, 서로 정보를 교환하며, 집단적 의사결정을 내리는 과정은 인간 조직의 협업 모델과 매우 유사하다.
이 두 기술의 결합은 AI 에이전트가 현실 업무 환경에 자연스럽게 녹아들도록 하는 생태계를 조성하는 데 있어서 필요한 요소들이다. MCP가 각 역할 에이전트의 실행 기반을 제공하면, A2A가 이들 에이전트를 조율해 시너지를 극대화한다.
디노티시아는 MCP가 결합된 벡터 DB 제품인 씨홀스 클라우드(Seahorse Cloud)를 개발·공급하며 국내 AI 산업을 선도하고 있다. 씨홀스 클라우드는 웹 환경에서 벡터 DB 설치, 데이터 업로드, AI 모델 연결, 추론 서버 연동까지 원스톱으로 처리할 수 있는 완전 관리형 SaaS다. 기존 오픈소스 벡터DB가 설치와 연동이 까다롭고, 기능이 제한적이었던 반면 씨홀스는 클라우드 네이티브 아키텍처로 설계돼 몇 번의 클릭만으로 벡터DB를 구축하고 사용할 수 있다.
MCP를 기반으로 시맨틱 검색을 지원한다. 이를 통해 의미 기반 검색과 LLM 응답 생성을 하나의 환경에서 실시간 테스트가 가능하다. 구체적으로 AI 모델이 외부 데이터와 유연하게 상호작용할 수 있도록 설계된 표준 프로토콜인 MCP를 적용했기에 LLM 프롬프트의 맥락에 맞춰 유연하게 응답할 수 있다. 아울러 다양한 AI 모델과 손쉽게 연동할 수 있고, 검색과 생성 파이프라인이 경량화됐다. 실제로 MCP 기반 시맨틱 검색은 기존 상용·오픈소스 대비 2배 이상 빠른 성능을 보인다.
디노티시아의 씨홀스 클라우드는 MCP가 통합돼 AI 검색과 생성의 경계를 허물며, AI 산업의 새로운 기준을 제시하고 있다. 씨홀스 클라우드는 기술과 비즈니스 현실의 간극을 메우는 혁신 플랫폼이다.