인프라·플랫폼·애플리케이션 전 영역에서 경쟁…자체 LLM 개발도 치열

[컴퓨터월드] 전 세계, 전 산업군에 폭풍처럼 불어온 생성형 AI가 클라우드 시장에도 거센 바람을 일으키고 있다. 생성형 AI를 뒷받침하는 안정적인 인프라는 물론, 클라우드 기반 ML 플랫폼과 애플리케이션 등 전 영역에서의 생성형 AI 서비스 지원 수준이 CSP를 평가하는 최우선 척도가 됐다. 그간 클라우드 시장에서 절대 강자로 군림해 온 AWS를 MS와 구글 클라우드가 생성형 AI 기술력을 앞세워 맹추격하고 있으며, 국내 CSP들도 새로운 기회를 모색하고자 발 빠르게 움직이고 있다. 클라우드 산업에 불붙은 생성형 AI 주도권 경쟁 상황을 조명해 본다.

생성형 AI, 클라우드 시장 판도 흔든다

생성형 인공지능(AI)이 클라우드 산업에 지대한 영향력을 발휘하고 있다. 전 세계적으로 클라우드 산업은 코로나19 기간 폭발적인 성장을 이루다, 잠시 그 성장세가 주춤한 시기가 있었다. 그런 와중 오픈AI(OpenAI) 챗GPT(ChatGPT)의 등장은 가뭄에 단비를 내리듯 클라우드 산업이 다시금 성장할 수 있는 날개를 달아줬다.

막대한 데이터를 수용할 수 있는 인프라가 필수적인 생성형 AI는 클라우드와 ‘불가분’의 관계를 맺고 있다. 가트너(Gartner)도 앞으로는 클라우드 컴퓨팅이 AI와 머신러닝(ML)의 성장을 주도할 것으로 전망하고 있다. 생성형 AI가 고도화되기 위해서는 이를 뒷받침하는 클라우드 컴퓨팅이 요구되고, 마찬가지로 클라우드 산업도 더욱 몸집을 불리고자 생성형 AI 기반 역량과 서비스 개발에 중점을 두기 시작했다.

생성형 AI라는 새로운 활로가 열리면서 클라우드 시장 판도에도 변화가 생기고 있다. ‘천하무적 1강’ 클라우드 서비스 제공사(CSP)로 여겨지던 아마존웹서비스(AWS)를 마이크로소프트(MS)와 구글 클라우드(Google cloud)가 바짝 뒤쫓게 된 것이다.

AI 시장을 선도하고 있는 오픈AI에 선제적으로 투자한 MS는 오픈AI와 전략적 제휴를 맺으며 독점 라이선스를 확보하고, 자사 애저(Azure) 클라우드에 오픈AI의 챗GPT 기술을 접목했다. 구글 클라우드도 AI 애플리케이션 학습·배포를 지원하는 자체 ML 플랫폼 ‘버텍스 AI(Vertex AI)’를 핵심 무기로 내세우며 생성형 AI 트렌드에 대응했다. 특히 구글은 지난해 말 자체 거대언어모델(LLM) ‘제미나이(Gemini)’를 출시하며 AI 모델 라인업을 본격적으로 확장하고 있다.

실제 시너지 리서치 그룹이 발표한 ‘2023년 4분기 클라우드 인프라 서비스 지출’ 자료에 따르면, AWS의 지난해 4분기 전 세계 시장 점유율은 31%로, 전년 대비 2%포인트 감소한 것으로 조사됐다. 그에 반해 MS는 24%라는 자사 최고치를, 구글 클라우드는 11%를 기록하는 등 두 기업 모두 견조한 성장세를 보였다. 생성형 AI 등장 이후, AWS와 MS의 점유율 격차는 지속적으로 좁혀지고 있다. 이는 MS의 생성형 AI 서비스와 소프트웨어(SW)가 AWS의 경쟁력을 뛰어넘었기 때문이라는 게 업계의 평가다.

이에 대해 업계 한 전문가는 “생성형 AI가 클라우드 산업에서도 중요한 트렌드로 떠올랐던 초기, MS의 오픈AI 투자가 기존에 AWS가 공고히 유지하던 시장 점유율을 위협할 것이라 전망했고, 실제로 그 일이 벌어지고 있다”고 말했다.

2023년 4분기 클라우드 인프라 서비스 지출 (출처: 시너지 리서치 그룹)
2023년 4분기 클라우드 인프라 서비스 지출 (출처: 시너지 리서치 그룹)

물론 AWS도 넋 놓고만 있지는 않았다. 고객의 ML 과정을 지원하기 위한 컴퓨팅 인프라 투자를 비롯해, 생성형 AI 파운데이션 모델(FM)을 유연하게 활용할 수 있도록 돕는 플랫폼 서비스 ‘아마존 베드록(Amazon Bedrock)’을 지난해 하반기 출시하면서 “타 CSP 서비스보다 뒤처져 있다”는 업계 평가를 어느 정도 해소할 수 있게 됐다.

국내 CSP들도 생성형 AI 트렌드와 늘어나는 고객 수요에 대응하기 위해 공을 들이고 있다. 과학기술정보통신부 주관의 ‘K-클라우드’ 프로젝트와 같은 공공 주도 사업 참여와 함께 AI 인프라 투자와 서비스 개발에 온 힘을 쏟고 있다. 특히 네이버클라우드는 자체 개발 모델 ‘하이퍼클로바X(HyperCLOVA X)’를 지난해 전격 출시하면서 AI 사업 확장에 속도를 붙이고 있다.


엔비디아 GPU 확보 ‘과제’…인프라 투자 확대와 자체 칩 개발도

CSP들의 생성형 AI 지원 방안은 크게 3개 계층으로 나눠 확인할 수 있다. 첫 번째, 생성형 AI를 안정적으로 학습·고도화할 수 있도록 하는 인프라 지원이다. 두 번째는 클라우드상에서 고객들의 자체 AI 모델 ML을 지원하는 혹은 고객이 시장에 있는 다양한 FM 활용할 수 있는 플랫폼 제공이다. 이와 함께 CSP가 자체 개발한 LLM을 활용할 수 있도록 서비스한다. 세 번째로는 클라우드상에서 이용할 수 있는 생성형 AI 기반 애플리케이션 프로그래밍 인터페이스(API) 도구들을 제공한다.

먼저 현재 생성형 AI 시대에는 기본적인 컴퓨팅 인프라의 성능 고도화가 더욱 중요해졌다. AI 모델 학습을 위해 막대한 용량의 데이터를 수집·저장·분석할 수 있고, 확장성과 유연성을 더욱 높인 인프라를 갖춰야 된다. 엔비디아(NVIDIA) GPU를 얼마나 확보했는지가 중요한 이유다.

엔비디아가 생성형 AI 하드웨어(HW) 분야의 핵심 사업자인 만큼, CSP와의 협력관계도 끈끈해지고 있다. 특히 AWS, MS, 구글 클라우드 글로벌 빅테크 3사는 엔비디아가 공급하는 최신 GPU인 H100과 H200 등을 신속하게 확보하는 데 적극 나섰다. 실제로 엔비디아 GPU의 수급난에도 불구하고, 3사는 다른 사업자들보다 많은 양의 GPU를 얻어 대규모 클러스터를 구축할 수 있었다. 또한 지난달 엔비디아가 출시한 차세대 슈퍼칩 GB200에 대한 최우선 공급 계약을 맺으며, CSP들의 클라우드에서 엔비디아의 플랫폼도 함께 지원하는 형태로 협력이 이어지고 있다.

엔비디아와의 협력은 유지하되, 엔비디아 GPU 종속성을 탈피하기 위해 자체적으로 반도체 칩을 개발하는 움직임도 날이 갈수록 커지고 있다. GPU 수급난이 시장 환경에 미치는 변동성이 크기도 하거니와, 자사만의 특화 칩을 활용해 다양한 AI 워크로드에 대한 대응과 고객 선택권을 넓힐 수 있기 때문이다.

AWS의 경우, 여러 세대의 자체 칩과 함께 파트너사의 다양한 칩 기반의 인스턴스를 고객들에게 제공하고 있다. 고성능 프로세서 ‘그래비톤(Graviton)’을 주력으로, AI 훈련을 위한 2세대 ‘트레이니엄(Trainium)’ 칩과 ML 추론을 위한 2세대 ‘인퍼런시아(Inferentia)’ 칩을 지난해 출시했다.

이에 대해 AWS 양승도 솔루션즈 아키텍트(SA) 리더는 “AWS는 ARM 기반 그래비톤 칩을 출시할 때 SW에 대규모 투자를 했다. SW와의 친숙함이 고객 성공의 중요한 요소라는 것을 인지하고 있어 트레이니엄과 인퍼런시아에도 동일하게 투자하고 있다”며 “최근 업계는 ARM 기반의 아키텍처를 빠르게 수용하고 있다. AWS는 이러한 진화의 선두에 서 있으며, 이미 특수 목적 AI 칩인 트레이니엄과 인퍼런시아를 위한 중요 SW 도구 체인 지원을 구축했다. AWS는 앞으로도 고객에게 더 나은 가격 대비 성능을 제공하는 차세대 AWS 설계 칩을 제공하기 위해 혁신을 계속할 것이다”라고 강조했다.

MS는 지난해 11월 LLM 학습 및 추론을 위해 설계된 ‘애저 마이아(Azure Maia)’와 함께 자체 개발한 클라우드용 CPU인 ‘애저 코발트(Azure Cobalt)’를 공개했다. 애저 마이아는 AI 기술 가속화를 위해 설계된 칩으로, 오픈AI 모델, 빙, 깃허브 코파일럿, 챗GPT와 같은 AI 워크로드에 대한 클라우드 기반 학습 및 추론을 수행하도록 설계됐다. 애저 코발트는 ARM 아키텍처를 기반으로 한 클라우드 네이티브 칩이다. 이를 통해 다양한 종류의 작업을 수행하는 워크로드의 성능과 전력 효율성을 최적화할 수 있다는 게 회사 측 설명이다.

한국MS 송승호 애저 비즈니스 총괄팀장은 “MS는 이미 마이아와 코발트 시리지의 2세대 버전 설계에 착수한 상태다. 이에 더해 칩 기반의 파트너십과 지원을 확장하고 있다. 대표적으로 MS는 애저에 AMD의 ‘MI300X’ AI 모델 학습·추론 처리 가속 가상머신을 추가했다”며 “MS는 이러한 칩부터 최종 서비스에 이르기까지 기술 스택의 모든 계층을 최적화하고자 한다. 이를 통해 고객이 애저를 통해 최상의 경험을 얻을 수 있도록 적극 지원하고 있다”고 말했다.

구글 클라우드 또한 일찌감치 자체 텐서 처리 장치(TPU)를 개발·활용해 오며 인프라 경쟁력을 키워가고 있다. 특히 구글 클라우드 측은 AI 모델 학습부터 미세조정, 추론에 이르는 모든 AI 워크로드의 성능과 비용을 최적화할 수 있으며, 우수한 데이터센터 인프라를 바탕으로 높은 안정성과 가용성, 보안을 제공하고 있다고 강조한다. 대표적인 도입 사례로는 국내 대표 게임사 엔씨소프트가 구글 클라우드 TPU를 기반으로 ‘바르코 LLM’을 개발한 바 있다.

글로벌 빅테크 CSP들이 엔비디아 차세대 GPU 칩 선제 확보와 자체 칩 개발에 집중한 것과 마찬가지로, 국내 CSP들도 이에 박차를 가하고 있다. 특히 국산 반도체 칩을 적극 도입하는 등 국내 파트너사들과의 협력도 키우고 있다.

먼저 NHN클라우드는 AI 서비스 기술 개발 수요에 대응해 100대 이상의 엔비디아 GPU H100 서버를 도입해 ‘국가 AI 데이터센터’를 구축·운영하고 있다. 회사 측에 따르면, 국가 AI 데이터센터는 랙당 전력 용량이 15키로와트(kW)로, 국내 평균 랙당 전력 용량 4.8kW 대비 3배 이상 높은 전력을 공급할 수 있으며, H100의 최적 성능을 내기 위한 전력과 열에 취약한 GPU 주변의 컴퓨팅 자원을 냉각할 수 있는 설비를 갖췄다.

또한 NHN클라우드는 다양한 AI 반도체 기업과의 협력을 통해 엔비디아 GPU 종속을 탈피하기 위한 노력도 기울이고 있다. 지난 2021년 그래프코어와의 IPU 공급 협약을 통해 AI 전용 반도체 공급망을 다양화하고 있다. 또한 SKT의 자회사인 사피온과 손잡고 국산 AI 반도체 ‘X220’을 클라우드 환경에서 실증한 바 있다. 올해는 사피온의 ‘X330’ 기반 신경망 처리 장치(NPU) 인프라를 20페타플롭스(PF) 규모로 구축할 계획이다.

NHN 국가 AI 데이터센터 (출처: NHN)
NHN 국가 AI 데이터센터 (출처: NHN)

KT클라우드는 지난 2022년 종량제 AI 인프라 서비스 ‘하이퍼스케일 AI 컴퓨팅(HAC)’ 출시를 시작으로, 국내 팹리스 기업 리벨리온과 협력해 NPU 인프라 상용화 및 AI 추론에 최적화된 GPU 슬라이싱 기술을 적용한 AI 추론 인프라 등을 출시하고 있다. 이를 통해 AI 학습·개발·서비스 효율을 높일 수 있는 다양한 인프라 서비스를 제공하고 기관·기업들의 진입 장벽을 낮춰 산업 활성화를 이끈다는 계획이다.

네이버클라우드는 과기정통부 주도의 ‘K-클라우드’ 프로젝트에 주관사로 참여해 퓨리오사의 국산 NPU 1세대 칩 ‘워보이(Warboy)’를 기반으로 AI 반도체 팜(Farm)의 기술 검증(PoC) 구축을 성공적으로 수행했으며, 올해는 출시 예정인 퓨리오사의 2세대 칩 ‘레니게이드(Renegade)’를 기반으로 AI 응용서비스 실증을 계획 중이다.

특히 네이버클라우드는 삼성전자와 협력해 자체 AI 반도체 솔루션을 개발하고 있다. 이에 대해 네이버클라우드 측 관계자는 “이는 다양한 초대규모 AI 서비스를 운영한 경험과 AI 경량화 기술을 삼성전자의 HW 역량에 융합한 반도체 솔루션이다. 현재 기존의 반도체 성능 대비 10배 이상의 기본 계산 성능 향상이 내부 평가 결과 관찰되고 있다”며 “물론 이렇게 관찰한 기본 계산 능력이 실제 서비스에서 10배까지 동일하게 도달하는 것은 아니지만 기존 반도체보다 현격한 수준으로 계산 능력을 향상시켰다고 볼 수 있다”고 말했다.

이어 이 관계자는 “해당 AI 반도체 솔루션의 출시 시점은 구체적으로 정해지지 않았으나 가능한 빠른 출시를 위해 노력하고 있으며, 가장 먼저 네이버클라우드 서버에 탑재돼 각종 네이버 AI 서비스를 구동하며 성능 검증과 안정화 과정을 거칠 예정이다”라고 밝혔다.


다양한 FM·LLM 접근성 높인 AI 개발 플랫폼 지원

서비스형 인프라(IaaS) 형태의 컴퓨팅 인프라 지원을 넘어, 최근에는 클라우드상에서의 AI 모델 개발·학습·구축을 위한 작업들이 수행되고 있다. 자체 AI 모델을 보유하고 있지 않은 고객들도 다양한 상용 및 오픈소스 FM과 LLM을 활용할 수 있도록 지원하는 CSP들의 플랫폼 서비스가 주목받게 된 것이다.

먼저 AWS는 MS와 구글 클라우드에 비해 생성형 AI 영역에서는 후발주자라는 평가를 받아왔지만, 지난해 출시한 아마존 베드록 플랫폼을 내세우며 고객 확보에 공격적으로 나서고 있다. 베드록은 기존 막대한 비용과 시간이 드는 자체 FM 구축 과정 없이, 고객들이 API를 통해 시장에 존재하는 다양한 FM과 LLM을 쉽게 선택·활용할 수 있는 플랫폼이다. 현재 베드록 내에서는 메타(Meta), 앤트로픽(Anthropic), 코히어(Cohere), 스태빌리티(Stability) 등 AWS 파트너사들의 모델들과 함께 AWS의 자체 개발 FM ‘아마존 타이탄(Amazon Titan)’을 서비스하고 있으며, 해당 모델들의 새 버전도 주기적으로 업데이트되고 있다.

AWS는 아마존 베드록의 강점으로 △완전 관리형 환경 △손쉬운 커스터마이징 △프라이버시를 염두에 둔 설계 △아마존 타이탄 FM 지원 △고객의 폭넓은 선택권 등을 강조한다.

이에 대해 AWS 양승도 SA 리더는 “아마존 베드록의 완전 관리형 환경을 통해 고객은 인스턴스 유형, 네트워크 토폴로지, 엔드포인트와 같은 인프라 세부 사항에 대해 특별히 걱정할 필요 없이 FM을 사용할 수 있다. 또한 ‘아마존 S3(Amazon S3)’에서 레이블이 지정된 최소 20개의 예제를 활용해 모델을 쉽게 커스터마이징할 수 있으며, 특정 작업에 맞게 모델을 조정할 수 있다는 것도 강점이다”라며 “특히 아마존 베드록은 모든 사용자 지정 모델을 비공개로 관리하므로 고객이 사용한 데이터나 사용자 지정 모델이 경쟁업체에 제공되지 않는다”고 설명했다.

AWS 생성형 AI 기술 스택 (출처: AWS)
AWS 생성형 AI 기술 스택 (출처: AWS)

생성형 AI 시장에서 누구보다 빠르게 총력을 기울인 MS는 ‘애저 AI 스튜디오(Azure AI Studio)’를 주력 플랫폼으로 서비스하고 있다. 애저 AI 스튜디오도 고객이 쉽게 AI 모델을 개발하고, 이를 활용할 수 있도록 다양한 도구와 기능을 제공한다. 이를 통해 개발자는 사전 구축된 서비스와 모델, 신속한 조정 및 평가, 개인 정보 보호, 보안, 규정 준수를 위한 책임 있는 AI 도구를 통합할 수 있다는 게 MS 측 설명이다.

MS가 제시하는 애저 AI 스튜디오의 특장점은 △중앙 집중식 액세스 △우수한 도구 △책임 있는 AI △확대되는 파트너 에코시스템 등이다. 먼저 MS는 애저 AI 스튜디오를 통해 ‘애저 오픈AI 서비스(Azure OpenAI Service)’에 곧 출시될 ‘GPT-4 터보(GPT-4 Turbo)’와 같은 최신 모델과 팔콘(Falcon), 스테이블 디퓨전(Stable Diffusion), 라마2(Llama 2) 등의 개방형 모델을 포함한 포괄적인 모델 카탈로그를 제공하고 있다. 회사 측에 따르면, MS 애저 오픈AI 서비스는 지난해 1월 공식 출시돼 현재 전 세계 18,000개 이상의 조직이 이용하고 있으며, 포춘 500대 기업 중 절반 이상이 활용하고 있다.

또한 MS는 애저 AI 스튜디오 내에서 개발자가 데이터 플랫폼인 ‘MS 패브릭(MS Fabric)’을 활용해 엔터프라이즈 데이터를 기반으로 모델을 구축하고, 정형·비정형 및 실시간 데이터를 원활하게 통합 가능한 고객만의 맞춤형 모델을 구축할 수 있도록 지원한다. 이에 더해 ‘애저 머신러닝 프롬프트 플로우(Azure Machine Learning prompt flow)’와 같은 프롬프트 엔지니어링 도구를 이용해 모델 응답을 테스트하고 개선시킬 수 있다는 것도 특징이다.

이와 관련해 한국MS 송승호 총괄팀장은 “애저 AI 스튜디오는 개발자가 책임 있는 AI 원칙을 개발 프로세스에 적용하고 AI 애플리케이션의 품질과 안전성을 평가할 수 있도록 돕고 있다. 특히 ‘애저 AI 콘텐츠 세이프티(Azure AI Content Safety)’를 활용해 콘텐츠를 분류하고 해킹 위험을 감지하며 높은 기준을 지속적으로 준수하는지 모니터링할 수 있다”면서 “또한 파트너 생태계도 지속적으로 확대되고 있다. 현재 애저 AI 스튜디오에서는 오픈AI, 엔비디아, 허깅 페이스(Hugging Face), 메타 등과 같은 업계 리더들의 최신 모델을 활용할 수 있도록 서비스하고 있다”고 소개했다.

구글 클라우드는 ML 모델과 AI 애플리케이션을 학습·배포하기 위한 자체 ML 플랫폼 버텍스 AI를 중심으로 생성형 AI 사업을 영위하고 있다. 버텍스 AI도 AWS와 MS의 지원 사례와 마찬가지로, 구글의 자체 개발 모델은 물론, ML운영관리(MLOps) 플랫폼에서 고객이 원하는 다양한 FM과 오픈소스 LLM 커스터마이징 그리고 서드파티(Third-Party) 활용까지 지원하는 개방형 서비스를 제공하고 있다.

제미나이와 같은 구글의 모델 외에 앤트로픽과 코히어의 FM을 지원하며, 구글 클라우드상에서 서비스하는 파트너사의 생성형 AI 모델로는 AI21 랩스(AI21 Labs), 미드저니(Midjourney), 오스모(Osmo) 등의 모델들이 있다. 이 외에 다양한 AI 스타트업 기업들을 구글 클라우드의 협력사로 끌어들이기 위해 클라우드 운용 비용을 지원하는 프로그램 등을 운영하며 버텍스 AI 확장에 힘을 쏟고 있다.

국내 CSP의 서비스 중에서는 하이퍼클로바X를 기반으로 한 네이버클라우드의 솔루션이 주목받고 있다. 먼저 하이퍼클로바X 모델을 쉽게 커스터마이징할 수 있는 하이퍼스케일 AI 개발 도구인 ‘클로바 스튜디오’가 있다. 회사 측에 따르면, 클로바 스튜디오는 챗GPT가 출시되기 전인 2022년 초부터 클로즈드 베타(CBT) 형식으로 서비스를 시작해 현재까지 누적 1,500여 곳 스타트업 및 연구기관이 활용하며 생태계를 확장하고 있다.

클로바 스튜디오는 간단한 프롬프트 및 파라미터 설정으로 모델을 원하는 형태로 만들 수 있는 ‘플레이그라운드’, 자체 보유한 데이터셋을 결합해 특화 모델을 구축할 수 있는 ‘튜닝’, LLM 기반 대화형 AI 서비스에 연동할 수 있는 형태로 서비스를 개발할 수 있는 ‘스킬 트레이너’ 등 다양한 기능을 제공한다.

다음으로 네이버클라우드는 완전 관리형 하이브리드 클라우드 서비스로 강력한 보안과 전용 AI 플랫폼을 동시에 제공하는 솔루션인 ‘뉴로클라우드 포 하이퍼클로바X(Neurocloud for HyperCLOVA X)’를 서비스하고 있다.

이에 대해 네이버클라우드 측 관계자는 “뉴로클라우드 솔루션은 고객사의 데이터센터 내부에 폐쇄된 사내망으로 네트워크 환경을 구성하고, 고객이 원하는 보안 정책을 준수할 수 있도록 사내망과 연동할 수 있게 돕는다. 뉴로클라우드 인프라와 기존 인프라가 모두 고객사 내부에 있기 때문에 고객사의 보안 정책을 준수하고 데이터 유출을 방지할 수 있으며, 폐쇄된 네트워크 안에서 하이퍼클로바X 기반의 생성형 AI를 학습시킬 수 있다. 특히 금융·전자 등 까다로운 보안 수준이 요구되는 기업들의 수요가 높아 다양한 논의가 이뤄지고 있다”고 설명했다.

클로바 스튜디오 및 뉴로클라우드 서비스 개요 (출처: 네이버클라우드)
클로바 스튜디오 및 뉴로클라우드 서비스 개요 (출처: 네이버클라우드)

자체 개발 LLM 경쟁력 강화…‘멀티모달’ 고도화 목표

최근 CSP들은 자사만의 자체 개발 LLM도 출시하며 생성형 AI 사업의 본격적인 외연 확장에 나서고 있다. 업계에 따르면, 자체 LLM 보유 여부가 클라우드 사업의 영업 및 매출 확대에도 큰 영향을 미치는 것으로 알려진다. 대표적인 예로, 하이퍼클로바X를 서비스하는 네이버클라우드의 경우 하이퍼클로바X에 대한 고객 수요 증가와 더불어 그 기반이 되는 클라우드 서비스의 영업 성과도 함께 동반성장하고 있는 것으로 알려진다. LLM을 기반으로 글로벌 진출의 문을 열 수 있다는 것도 큰 강점으로 작용한다.

아직까지 국내 사업자 중 유의미한 레퍼런스를 보유한 곳은 네이버클라우드 한 곳이다. 글로벌 빅테크 CSP들은 자체 모델을 적극적으로 홍보하고 있다. 특히 이들 모두 텍스트를 비롯해 이미지·음성·영상 등 여러 가지 유형의 데이터와 정보를 기반으로 AI 시스템을 구축하는 ‘멀티모달(Multi Modal)’로의 고도화를 목표로 하고 있다. 멀티모달 AI는 오픈AI의 영상 생성형 AI ‘소라(Sora)’의 등장 이후 더욱 중요한 담론으로 떠올랐다.

먼저 AWS의 아마존 타이탄의 경우 고성능 이미지, 멀티모달 및 텍스트 모델 제품군으로, 아마존 베드록에서만 이용할 수 있다. 특히 AWS는 아마존 타이탄이 고객이 맞춤화를 위해 제공할 수 있는 데이터에서 유해한 콘텐츠를 탐지 및 제거하고, 사용자 입력에서 부적절한 콘텐츠를 거부하며 부적절한 콘텐츠가 포함된 출력을 필터링하는 등 책임감 있는 AI를 염두에 두고 구축됐다고 강조한다.

멀티모달의 특성도 지니고 있다. ‘아마존 타이탄 이미지 생성기’는 텍스트 프롬프트를 사용해 고품질의 사실적인 이미지를 생성하고 기존 이미지를 개선하는 솔루션이다. ‘아마존 타이탄 텍스트’는 요약, 정보 추출, 텍스트 생성과 같은 자연어 작업을 자동화하도록 지원한다. ‘아마존 타이탄 텍스트 익스프레스’는 잘못된 답변을 내놓는 환각현상(할루시네이션) 방지를 위한 검색 증강 생성(RAG)이 지원되는 텍스트 생성용 LLM이다.

다음으로 아마존 타이탄 멀티모달 임베딩은 이미지와 짧은 텍스트를 임베딩으로 변환해 고객이 최종 사용자에게 보다 정확하고 맥락에 맞는 멀티모달 검색 및 추천 환경을 제공할 수 있도록 지원한다. 아마존 타이탄 텍스트 임베딩은 텍스트를 숫자 표현으로 변환하는 LLM으로, 고객이 RAG를 쉽게 시작할 수 있도록 해 의미적 유사성에 기반한 텍스트 검색, 개인화 및 클러스터링 등을 지원한다.

MS는 LLM보다는 소형언어모델(SLM) 개발·활용에 만전을 가하고 있다. 이에 대해 한국MS 송승호 총괄팀장은 “LLM은 수천억 개의 파라미터를 가지고 있어 저장 공간과 실행 시 자원이 많이 필요하며, 이는 HW 성능과 전력 소모에 영향을 준다. 이에 MS 연구진은 모델 학습에 필요한 시간과 자원을 적게 소모하면서도 효율적인 성능을 보일 수 있는 SLM인 ‘파이(Phi)’와 ‘오르카(Orca)’를 개발했다”고 소개했다.

특히 MS는 지난해 말 파이와 오르카 시리즈의 2세대 버전을 오픈소스로 출시했다. 구글도 제미나이 LLM의 경량화 버전 제미나이 나노와 오픈소스 AI 언어모델 ‘젬마(Gemma)’ 등을 지속적으로 선보이고 있다. MS와 구글은 자사의 SLM이 LLM 대비 매개변수가 적음에도 그 성능은 LLM과 동등하거나 능가하는 결과를 보인다고 강조한다. 또한 아마존 베드록에서만 이용 가능한 아마존 타이탄 모델과 달리, 오픈소스 형태로 고객 누구나 자유롭게 이용할 수 있다는 점도 MS와 구글이 내세우는 강점이다.

네이버클라우드는 하이퍼클로바X가 한국어에 특화된 모델이라는 특장점을 강조한다. 한국어를 기반으로 한 전문 지식 평가에 있어서 GPT-4나 제미나이-프로보다도 우수한 성능을 보인다는 것이다. 이에 대해 네이버클라우드 측 관계자는 “같은 AI 모델이어도 언어나 문화에 따라 국가별로 성능이 다르게 나타나고 있어 동일 투자를 통해 동일 성능의 AI를 이용하려면 자국어 중심의 AI 구축이 필요하다”며 “하이퍼클로바X는 자국어 중심의 AI가 해당 국가에서 가장 유용할 수 있음을 실증하고 있다”고 역설했다.

또한 하이퍼클로바X도 멀티모달 AI로 고도화되고 있다. 지난해 11월부터 하이퍼클로바X 기반 대화형 AI 서비스 ‘클로바X’에 이미지 편집 기능이 추가된 것이다. 업로드한 이미지를 AI와 대화하며 편집할 수 있는 기능으로, 현재 일부 사용자들을 대상으로 실험적으로 운영되고 있다. 네이버클라우드는 향후 이미지·음성 등 하이퍼클로바X의 멀티모달 확장을 계속해 나간다는 방침이다.


“생성형 AI 애플리케이션으로 고객 업무 일선에서 돕는다”

생성형 AI 트렌드와 관련해 이전까지는 AI 개발과 모델 그 자체에 집중했다면, 최근에는 고객 업무를 일선에서 지원하는 CSP들의 생성형 AI 기반 비즈니스 지원 애플리케이션 서비스가 더욱 확장되고 있다.

특히 ‘MS 365 코파일럿(Copilot for MS 365)’을 서비스하는 MS는 이 영역에서의 절대 강자라는 평가를 받는다. 먼저 MS 365의 경우, 기존의 오피스 앱과 윈도우 지원은 물론, 보안 SW와 클라우드 컴퓨팅 등 다양한 서비스를 제공하는 등 기존 시스템·서비스 등과 정보를 연동할 수 있어 고객의 생산성 향상을 지원한다.

여기에 오픈AI GPT-4 모델 및 DALL·E 3로 구동되는 챗 어시스턴트 코파일럿이 적용돼 더 고도화된 MS 365 코파일럿은 MS 365앱과 LLM의 비즈니스 데이터 결합을 지원한다. 특히 MS365 앱에서 자연어 명령 전달만으로 손쉽게 콘텐츠 생성, 데이터 분석, 프레젠테이션 작성 등 다양한 일상 업무를 돕는다.

이외에도 MS는 생성형AI 기술을 통해 IT 전문가와 개발자의 업무 및 개발 환경을 지원하는 솔루션을 보유하고 있다. 먼저 윈도우 AI 스튜디오는 애저 AI 스튜디오의 최첨단 AI 개발 도구를 결합해 AI 앱 개발 간소화를 돕는 솔루션이다. 개발자가 윈도우 앱에서 SLM과 라마2, 미스트랄(Mistral)과 같은 최신 모델을 미세 조정하고 배포할 수 있도록 돕는 엔드투엔드 기반 작업 영역 설정을 제공한다.

아울러 ‘MS 코파일럿 스튜디오’라는 비즈니스 크리티컬 데이터를 통합, 내외부에서 사용 가능한 코파일럿을 구축할 수 있는 로우코드 도구도 제공하고 있다. 더불어 IT 및 보안 담당자를 위한 생성형 AI 보안 통합 솔루션인 ‘코파일럿 포 시큐리티’를 최근 출시하며 대규모 데이터와 위협 인텔리전스 활용을 지원한다.

구글 클라우드는 구글 워크스페이스(Google Workspace)와 연동 가능한 ‘듀엣 AI(Duet AI)’를 핵심 솔루션으로 서비스하고 있다. 듀엣 AI는 생성형 AI 기술을 구글 클라우드 플랫폼에 적용해 클라우드 인프라 내 전반에서 고객의 창의성 발휘와 생산성 향상을 돕는 서비스다.

특히 듀엣 AI는 전 세계 많은 사용자들이 이용하는 구글 워크스페이스와 연동돼, 지메일(Gmail), 구글 독스(Google Docs), 슬라이드, 시트 나아가 화상회의에까지 활용할 수 있다. 워크스페이스에 연동된 생성형 AI가 이미지 생성부터 회의 요약 등을 수행해 사용자의 업무 생산성을 크게 향상시킬 수 있다는 게 구글 클라우드 측 설명이다.

이 같은 MS와 구글 클라우드에 대항하고자 AWS는 지난해 ‘리인벤트 2023(re:Invent 2023)’에서 챗봇 형태의 생성형 AI 기반 어시스턴트인 ‘아마존 Q(Amazon Q)’를 새롭게 선보였다. 아마존 Q는 업무용으로 특별히 설계된 생성형 AI 기반 어시스턴트로, 비즈니스에 맞게 조정할 수 있다는 점이 특징이다. 특히 챗봇 형태로 구현돼, 회사 내부 저장 데이터와 시스템에 기반한 답변과 콘텐츠 생성을 지원한다. 또한 사용자가 아마존 Q 없이 특정 데이터에 액세스할 수 있는 권한이 없는 경우, 아마존 Q를 사용해도 해당 데이터에 접근하게 하는 등 엄격한 요구 사항을 충족하도록 설계됐다.

아울러 AWS는 개발자의 코딩 생산성을 높여주는 ‘아마존 코드위스퍼러(Amazon CodeWhisperer)’ 또한 홍보하고 있다. 회사 측에 따르면, 코드위스퍼러가 제공하는 코드 추천은 아마존 및 오픈소스 코드에서 학습된 LLM을 기반으로 한다. 개발자는 코드위스퍼러가 추천하는 최상위 권장 사항을 수락하거나 혹은 더 많은 권장 사항을 확인하는 등 여러 선택지를 활용해 볼 수 있다. 특히 코드위스퍼러는 학습 데이터의 보안 취약점을 분석해 가능한 한 많은 보안 취약점을 필터링할 수 있다는 게 AWS가 강조하는 부분이다.

뿐만 아니라 LLM을 통해 의료임상 문서를 효율적으로 작성할 수 있게 돕는 ‘AWS 헬스스크라이브(Amazon HealthScribe)’ 솔루션도 차세대 헬스케어 산업을 위한 주력 서비스로 소개하고 있다.

AWS가 지난해 열린 ‘리인벤트 2023’에서 ‘아마존 Q’를 새롭게 선보였다. (출처: AWS)
AWS가 지난해 열린 ‘리인벤트 2023’에서 ‘아마존 Q’를 새롭게 선보였다. (출처: AWS)

국내 CSP인 네이버클라우드에서는 하이퍼클로바X 기반의 비즈니스 플랫폼 ‘커넥트X’ 상용화를 준비 중이다. 디자인·코딩을 비롯한 전문적인 업무를 초거대 AI의 도움을 받아 수행할 수 있고, 자료 탐색 및 문서 작성, 일정 조율 등 분산된 업무들을 연결해 생산성을 높일 수 있다는 게 회사 측 설명이다. 가령, AI가 기업 환경에서 사용하는 문서나 히스토리를 기반으로 오늘 해야 할 일을 자동으로 감지해 추천하고, 이메일 답장을 제안하는 등 업무 생산성 향상에 도움을 주는 도구다. 회사 측에 따르면, 현재 사내 프로젝트로서 일부 기능에 대해 네이버 내부 직원들을 대상으로 테스트를 진행하고 있다.

이외에도 △대화형 AI 서비스 클로바X △생성형 AI 검색 ‘큐:’ △창작자 및 사업자를 위한 AI 글쓰기 도구 ‘클로바 포 라이팅’ △생성형 AI 광고 ‘클로바 포 애드’ 등 일반 사용자와 창작자를 위한 도구들을 제공하고 있다.


솔루션과 파트너 확장 통해 경쟁력 확보 모색

글로벌 빅테크 CSP들이 클라우드 산업에서의 자본력과 기술력을 앞세워 전반적인 생성형 AI 시장을 잠식하고 있는 가운데, 국내 CSP들은 솔루션과 파트너 확장을 통해 공공시장 AI 사업에 적극적으로 참여하고 있다.

먼저 KT클라우드는 ‘AI 트레인(AI TRAIN)’과 민간 기업 대상의 NPU 상품 등 새로운 상품 출시를 전략적으로 준비하고 있다. 이를 통해 기존에 회사가 보유하고 있던 AI 서브(AI SERV)와 추론 전용 NPU 상품을 중심으로 한 ‘추론용’과 AI 트레인, HAC를 통한 ‘학습용’ 상품 라인업을 토대로 AI 인프라 지원 범위를 확장함으로써 시장에 대응하고 있다.

KT클라우드의 주력 상품 중 HAC는 대규모 GPU 클러스터를 가상화해 AI 연산·개발 과정에 필요한 대규모 GPU 자원을 동적으로 할당·반납하는 기술을 바탕으로 한 종량제 AI 인프라 서비스다. 대규모 GPU 인프라 자원을 구축 없이 사용할 수 있어 대기업은 물론, 독자적인 인프라 구축과 운영이 어려운 AI 스타트업, 대학교 및 연구기관에서 보다 쉽게 이용할 수 있다. GPU 할당 기준이 아닌, 연산 실행 시 사용된 시간만큼만 요금이 부과되는 비용효율성도 보장하고 있다. 지난해 10월 출시된 AI 서브는 고성능의 GPU 인프라를 사용한 만큼 비용을 지불하는 AI 추론 특화 서비스다. 고성능 GPU 인프라를 각 서비스에 필요한 만큼만 작게 분할하는 슬라이싱(Slicing) 기술로 최적의 양을 사용할 수 있는 것이 특징이다.

아울러 KT클라우드는 토종 팹리스 리벨리온, AI 반도체 구동 SW 전문기업 모레 등 파트너사와 협력을 이어가며 대규모 GPU, NPU 팜과 클라우드 플랫폼을 설계·구축하고, AI 서비스 실증을 통해 레퍼런스를 확보해 나갈 계획이다. 파트너들과의 다양한 기술 협력을 통해 저비용·고성능·고효율의 AI 인프라를 고도화하고 국산 AI 반도체, SW, 클라우드 플랫폼, AI 응용서비스까지 아우르는 AI 풀스택을 완성해 나간다는 목표다.

그 대표적인 활동으로서 정부 주도 K-클라우드 프로젝트, AI 바우처 지원사업, 고성능컴퓨팅 지원사업 등 적극적인 공공 사업을 통해 국가 AI 산업 생태계 활성화를 이끌어 나가고, 엔터프라이 고객 대상의 상품 출시도 준비하며 AI 산업에서의 영향력을 확대하겠다는 계획이다.

인프라 영역에 무게중심을 두고 있는 NHN클라우드는 학습부터 추론까지 AI 서비스 개발에 필요한 여러 단계를 자동화할 수 있는 AI 플랫폼 ‘AI 이지메이커(EasyMaker)’를 내세워 AI 서비스 개발과 효율적인 인프라 활용을 지원하고 있다. 이외에도 △고성능 GPU 기반 가속기 △최대 50테라바이트(TB) 용량 스토리지 △AI 얼굴인식, AI 패션, 광학 문자 인식(OCR) 등 서비스형 AI(AIaaS) △보안 솔루션 등을 서비스하고 있다.

NHN클라우드는 AI 데이터센터 설계·구축 역량을 특히 내세우고 있다. NHN클라우드 측 관계자는 “현재 470여 개의 AI 스타트업과 기술기업이 국가 AI 데이터센터에 구축된 최신 GPU 장비인 H100 서버를 사용하며, 글로벌 AI 기업들과 경쟁하고 있다”며 “NHN클라우드는 5년 전부터 국가 AI 데이터센터를 설계하며, 고효율 에너지 관리와 우수한 공조 시설을 갖추는 등 설비 설계 및 운영에 대한 노하우에 적극적으로 투자해 왔다. 이러한 경험을 바탕으로 국가 AI 데이터센터 시장을 주도하고 선도 AI 기업을 지원해 나갈 방침이다”라고 밝혔다.

또한 NHN클라우드는 데이터센터의 고도화와 함께 병렬 학습에 특화된 HPC 전용 환경 제공을 준비하고 있으며, AI 서비스에 필수적인 데이터 플랫폼 및 고성능 스토리지 개발에 박차를 가하고 있다.

특히 지난 2월 5일 NHN클라우드와 네이버클라우드의 AI 공동 사업을 위한 업무협약(MOU) 체결이 주목받고 있다. 경쟁 관계의 국내 클라우드 업계 대표 CSP들이 AI 산업 활성화와 경쟁력 제고를 위해 서로 힘을 합치게 된 것이다. 두 기업은 네이버클라우드의 하이퍼클로바X 기술을 적용한 멀티 클라우드 서비스를 공동 개발하고, 공공 및 교육 분야 맞춤형 LLM 사업에 협력하는 등 서비스를 공동 개발해 나갈 방침이다.

아울러 NHN 클라우드는 생성형 AI 기업 솔트룩스와 AI 얼라이언스를 체결했으며, 안정적인 GPU 안정적 수급을 위해 룩셈부르크의 클라우드 사업자인 지코어와도 파트너십을 확대해 가고 있다.

지난 2월 5일 네이버클라우드 김유원 대표(왼쪽)와 NHN클라우드 김동훈 대표가 AI 공동 사업을 위한 MOU를 체결했다. (출처: 네이버클라우드)
지난 2월 5일 네이버클라우드 김유원 대표(왼쪽)와 NHN클라우드 김동훈 대표가 AI 공동 사업을 위한 MOU를 체결했다. (출처: 네이버클라우드)

네이버클라우드는 하이퍼클로바X를 무기로 총 50건 이상에 달하는 MOU를 체결하며 교육, 금융, SW, 유통, 보안, 헬스케어 등 전 산업군에 걸쳐 협력을 늘려가고 있다. 대표사례로는 △공공교육 부문 경상북도교육청 학교지원종합자료실 AI 시스템 구축 △사우디아라비아 디지털 트윈 플랫폼 구축 사업 수주 △금융권 미래에셋증권의 모바일 트레이딩 시스템(MTS) 및 홈 트레이딩 시스템(HTS) 내 뉴스 번역·요약 서비스 도입 △보안 부문 안랩과의 솔루션·서비스 협력 제휴 △올거나이즈 ‘알리 LLM 플랫폼’ 내 하이퍼클로바X 연동 및 기술 지원 등 다양한 방면으로 사업을 확장 중이다.

현재 네이버클라우드는 기업들이 비용 부담 없이 클로바 스튜디오를 사용해 볼 수 있도록 크레딧을 제공하는 프로모션도 진행하고 있다. 이와 함께 클로바 스튜디오 활용 사례 및 사용법 교육도 지원한다. 또한 하이퍼클로바X를 알리고, 그 활용 사례를 보여주는 자리를 적극적으로 마련하고 있다. 지난해에는 금융사를 대상으로, 올해는 항공사와 헬스케어 기업 대상으로 세미나를 개최하는 등 다양한 산업 분야에서 생성형 AI 도입이 이뤄질 수 있도록 교육·마케팅 등 지원과 투자를 해나간다는 방침이다.

이와 관련해 네이버클라우드 측 관계자는 “최근 민감 데이터가 국가의 경계를 넘지 않는 강력한 보안을 갖춘 상태에서 AI를 이용하기 위해 국가별로 AI 주권을 지키고자 하는 수요와 흐름이 만들어지고 있다. 또한 전기, 인터넷과 같은 범용 기술인 AI를 특정 기업이 독점할 경우 독점 서비스 제공이 가져올 폐해는 심각할 것이 자명하므로 여러 AI 모델들이 경쟁하는 시장이 만들어지는 다양성도 중요한 가치”라며 “사전학습 단계부터 LLM을 자체적으로 개발하며 이를 API로 제공하는 데 그치지 않고, 챗 에이전트 서비스를 운영하고 기업 생산성 도구 실험을 진행하는 등 기술 확보부터 서비스까지 풀버티컬 역량을 갖추고 있는 기업은 미국과 중국의 빅테크를 제외하면 네이버클라우드가 거의 유일하다. 이를 바탕으로 중동·동남아·유럽 등의 국가를 포함한 다양한 주체들이 자국어 중심, 혹은 맞춤형 AI 기술을 저비용으로 확보할 수 있도록 지원하는 방향으로 글로벌에도 진출할 계획이다”라고 포부를 밝혔다.

[인터뷰] “애저 오픈AI 서비스와 코파일럿으로 전 산업 혁신”

한국MS 송승호 애저 비즈니스 총괄팀장

한국MS 송승호 애저 비즈니스 총괄팀장

Q. MS의 생성형 AI 경쟁력을 뒷받침하는 주요 서비스는.
A. 먼저 지난해 1월 공식 출시된 ‘MS 애저 오픈AI 서비스’는 포춘 500대 기업 중 절반 이상이 활용하고 있을 만큼, 의료·금융·제조·소매 등 다양한 분야에서 생성형 AI 혁신을 일으키고 있다. 또한 고객이 손쉽게 AI 모델을 개발·활용할 수 있도록 돕는 ‘애저 AI 스튜디오’ 플랫폼을 통해 생성형 AI 업계를 선도하는 기업들의 다양한 FM을 제공할 뿐 아니라, 데이터 패브릭을 위한 ‘MS 패브릭’과 ML 기능까지 포괄적으로 지원하고 있다.

아울러 고객이 업무 효율성과 생산성을 높일 수 있는 ‘MS 365 코파일럿’을 서비스해 앱과 LLM의 연동, 실제 비즈니스와 데이터의 결합을 통한 일상 업무 수행을 돕고 있다. 전 세계 사용자들을 대상으로 진행한 MS 365 코파일럿 프리뷰 사용 조사에 따르면, 실제 코파일럿 사용자의 70%가 생산성 향상을 경험했으며, 87%는 문서 초안 작성이 쉬워졌다고 답했다. 이외에도 창의적인 작업을 시작하는 데에 도움을 받았다는 응답도 68%에 달했다. 이러한 결과는 MS의 생성형 AI 라인업이 업무 생산성을 높이고 창의적인 작업을 촉진하는 데 큰 역할을 하고 있음을 보여준다.

Q. 국내와 글로벌 주요 고객사를 소개한다면.
A. 국내에서는 LG CNS, 두산로보틱스 등의 기업들이 MS 오픈AI 서비스를 도입한 바 있다. LG CNS는 제조·금융·유통 등 다양한 산업 분야의 고객을 지원하기 위해 애저 오픈AI 서비스를 활용한 생성형 AI 서비스 및 솔루션을 개발하는 중이다. 특히 두산로보틱스는 AI 기반 GPT를 활용한 협동 로봇 솔루션 개발을 위해 애저 오픈AI 서비스를 활용하고 있다. 로봇 스스로 인간의 개입 없이 스스로 오류 수정을 반복하고, 임무를 수행하도록 설계돼 사용자의 프로그래밍 시간을 단축해 작업 효율성과 활용성을 향상시킬 수 있을 것으로 기대된다.

주요 글로벌 고객사로는 월마트(Walmart), 소니 혼다 모빌리티(Sony Honda Mobility) 등이 있다. 월마트는 애저 오픈AI 서비스를 도입해 50,000명의 직원에게 새로운 ‘내 도우미’ 앱에 대한 액세스 권한을 제공하는 도구를 출시했다. 이 앱은 불과 몇 달 만에 월마트의 독점 데이터, 기술 및 LLM을 활용해 긴 문서 요약부터 새로운 콘텐츠 제작 지원에 이르기까지 다양한 작업을 지원하고 있다. 소니 혼다 모빌리티는 애저 오픈AI 서비스를 활용해 첨단운전자보조시스템(ADAS)에 탑재할 AI 서비스를 개발할 예정이다.

Q. MS가 주목하는 향후 생성형 AI 기술 트렌드는 무엇인가.
A. 첫 번째, 소형언어모델 SLM이다. SLM은 작은 규모의 파라미터를 갖고 있어 학습에 필요한 시간과 자원을 적게 소모하면서도 효율적인 성능을 보인다. 또한 이러한 모델은 모바일 기기에서도 쉽게 실행할 수 있으며, 오프라인 상태에서도 사용 가능하다는 것이 강점이다. MS의 연구진은 이러한 점에 주목해 SLM의 장점을 극대화하면서도 LLM과 동등하거나 더 나은 성능을 보이는 자체 SLM ‘파이’와 ‘오르카’를 개발했다.

두 번째, 멀티모달 AI다. 멀티모달 AI는 텍스트·음성·시각 등 다양한 형태의 입력 데이터를 활용해 보다 풍부하고 자연스러운 상호작용을 제공하는 기술로, 텍스트와 음성만으로 이뤄지던 상호작용을 넘어, 시각적 정보도 통합해 사용자 경험을 향상시킬 수 있다. 이를 통해 사용자는 더 다양한 형태의 데이터 처리와 작업을 수행할 수 있는데, 예컨대 디자인 작업을 더욱 효율적으로 수행할 수 있다. 디자인 요소를 자동으로 생성하거나, 디자인 요소 간의 관계를 자동으로 파악해 디자인을 완성하는 등의 기능을 멀티모달 AI가 제공할 수 있다. 특히 ‘사용자 지정 신경망 음성’과 같은 기능을 통해 텍스트 리더기 및 청각 장애인용 도구에 사용 가능한 자연스러운 음성을 지원할 수도 있게 된다. MS는 멀티모달 AI가 인간의 인지능력과 더욱 유사하게 발전할 것으로 기대하고 있다.

마지막 세 번째로는 AI 기술이 향후 기후 변화, 에너지 위기, 질병 등과 같은 과학 분야의 국제적 문제를 해결하는 데 큰 역할을 할 수 있을 것으로 전망하고 있다. AI 기술은 데이터 분석, 예측 모델링, 시뮬레이션 등을 통해 우리 주변의 문제 해결을 도울 수 있다. 가령 AI 기술을 활용해 기후 변화에 대한 예측 모델을 개발하고, 이를 기반으로 기후 변화에 대한 대응 방안을 마련할 수 있다. 또한 에너지 효율성을 높이는 기술을 개발해 에너지 사용량을 줄이는 데에도 도움을 줄 수 있다. 미래에는 이러한 방식으로 더욱 발전된 AI 기술이 사회 발전에 큰 기여를 할 것으로 기대하고 있다.

Q. 생성형 AI 기술 발전을 선도하기 위한 MS의 기술 고도화 및 투자 계획은.
A. MS는 생성형 AI 기술 발전을 선도하기 위해 먼저 멀티모달 AI 연구를 활발히 추진하고 있다. 이를 위해 신경망 코덱과 같은 기술을 포함한 포괄적인 미디어 파운데이션 프레임워크를 개발하고 있다. 이 프레임워크는 다양한 미디어 콘텐츠의 표현을 추출해 AI가 현실 세계의 의미를 이해하고 멀티모달 데이터를 처리할 수 있도록 지원한다. 다음으로 데이터 기반 학습·반복에 중점을 두고 있다. AI의 학습과 발전은 실제 데이터에서 기반한다. MS는 다양한 유형의 미디어 정보에 대한 학습을 포함해 AI가 현실 세계에서 작동하는 데 필요한 정보를 얻을 수 있도록 지원하고 있다. 이를 통해 AI 모델은 더욱 실제적이고 현실적인 결정을 내릴 수 있게 된다.

또한 인간의 다양한 감각을 모방해 AI 모델이 물리적 세계를 관찰하고 상호 작용할 수 있는 능력을 향상시키는 방향으로 연구를 진행하고 있다. AI가 시각·청각·촉각·언어 등 다양한 감각을 활용해 물리적 세계를 보다 효과적으로 이해하고 상호 작용할 수 있도록 하기 위함이다.

아울러 대부분의 AI 모델은 텍스트를 기반으로 구축돼 있으나, MS는 비디오 및 오디오 소스와 같은 다양한 데이터 형식을 효율적으로 처리할 수 있는 방법을 연구하고 있다. 이를 통해 AI는 노이즈가 많고 복잡한 신호에서도 실제 세계의 본질을 포착할 수 있게 된다. 이 같은 기술 고도화 노력을 통해 MS는 생성형 AI 기술의 발전을 선도하고, AI가 다양한 현실 세계의 데이터를 처리하고 이해하는 능력을 지속적으로 향상시키고 있다.

 

저작권자 © 컴퓨터월드 무단전재 및 재배포 금지