본지, 지난달 16일 ‘제7회 2024 클라우드 컨퍼런스’ 개최

[컴퓨터월드] 2024년 본격적인 생성형 인공지능(AI) 시대의 막이 올랐다. 국내외 많은 기업들이 생성형 AI 시장 경쟁의 주도권을 쥐고자, 혹은 새로운 비즈니스 활로를 모색하고자 많은 투자를 하고 있다. 특히 생성형 AI 개발과 솔루션 구축을 위해 고성능 컴퓨팅이 필수적으로 요구되면서 클라우드 인프라의 중요성 역시 그 어느 때보다 주목받고 있다. 또한 생성형 AI의 확산이 국내 클라우드 산업 성장의 기회를 가져올 것으로 전망되면서 우리 정부도 ‘K-클라우드 프로젝트’ 등의 사업을 추진, 부처·공공기관의 조직개편을 단행하며 생성형 AI, 클라우드와 같은 신기술에 대한 대응 체계를 마련하고 있다.

본지(컴퓨터월드/아이티데일리)는 지난달 16일 서울 양재동 엘타워에서 각계 클라우드 전문가 및 국내 대표 기업들과 함께 생성형 AI 트렌드를 기회로 삼아 클라우드 산업이 자생력을 갖추고 다양한 비즈니스 기회를 발굴할 수 있는 전략을 제시해 보고자 “생성형 AI 시대, 클라우드 산업이 나아가야 할 방향은?”을 주제로 ‘제7회 2024 클라우드 컨퍼런스’를 개최했다.

“생성형 AI 시대, 클라우드 산업이 나아가야 할 방향은?”

이날 행사는 ‘생성형 AI 시대, 클라우드 산업이 나아가야 할 방향은?’을 주제로 한 한국지능정보사회진흥원(NIA) 김은주 지능기술인프라본부장의 키노트 발표로 시작됐다.

김은주 본부장은 클라우드와 AI를 실제 전장에서 활용하는 미국 국방부 합동지휘통제 전략 ‘JADC2’를 소개했다. 미국 국방부는 약 10조 원에 달하는 예산을 투입해 국방을 위한 클라우드 네트워킹 프로젝트를 수행했으며 특히 아마존웹서비스(AWS), 마이크로소프트 애저(MS AZURE), 구글 클라우드 플랫폼(GCP) 등 민간기업들의 멀티 클라우드를 도입했다. JADC2의 클라우드상에서는 AI가 실시간으로 전장에서 수집된 데이터를 분석·식별, 그 처리 결과를 다시 군 병력 디바이스에 공유하는 지능형 전투 체계가 구축됐다.

NIA 김은주 지능기술인프라본부장
NIA 김은주 지능기술인프라본부장

김은주 본부장은 “AI, 빅데이터, 클라우드는 유기적인 관계다. 국방뿐 아니라 스마트카, 스마트시티, 나아가 의료와 복지까지 어느 분야든 데이터를 수집하고 네트워크를 통해 클라우드로 전송하며 AI가 분석해 의사결정을 지원하는 형식의 ‘AI 일상화’ 서비스 방식이 보편화되고 있다”고 말했다.

이어 김은주 본부장은 AI 시대 이후 제기되고 있는 주요 이슈들을 제시했다. 첫 번째는 AI를 활용할 때 발생하는 AI 데이터센터의 큰 전력 소모 문제다. 김은주 본부장이 발췌한 조사에 따르면, AI 데이터센터에서 소모되는 전력량은 2022년 대비 향후 2026년에는 80%까지 증가할 것으로 전망된다.

두 번째는 AI가 크리티컬 비즈니스에도 도입되면서 대두된 속도 문제다. 이와 관련, 김은주 본부장은 국제 우주정거장에 HPE 스페이스본 컴퓨터가 탑재된 사례를 소개했다. 우주 데이터를 지구로 더욱 빠르게 전송하기 위해 엣지(Edge) 클라우드가 우주정거장에 설치된 사례로, 엣지 클라우드에서 실시간 데이터를 AI가 직접 분석한 후에 분석된 결과와 중요 인사이트만을 지상으로 전송하는 ‘우주-지구 연결 연합학습 실험’이 이뤄지고 있다.

마지막으로 김은주 본부장은 “클라우드 기반 AI 활용은 수직적 연결과 수평적 연결이라는 2가지 트렌드가 공존하고 있다. 다가오는 일반인공지능(AGI) 시대, AI 모델이 커지고 토큰 수가 증가함에 따라 집중화·대형화되고 있다. 동시에 온디바이스 AI 트렌드로 인해 분산화·경량화되고 있다”며 “이처럼 미래 클라우드는 분산과 집중이 공존하는 아키텍처를 형성하게 될 것이다. 코어 클라우드를 중심으로 온디바이스 AI와 엣지 AI의 수직적 연결, 그리고 온프레미스 AI, 퍼블릭 클라우드 기반 AI, 멀티·하이브리드 활용을 통한 수평적 연결 등 비즈니스에 따라 다양한 클라우드·AI 활용 형태를 보게 될 것이다”라고 강조했다.


“클라우드 네이티브 시장 전망 및 전략: 칵테일 클라우드를 활용한 효율적인 GPU 관리”

나무기술 장현 상무가 ‘클라우드 네이티브 시장 전망 및 전략: 칵테일 클라우드를 활용한 효율적인 GPU 관리’를 주제로 세션 발표를 진행했다. 먼저 장현 상무는 “AI 열풍으로 인해 클라우드 네이티브에 대한 수요가 증가하고 있다. 이를 뒷받침하기 위해서는 서비스형 플랫폼(PaaS)의 적극적 활용이 필요하다”고 말했다.

PaaS 전문기업 나무기술은 고객의 클라우드 네이티브 전환을 전략 구상, 구축, 적응, 확산 등 4단계의 클라우드 로드맵을 바탕으로 지원하고 있다. 특히 쿠버네티스(Kubernetes) 클러스터 기반의 ‘칵테일 클라우드(Cocktail Cloud)’를 핵심 PaaS 솔루션으로 서비스해, 종속되지 않는 멀티·하이브리드 클라우드 환경 구현과 쉽고 편리한 애플리케이션 개발·운영을 돕고 있다.

나무기술 기술3본부 장현 상무
나무기술 기술3본부 장현 상무

나무기술의 칵테일 클라우드는 통합 대시보드를 통해 클러스터를 구성한 인프라 현황과 이벤트들을 한 화면에서 파악할 수 있다. 또한 여러 사용자가 이용할 수 있도록 멀티테넌시 기능과 워크스페이스 등록을 지원한다.

장현 상무는 AI 시대의 필수품이 된 GPU의 효율적인 활용과 AI/ML 생산성 향상을 위한 칵테일 클라우드의 GPU 리소스 지원 방식을 소개했다.

장현 상무는 “칵테일 클라우드는 하나의 GPU를 여러 이용자가 나눠 사용하는 ‘멀티 인스턴스’ 방식과 GPU를 번갈아 가며 사용하는 ‘타임 슬라이싱’ 방식을 모두 지원한다. 특히 칵테일 클라우드는 클러스터별, 노드별 GPU 리소스 사용 현황도 대시보드를 통해 제공하고 있다”면서 “AI 시대에 컨테이너와 PaaS는 필수가 되고 있다. 나무기술은 앞으로도 칵테일 클라우드를 주축으로 쿠버네티스 운영환경과 올인원 PaaS, ML옵스 등 클라우드 컨설팅부터 구축·관리까지 클라우드 전반의 과정을 지원하겠다”고 밝혔다.


“생성형 AI의 최근 활용사례와 도입 전략 인사이트”

솔트웨어의 박창우 AI 서비스본부 이사는 ‘생성형 AI의 최근 활용 사례와 도입 전략 인사이트’를 주제로 발표를 진행했다.

박창우 이사는 생성형 AI 주요 활용 사례를 소개했다. 박창우 이사에 따르면, 고객 경험 강화를 위해 리테일 산업에서는 URL 내부 데이터를 해석해 생성형 AI를 통해 숏폼을 제작하고 있다. 이를 통해 고객의 사이트 체류 시간을 확보하고 있다.

솔트웨어 AI서비스본부 박창우 이사
솔트웨어 AI서비스본부 박창우 이사

솔트웨어는 기업의 생성형 AI 도입 단계를 △백 오피스(Back Office) △프론트 오피스(Front Office) △코어 비즈니스(Core Business) △뉴 프로덕트/서비스(New Product/Service) 등 4단계로 구분하고 있다. 백 오피스와 프론트 오피스 단계에서는 일상적인 측면에서의 생산성 향상을 목표로 적용되고 있으며, 코어 비즈니스와 뉴 프로덕트/서비스 단계에서는 수익 모델 창출에 역점을 두며 활용되고 있다.

이어 박창우 이사는 솔트웨어의 생성형 AI 지원 전략을 소개했다. 박창우 이사는 “솔트웨어는 생성형 AI 사업화를 적극적으로 추진하고 있다. 이를 위해 GPU부터 클라우드 인프라, LLM 모델 등을 통합해 제공하고 있다. 솔트웨어만의 특장점으로는 기업 상황에 적합한 파운데이션 모델(FM)을 선정해 데이터를 암호화한 후 생성형 AI를 구축하도록 돕고 있다. 이 과정에서 ‘핏클라우드 AI(FitCloud AI)’ 서비스도 제공하고 있다”면서 “하반기에는 온프레미스 기반 sLLM 구축도 지원할 예정이다”라고 강조했다.


“제너레이티브 AI 기반 고효율 클라우드 네이티브 관리 전략”

이노그리드의 권경민 클라우드 컴퓨팅 연구센터장은 ‘제너레이티브 AI 기반 고효율 클라우드 네이티브 관리 전략’을 주제로 발표를 진행했다.

권경민 센터장은 생성형 AI 지원을 위한 국내 클라우드 기반 ML옵스 플랫폼 개발의 필요성을 강조했다. 특히 성공적인 AI 모델 및 서비스를 위한 클라우드는 △AI 모델 개발 및 서비스 배포의 시간 소모 복잡성 △다양한 데이터 소스와 AI 모델 간의 연동 부족 △데이터 처리 및 관리 복잡성 증가 △클라우드 환경 간 호환성 문제 및 관리 복잡성 등 각종 장벽들을 해결야한다는 설명이다.

이노그리드 클라우드 컴퓨팅 연구센터 권경민 센터장
이노그리드 클라우드 컴퓨팅 연구센터 권경민 센터장

이노그리드는 컨설팅, 솔루션, 클라우드 네이티브 전환, 데이터센터 운영 관리 등 모든 클라우드 서비스를 맞춤형으로 제공하는 이노그리드만의 클라우드 생태계 ‘클라우디버스(CLOUDIVERSE)’를 구축했다. 특히 이노그리드는 클라우디버스 생태계에 대표 ML옵스 플랫폼인 ‘사이-다(SAi-Da)’를 서비스하고 있다. 사이-다는 인프라와 AI 워크플로우 운영 관리 지원은 물론, 서드파티(3rdparty) 데이터&AI 모델 저장소 연계와 대용량 데이터 저장 및 관리를 돕는다.

아울러 이노그리드는 클라우디버스를 통해 AI 모델과 서비스 개발을 위한 AI-PaaS를 서비스 중이다. 다양한 오픈소스 개발 도구 및 환경 연동이 가능한 PaaS 플랫폼으로써, 온프레미스 프라이빗 클라우드 및 다양한 국내외 CSP 클라우드 서비스 연계를 지원한다. 이와 함께 GPU, 텐서처리장치(TPU), 신경망처리장치(NPU) 등의 연산장치도 제공한다.

마지막으로 권경민 센터장은 앞으로 AI를 통해 다양한 서비스 가치를 창출하는 데 있어 여러 노하우가 축적된 기업과 파트너쉽을 맺어야 한다는 점도 강조했다. 권경민 센터장은 “이노그리드는 클라우드 인프라 구축부터 통합 운영 관리까지 가능한 솔루션뿐만 아니라, 지능형 AI와 빅데이터 분석 솔루션을 보유한 기업이다. 이노그리드와 협업하면 다양한 시너지 효과를 창출할 수 있을 것이다”라고 말했다.


“신속하고 안전한 클라우드 네이티브 전환 및 SaaS 서비스를 위한 플랫폼”

인프라닉스 기술연구소 오승현 리더는 ‘신속하고 안전한 클라우드 네이티브 전환 및 SaaS 서비스를 위한 플랫폼’을 주제로 발표했다.

오승현 리더는 신속하고 안전한 클라우드 네이티브 전환을 지원하는 자사 ‘시스마스터 SaaS 센터(SysMaster SaaS Center)’를 소개했다. 시스마스터 SaaS 센터는 애플리케이션의 빌드·테스트·분석·배포·모니터링 등의 프로세스에 대한 자동화 개발 환경을 제공한다.

인프라닉스 기술연구소 오승현 리더
인프라닉스 기술연구소 오승현 리더

오승현 리더는 “시스마스터 센터는 복잡한 SaaS 전환을 SW 분석부터 애플리케이션 배포까지 쉽고, 빠르게 SaaS화할 수 있는 플랫폼이다. 특히 마이크로서비스 아키텍처(MSA) 구조를 적용한 자동화된 SaaS 전환을 통해 특정 환경에 종속되지 않는 멀티 클라우드 배포와 운영 관리를 지원한다”고 소개했다.

시스마스터 SaaS 센터는 플랫폼 관리자 포털을 통해 클라우드 인프라를 간편하게 구성할 수 있도록 한다. 플랫폼 관리자가 프로젝트 신청을 받아 수요 기관과 프로젝트를 플랫폼에 등록하고 포털을 할당하면 클라우드 인프라는 각 CSP 환경에 맞게 자동으로 프로비저닝해 구성된다. 이어 클러스터를 분리하고 자동 생성해 컨테이너 실행 환경을 정할 수 있다.

오승현 리더는 “해외에서는 글로벌 기업들이 단계별 SaaS 전환 및 솔루션과 서비스를 지원하는 반면, 국내에서는 대부분 리프트 앤 시프트 수준의 클라우드화 또는 PaaS 기반의 일부 SaaS를 지원하는 수준”이라며 “이런 가운데 인프라닉스는 고객들의 기존 SW를 SaaS로 쉽고 빠르게 전환할 수 있도록 ‘사시파이(SaaSfiy)’ 플랫폼부터 곧 출시될 시스마스터 SaaS 센터까지 지원해 개발자들의 겪는 어려움을 해결하고 있다”고 강조했다.
 


“구축사례를 통해 본 콤텍시스템의 AI서비스와 GenAI 기술 및 서비스”

오후 첫 세션은 콤텍시스템의 송영준 상무가 ‘구축사례를 통해 본 콤텍시스템의 AI서비스와 GenAI 기술 및 서비스’를 주제로 발표를 했다.

먼저 송영준 상무는 생성형 AI 시장 현황을 소개하며 범용 LLM의 한계를 지적했다. 송 상무는 “‘ML 허브’라고 불리는 허깅페이스(HuggingFace)는 AI 민주화를 기치로 다양한 API와 오픈소스 모델들을 제공하고 있다. 허깅페이스를 통해 고객들은 손쉽게 다양한 범용 LLM을 선택해 사용할 수 있게 됐다. 또한 LLM 활용은 소프트웨어 정의 자동차(SDV)와 음성 데이터 분석까지 모든 분야로 확장되고 있다”면서 “다만 라마 2(LLaMA 2)와 챗GPT와 같은 아주 뛰어난 성능을 지닌 LLM을 사용하더라도, 고객 내부 데이터 연동 없이는 그럴듯한 답변을 생성하는 할루시네이션, 즉 환각 현상이 일어난다”고 설명했다.

콤텍시스템 송영준 상무
콤텍시스템 송영준 상무

콤텍시스템은 이 같은 범용 LLM의 한계점을 극복하고, 고객만의 데이터를 학습해 커스텀 AI 모델을 이용할 수 있도록 ‘프라이빗 AI 어시스턴트(가칭)’ 패키지 솔루션을 제공하고 있다. 콤텍시스템은 AWS 클라우드 서비스에 대한 전문성을 갖춘 MSP로서 AWS의 ‘아마존 베드록’과 데이터 자동 분류 솔루션, 그 외 우수한 관리형 서비스들을 기반으로 한 프라이빗 AI 개발 플랫폼을 지원한다.

특히 콤텍시스템의 프라이빗 AI 어시스턴트는 오픈AI의 챗GPT-3.5와 4.0, 앤트로픽(Anthropic)의 ‘클로드 3(Claude 3)’ 등의 최신 모델을 지원한다. 또한 허깅페이스의 트랜스포머(Transformers)와 랭체인(LangChain)의 프레임워크를 통해 모델을 개발한다. 이를 통해 특정 LLM에 종속되지 않고 다양한 LLM을 고객에게 신속하고 적합한 방식으로 지원할 수 있다.

이어 송영준 상무는 프라이빗 LLM을 구현하기 위한 검색 증강 생성(RAG) 기능과 데이터 엔지니어링 및 프롬프트 엔지니어링의 중요성을 강조했다. 특히 글과 사진, 음성이 혼재된 여러 문서 파일 데이터들을 자동으로 분류하고 표준화할 수 있는 ‘어드밴스드 RAG’ 기능이 요구된다. 콤텍시스템은 AWS의 데이터 표준화 서비스인 ‘AWS 글루(Glue)’와 ‘글루 데이터브루(DataBrew)’를 활용해 RAG 기능을 강화했다. 먼저 다양한 고객 데이터를 처리하기 위해 데이터 전처리와 어드밴스드 RAG 기법을 활용하고, 이 데이터를 프라이빗한 벡터DB에 저장한다. 이후 벡터 유사도 검색을 통해 질의와 유사도가 가장 높은 문서를 LLM에 묻는 프로세스로 모델 활용이 이뤄진다.

송영준 상무는 “콤텍시스템의 프라이빗 AI 어시스턴트 서비스는 다양한 모델을 지원하고, AWS 데이터 분석기술을 활용한다. 또한 자동화된 지식 생성 파이프라인을 제공하며 보안도 철저해 안전한 데이터 활용이 가능하다. 뿐만 아니라 AWS의 ECS를 기반 인프라로 활용하기 때문에 고객이 필요할 때만 인스턴스를 생성해 비용도 절약할 수 있다”며 “콤텍시스템은 AWS 서비스에 특화된 사업자로서 고객들의 생성형 AI 활용을 돕겠다”고 말했다.


“한컴의 디지털 혁신: 클라우드와 AI가 이끄는 미래”

한글과컴퓨터(이하 한컴)의 신재욱 실장은 ‘한컴의 디지털 혁신: 클라우드와 AI가 이끄는 미래’를 주제로 발표를 진행했다.

최근 한컴은 클라우드 기반 서비스와 AI 사업에 공을 들이고 있다. 대표적으로 한컴은 클라우드 기반의 SaaS형 한글 제품 ‘한컴독스’를 서비스하고 있다. 한컴독스는 언제 어디서든 문서 작업을 협업해 수행할 수 있으며, 한컴의 오피스 솔루션을 통합한 웹 기반 구독형 통합 문서 서비스로서 한글·한셀·한쇼·한워드가 모두 패키지화돼 있다는 게 특징이다. 하나의 파일을 여러 사용자가 함께 실시간으로 편집할 수 있으며 멀티 디바이스를 지원해 외부에서도 활용할 수 있다.

한글과컴퓨터 신재욱 실장
한글과컴퓨터 신재욱 실장

아울러 지난해 한컴은 ‘한컴독스 AI’에 대한 CBT를 진행하며 한컴의 생성형 AI 솔루션과 전략을 공개한 바 있다. 한컴독스 AI는 문서 작성 및 처리에 특화된 생성형 AI 기반 오피스 제품으로 AI를 활용해 빠른 문서 초안 작성, 작성된 문서의 문체 변경, 교정, 번역 등을 지원한다.

이에 대해 신재욱 실장은 “지난해 6월 CBT로 처음 선보인 한컴독스 AI는 오는 6월에 오픈베타 서비스를 진행할 예정이다. 올 8월부터는 본 서비스 이용할 수 있도록 준비 중이다”라며 “한컴은 기반 기술인 문서 포맷, 문서 기술, 확장 플러그인, 고객의 업무, 문서작성 노하우 등을 AI 모델과 연계해 잘 활용할 수 있도록 공을 들이고 있다”고 밝혔다.

특히 한컴은 △AI 기반 지능형 문서 작성 도구 ‘어시스턴트(ASSISTANT)’ △문서 기반 질의응답 솔루션 ‘도큐먼트(DOCUMENT) QA’ △한컴오피스 확장 기능 ‘오피스 애드온즈(Office Addons)’ 등 3개의 제품을 클라우드와 온프레미스 형태로 제공하고 있다.

먼저 어시스턴트는 대화형 AI 챗봇을 통해 텍스트 입력만으로 문서에 대한 입력과 데이터 처리가 가능하다. 사용자가 일일이 클릭하지 않아도 채팅으로 간편하게 문서를 입력하고 수정할 수 있다. 한컴이 보유한 스크립트 엔진을 기반으로 고객이 원하는 다양한 LLM과의 연계를 지원한다. 또한 고객 내부 인프라에 LLM을 보유하고 있다면 온프레미스 형태로도 활용할 수 있다.

한컴은 공공기관들이 축적한 문서의 효율적 활용과 내부 문서 기반의 질의응답을 지원하는 도큐먼트 QA를 서비스할 계획이다. 환각 현상을 최소화한 구축형 서비스로, 경량화된 sLLM과 연계해 활용할 수 있다. 해당 솔루션은 공공기관별 폐쇄망에 구축할 수 있으며, 오는 6월 출시 예정이다.

이외에도 한컴오피스 확장 기능인 오피스 애드온즈에 대해 국내 AI 기업과의 협력을 준비하고 있다. 신재욱 실장은 “한컴AI는 더 풍부해진 한글 제품들을 바탕으로 고객과 개발사들에게 더 많은 서비스와 효용을 제공하고자 한다. 아울러 앞으로 진행되는 사업에서 국내 유수기업들과 더 많은 기술들을 공유·협력하고자 한다”고 말했다.


“인스웨이브가 제시하는 금융 클라우드 패키지”

인스웨이브시스템즈 클라우드 사업본부 정윤모 본부장은 ‘인스웨이브가 제시하는 금융 클라우드 패키지’를 주제로 금융권 특화 솔루션에 대해 소개했다.

인스웨이브는 초기 구축 과정 없이 서비스를 즉시 구독형으로 사용할 수 있는 퍼블릭 SaaS 서비스를 제공하고 있다. 하지만 금융권에서는 엄격한 보안 정책으로 인해 퍼블릭 클라우드 도입이 어려운 경우가 많다. 이를 고려해 인스웨이브는 IDC, 폐쇄망에 클라우드 네이티브 환경을 구축, 퍼블릭과 같은 형태의 솔루션을 지원하는 프라이빗 SaaS/PaaS 서비스도 출시했다.

인스웨이브시스템즈 클라우드 사업본부 정윤모 본부장
인스웨이브시스템즈 클라우드 사업본부 정윤모 본부장

정윤모 본부장은 “국내외 업체들의 컨테이너 플랫폼을 활용해 MSA(Microservices Architecture)를 구현하고 여기에 자사 솔루션을 SaaS 형태로 제공한다. 기업은 해당 플랫폼 안에서 디지털 창구, 비대면 판매, 전자계약 등을 퍼블릭 클라우드와 동일하게 사용할 수 있다”고 설명했다.

특히 인스웨이브는 프라이빗 SaaS 플랫폼의 프론트엔드에는 LLM 탑재로 로우코드(Low code)‧노코드(No code) 기능을 갖춘 ‘웹스퀘어 AI(WebSquare AI)’를, 벡엔드 서버 프레임워크에 MSA에 최적화된 ‘프로웍스 5(ProWorks 5)’를 제공해 안정성과 업무 효율성을 높였다.

정윤모 본부장은 “MSA를 구현하고 레스트풀 API(RESTful API)로 외부에 공개된 시스템은 내부 서비스가 작은 WAS(Web Application Server) 형태로 구성된다. 문제는 이 경우 트랜잭션(Transaction)을 롤백(rollback)하는 데 어려움을 겪는다”며 “프로웍스 5는 사가(Saga) 패턴으로 WAS 간 원활한 롤백을 지원해 최적화된 MSA 환경 구현을 돕는다”고 설명했다.


“클라우드 환경에서 생성형 AI의 미래 전략과 AWS 생성형 AI 기술과 사례”

마지막 발표자로 나선 AWS 전현상 솔루션즈 아키텍트(SA)는 ‘클라우드 환경에서 생성형 AI의 미래전략과 AWS 생성형 AI 기술 사례’를 주제로 발표했다.

전현상 SA는 기술 사례를 소개하기에 앞서 최근 생성형 AI 기술 동향에 대해 설명했다. 이전의 AI는 번역과 같은 특정 작업을 수행하기 위해 수개월간 데이터를 마련하고 라벨링 작업을 거쳐 학습시키는 과정을 거쳤다. 반면, 최근 등장한 생성형 AI는 수백억 개 이상의 매개변수로 학습해 일반 작업에 활용할 수 있게 만들었다는 점에서 차이가 있다.

AWS 전현상 솔루션즈 아키텍트(SA)
AWS 전현상 솔루션즈 아키텍트(SA)

전현상 SA는 “LLM, 멀티모달(Multimodal) 등이 크게 관심을 얻고 있으며, 성능 향상, 안전성 등의 문제도 주목받는다. 특히 할루시네이션(환각 현상)은 생성형 AI의 대표적인 한계로 지적된다. AI에 대한 신뢰를 구축하고 부작용을 최소화하는 데 위험 요소로 여겨진다. 이에 AI 기업들은 모델의 성능은 극대화하면서 환각 현상을 줄이기 위한 노력에 집중하고 있다”고 설명했다.

한편, 기업들은 LLM을 도입해 데이터를 분석하고 업무 효율성을 높이거나 개인화된 모델로 고객 경험을 높이고 있다. 이러한 고객의 니즈를 충족하고자 AWS는 파운데이션 모델(Foundation Model)로 생성형 AI 애플리케이션을 구축 및 확장할 수 있는 ‘아마존 베드록(Amazon Bedrock)’으로 시장에서 영향력을 넓혀가고 있다.

전현상 SA는 “아마존 베드록은 코드 작성 없이 데이터를 활용해 미세조정을 자동적으로 해결하고, 아마존 오픈서치(Amazon OpenSearch)로 RAG(검색 증강 생성) 기능도 제공한다. 또한 데이터 기반으로 특정한 역할을 부여해 ‘AI 에이전트’도 구현할 수 있다”고 강조하며 “단순한 파운데이션 모델만으로 완벽한 결과를 얻을 수 없다. 사용 사례를 먼저 선택하고 내부 데이터를 활용해 그에 맞는 RAG, 미세조정 등을 거쳐야 한다. AWS는 아마존 베드록을 통해 고객의 LLM 도입 전 과정이 원활히 이뤄질 수 있도록 지속적으로 기술을 고도화해 나가겠다”고 밝혔다.

 

[2024 클라우드 컨퍼런스 설문분석]
“AI 구축 프로젝트 비중 41%…클라우드 시장에도 AI 바람 분다”

본지(컴퓨터월드/IT DAILY)는 ‘2024 클라우드 컨퍼런스’ 참가자를 대상으로 설문조사(복수응답 가능)를 진행했다. 250여 명의 참가자 중 134명이 설문에 응했으며, 답변을 토대로 △추진 중인 IT 관련 사업 △클라우드 도입·전환 계획 △클라우드 도입·전환을 고려하는 이유 △IaaS, PaaS, SaaS 중 이용 중인 클라우드 △사용하고 있는 클라우드 △생성형 AI 활용 현황 등을 파악해 볼 수 있었다.


클라우드 전환과 함께 AI 구축도 높은 관심

설문에 따르면, 현재 기업 및 기관에서 추진하고 있는 프로젝트 중 ‘클라우드 전환(79명, 58.95%)’이 가장 많은 것으로 조사됐다. 이어 ‘인공지능(AI) 구축(56명, 41.79%)’과 ‘빅데이터 분석 시스템 구축(33명, 24.62%)’, ‘정보보안(22명, 16.41%)’ 등이 뒤를 이었다.

특히 지난해부터 시장을 뜨겁게 달구고 있는 생성형 AI의 영향으로 AI 구축과 그 기반인 빅데이터 분석 시스템 구축에 대한 관심도가 높은 것으로 나타났다. 이번 설문 결과, 앞으로 국내 클라우드 시장에서는 클라우드 전환은 물론 AI에 관한 기술 역량도 더욱 중요해질 것으로 보인다.

현재 회사 및 기관에서 추진 중인 IT 관련 사업은 무엇입니까? (복수응답)
현재 회사 및 기관에서 추진 중인 IT 관련 사업은 무엇입니까? (복수응답)

클라우드 도입·전환율 높아

추진 중인 IT 관련 사업에 대한 물음에는 73명(54.47%)이 클라우드를 도입·전환해 활용하고 있거나, 전환을 추진 중이라고 답했다. 특히 17명(12.68%)은 이미 클라우드를 활용하고 있으며, 확대·보완에 나설 계획이라고 응답했다. 클라우드 도입·전환의 필요성은 느끼지만 도입·전환 계획이 아직 없다고 답한 사람은 37명(27.61%)으로 나타났다. 아울러 7명(5.22%)은 도입·전환 계획이 전혀 없다고 답했다.

클라우드 도입·전환 계획을 갖고 계십니까?
클라우드 도입·전환 계획을 갖고 계십니까?

도입·전환 목적은 ‘민첩하고 편리한 인프라 구축’

총 134명의 응답자 중 64명(47.76%)이 ‘민첩하고 편리한 인프라 구축’을 클라우드 도입·전환의 이유로 꼽았다. ‘최신 기술의 신속한 도입(52명, 38.80%)’, ‘비용 효율화(46명, 34.32%)’, ‘보안성 강화와 경영진의 의지(24명, 17.91%)’, ‘기타(3명, 2.23%)’가 뒤를 이었다. 이 같은 결과는 시시각각 변화하는 비즈니스 환경에서 민첩성과 편리함을 갖춘 클라우드를 기반으로 신속한 서비스를 제공하려 한다는 점을 보여주고 있다.

클라우드 도입·전환을 고려하는 이유는 무엇입니까?
클라우드 도입·전환을 고려하는 이유는 무엇입니까?

IaaS, PaaS, SaaS 사용 비율 고르게 분포

클라우드 서비스 이용 형태를 묻는 질문에 IaaS를 사용한다고 답한 사람은 63명(47.01%), PaaS를 사용한다고 답한 사람은 48명(35.82%), SaaS를 이용하고 있다고 응답한 사람은 61명(45.52%)으로 기업들이 클라우드 서비스를 대체로 고르게 활용 중인 것으로 나타났다.

특히 주목되는 점은 PaaS를 활용하는 기업의 비율이 IaaS 및 SaaS 이용 비율과 큰 차이가 없었다는 점이다. 이는 최근 국내 클라우드 시장의 성숙과 함께 확산된 클라우드 네이티브 트렌드의 주축인 컨테이너, 쿠버네티스 등 PaaS와 같은 플랫폼을 찾는 기업들이 늘어나고 있음을 보여주고 있다.

IaaS, PaaS, SaaS 중 어떤 형태의 클라우드를 이용하고 있습니까? (복수응답)
IaaS, PaaS, SaaS 중 어떤 형태의 클라우드를 이용하고 있습니까? (복수응답)

네이버클라우드와 마이크로소프트, AWS 발 빠르게 뒤쫓아

기업 및 기관에서 가장 많이 사용하고 있는 클라우드는 역시 아마존웹서비스(AWS)였다. 총 134명의 설문 참여자 중 57명(42.53%)이 AWS를 이용하고 있다고 응답했다. 다음으로는 프라이빗 클라우드(35명, 26.11%), 네이버클라우드(30명, 22.38%), 마이크로소프트 애저(25명, 18.65%), KT클라우드(17명, 12.68%), SaaS와 PaaS 등 기타(14명, 10.44%), 구글 클라우드(13명, 9.70%), NHN클라우드(12명, 8.95%) 순이었다.

이전까지 국내 클라우드 시장은 AWS가 독과점하는 듯한 모습을 보여왔다. 그러나 최근 강하게 불고 있는 생성형 AI의 바람으로 ‘하이퍼클로바X’를 보유한 네이버클라우드, 그리고 오픈AI(OpenAI)에 선제적 투자를 단행해 ‘애저 오픈AI 서비스’를 갖춘 마이크로소프트가 AI 기술 역량을 앞세워 AWS의 클라우드 시장 점유율을 발 빠르게 추격하는 양상이 나타나고 있다. AI 기술력을 보유한 CSP들이 향후 AWS와의 격차를 얼마나 좁힐 수 있을지 주목된다.

어떤 클라우드를 사용하고 계십니까? (복수응답)
어떤 클라우드를 사용하고 계십니까? (복수응답)

생성형 AI로 업무 혁신 꾀한다

마지막으로 생성형 AI를 업무에 적용·활용하고 있는지에 대한 질문에는 75명(55.97%)이 생성형 AI를 이미 도입해 업무에 활용하고 있거나, 도입을 추진 중이라고 답했다. 특히 7명(5.22%)은 이미 생성형 AI를 활용하고 있으며, 확대·보완에 나설 계획이라고 응답했다. 생성형 AI 도입·활용의 필요성은 느끼지만 계획은 아직 없다고 답한 사람은 48명(35.82%)으로, 꽤 많은 사람들이 아직까지는 업무에 대한 생성형 AI 활용을 주저하는 것으로 나타났다. 아울러 4명(2.98%)은 생성형 AI 활용 계획이 전혀 없다고 답했다.

생성형 AI를 업무에 적용·활용하고 계십니까?
생성형 AI를 업무에 적용·활용하고 계십니까?
저작권자 © 컴퓨터월드 무단전재 및 재배포 금지