지난달 2~6일 미국 라스베이거스서 진행…생성형 AI 및 최신 인사이트 공유
HW부터 AI 모델까지 차세대 AWS 신기술 대거 발표
[컴퓨터월드] 아마존웹서비스(AWS)가 주최하는 전 세계 최대 규모 클라우드 컨퍼런스 ‘AWS 리인벤트(re:Invent) 2024’가 미국 라스베이거스에서 지난달 2~6일(현지시간) 진행됐다. 이번 컨퍼런스는 13회째로, 라스베이거스 중심가에 위치한 다수 호텔 및 행사장에서 펼쳐졌으며 클라우드 컴퓨팅 전문가부터 개발자, 고객, 파트너, 그리고 기술 애호가 등 총 6만 명 이상이 참가해 성황을 이뤘다. 특히 AWS의 차세대 하드웨어(HW)부터 머신러닝 서비스, 아마존의 신규 인공지능(AI) 모델까지 발표되며 IT업계의 주목을 받았다. 클라우드 시장을 선도하는 AWS와 파트너사들의 다양한 기술 및 클라우드 기반 서비스들이 속속 공개된 AWS 리인벤트 2024 현장 속으로 들어가 본다.
핵심은 생성형 AI…다양한 기술 세션 펼쳐져
전 세계 클라우드 시장 점유율 1위 기업 AWS는 매년 리인벤트 행사를 통해 새로운 클라우드 서비스와 생성형 AI 전략을 발표했다. 이번 컨퍼런스에서도 어떤 기술을 선보일지 IT업계의 이목이 집중됐다. 이번 행사의 핵심 주제는 전년과 마찬가지로 생성형 AI였다. 행사 현장에서는 이에 걸맞은 다양한 기술과 발표들이 진행됐다.
AWS 리인벤트 2024에서는 AWS 주요 임원과 고객 초청 연사가 함께 진행하는 5개의 기조연설을 비롯해 AWS의 핵심 솔루션, 최신 트렌드 등 다양한 주제를 다루는 2,500개 이상의 세션이 펼쳐졌다. 뿐만 아니라 △최신 클라우드 혁신 사례에 대한 대화형 학습, 워크숍, 빌더스(Builders) 세션 △다양한 AWS 파트너 부스에서 솔루션을 직접 체험하고 전문가와 상담할 수 있는 엑스포 △업계 전문가 및 동료들과 교류할 수 있는 다양한 네트워킹 이벤트 △행사 마지막 날 참가자들이 함께 라이브 음악, 게임, 음식 등을 즐기는 대규모 파티 ‘리플레이(re:Play)’도 진행됐다.
특히 AWS는 행사 기조연설을 통해 다양한 신기술과 서비스들을 선보였다. 전년 AWS 리인벤트 2023 컨퍼런스에서 공개한 완전 관리형 생성형 AI 서비스 ‘아마존 베드록(Amazon Bedrock)’, AI 어시스턴트 ‘아마존 Q(Amazon Q)’ 등 AWS의 차세대 AI 전략을 뒷받침하는 지원 솔루션들이 소개됐다. 최신 AI칩, 머신러닝 서비스, 데이터베이스(DB) 기술 분야 최신 업데이트를 담은 신규 서비스들을 엿볼 수 있었다.
행사는 먼저 기조연설에 앞서 첫날 AWS 피터 드산티스(Peter DeSantis) 유틸리티 컴퓨팅 부문 수석 부사장이 ‘먼데이 나이트 라이브(Monday Night Live)’를 마련, AWS 서비스를 구동하기 위한 반도체의 실리콘부터 엔지니어링, 서비스까지 전체 스펙트럼을 다루는 깊이 있는 기술 세션을 진행했다.
이어 다음날 본격적으로 AWS의 최신 서비스와 고객 사례를 공유하는 기조연설이 이뤄졌다. AWS 맷 가먼(Mat Garman) CEO가 데이터, 인프라, 머신러닝, 생성형 AI 혁신을 지원하는 AWS의 클라우드 서비스와 최신 기술들을 소개했했다. 이날 발표에는 아마존의 앤디 재시(Andy Jassy) CEO가 특별 게스트로 등장, 아마존의 파운데이션 모델(FM) ‘노바(NOVA)’를 공개했다. 이외에도 미디어 및 엔터테인먼트 분야에서의 생성형 AI 활용 사례를 공유하는 세션도 진행됐다.
세 번째 날에는 AWS의 스와미 시바수브라마니안(Swami Sivasubramanian) AI 및 데이터 담당 부사장이 기조연설을 통해 막대한 양의 데이터를 기반으로 생성형 AI 솔루션을 만드는 방법 등 다양한 AWS만의 노하우를 전달했다. 특히 AWS의 머신러닝 서비스 플랫폼인 ‘아마존 세이지메이커(Amazon SageMaker)’에 관한 최신 업데이트를 공유했다. 다음으로 AWS의 루바 보르노(Ruba Borno) 채널 및 얼라이언스 부사장이 AWS가 파트너 비즈니스를 어떻게 지원하는지를 주제로 한 기조연설을 진행했다.
AWS 리인벤트 2024의 행사 마지막 날 기조연설은 AWS 워너 보겔스 CTO가 맡았다. 워너 보겔스 CTO는 매해 행사마다 재치 있는 발표와 새로운 기술 예측을 해오며 업계의 큰 관심을 받아왔다. 이번 행사에서 워너 보겔스 CTO는 2025년 IT업계가 주목할 안건으로 ‘심플렉시티(Simplexity)’를 꼽으며 서비스와 기술의 심플함이 중요하다는 점을 강조했다. 이에 많은 개발자 및 엔지니어들로부터 공감을 얻었다.
엑스포 운영…국내 기업·기관 공동관도 전시
이번 리인벤트 컨퍼런스를 구성한 핵심 주제는 단연 생성형 AI였다. AWS는 기조연설과 분과 세션은 물론, 참가자들이 지나다니는 복도 등 행사장 곳곳에서 생성형 AI 기술을 활용한 콘텐츠들을 선보였다. 항공 산업에서의 생성형 AI 활용, 인도주의적 지원에서의 AI 적용, 현대 직장에서 생성형 AI가 미치는 변혁적 영향 등 생성형 AI를 전면 부각하는 다양한 주제의 500개 이상 세션을 준비했다.
특히 리인벤트 행사 장내 엑스포에서는 수백 개의 AWS 파트너사들이 AWS 기반 소프트웨어(SW), 데이터 솔루션, 서비스 데모 등을 선보였다. 또 자율주행 자동차 경주, AI 기반 예술 설치물 관람 등 다양한 체험 공간이 구성돼 있었다. AWS는 참석자들에게 F1, 분데스리가, PGA 투어, NFL 등 스포츠 고객 사례를 소개하고 다양한 체험 기회를 제공하기 위한 스포츠 포럼(Sports forum) 공간도 마련했다.
이번 행사에 참가한 우리나라 기업들의 행보도 눈길을 끌었다. 정보통신산업진흥원(NIPA)은 유망 SaaS 기업들의 해외판로 개척을 목표로 이번 리인벤트 엑스포에 기업 공동관을 구성, 6개 기업 딥브레인AI, 플리토, 프렌들리AI, 마크애니, 옴니어스, 에스티씨랩의 솔루션 부스 전시를 운영했다. 또한 한국인터넷진흥원(KISA)의 지원을 받은 국내 보안 전문기업 엔키화이트햇도 솔루션 부스를 마련했다. 이 외에도 업스테이지, LG전자 등 다수 국내 기업과 스타트업들이 행사에 참여해 AWS 클라우드 서비스 활용 사례와 자사 혁신 솔루션을 소개했다.
AWS 리인벤트 2024 신기술 발표
차세대 AI 인프라 포트폴리오 공개
AWS 리인벤트 2024 첫날 저녁 AWS 피터 드산티스 유틸리티 컴퓨팅 수석 부사장이 진행한 먼데이 나이트 라이브 행사에서는 AWS의 차세대 AI 인프라 포트폴리오와 이와 관련된 향후 사업 계획을 확인할 수 있었다.
AWS는 신규 AI칩 ‘트레이니움2(Trainium2)’와 이를 기반으로 한 울트라서버(UltraServer)를 공개했다. 또 굳건한 생성형 AI 동맹 관계를 맺고 있는 AI 모델 전문기업 앤트로픽(Anthropic)과 수십만 개 트레이니움2 칩으로 구성된 대규모 클러스터 인프라를 구축하는 프로젝트 ‘레이니어(Rainier)’를 추진한다고 밝혔다.
피터 드산티스 부사장은 이날 발표에서 AI 학습 및 추론에 특화된 차세대 AWS 자체 개발 칩 트레이니움2를 전격 선보였다. AWS 트레이니움은 클라우드 기반 워크로드에 고성능, 가용성, 프라이버시 및 보안을 제공하도록 설계된 칩이다. 차세대 트레이니움2는 이전 세대 대비 칩 하나당 훈련 성능이 최소 2.2배 더 높아졌다.
트레이니움2의 패키지를 살펴보면, 향상된 성능을 더 체감할 수 있었다. 트레이니움2 패키지에는 컴퓨트 칩인 트레이니움2 2개와 고성능 메모리(HBM)를 4개가 탑재된다. 피터 드산티스 부사장은 “이전 세대부터 AWS는 이 같은 패키징을 구성해 왔다. 트레이니움 모델뿐만 아니라, ‘그래비톤(Graviton)’과 ‘인퍼런시아(Inferentia)’ 칩 시리즈 모두 첨단 패키징으로 제작해 강력한 AI 서버를 만드는 기반을 만들어 왔다”며 “이번 트레이니움2 패키지는 컴퓨트 칩 한개 당 각각 HBM을 2개씩 탑재하고, 전압 레귤레이터를 패키지 바로 아래 위치하게 해 전압 부하도 크게 줄였다”고 설명했다.
더 나아가 트레이니움2로 구성된 서버도 공개됐다. 트레이니움2 서버는 83.2페타플롭스(PFlops) 계산 성능, 1.5테라바이트(TB) 용량과 46TB/s 대역폭을 갖춘 HBM 성능으로 구성됐다. 피터 드산티스 부사장은 “현재 우리가 보유한 가장 큰 AI 서버보다 25% 더 큰 용량의 서버다. 그 어느 때보다 고객에게 신속하게 제공하고 빠르게 확장할 준비가 돼 있다”고 강조했다.
여기에 그치지 않고 서버의 칩과 칩, 메모리와 메모리 간 유연한 통신을 가능케 하는 AWS 네트워크 기술 ‘뉴런링크(NeuronLink)’를 탑재해 트레이니움2 서버의 몸집을 더욱 키운 ‘AWS 트레이니움2 울트라서버’를 무대에서 깜짝 공개했다. 트레이니움2 울트라서버는 332.8PFlops 계산 성능, 6TB 용량과 185TB/s 대역폭을 갖춘 HBM 등 AI 워크로드 성능에 초점이 맞춰진 초대형 서버다. 트레이니엄2 칩이 무려 64개 탑재된다.
아울러 ‘아마존 베드록을 위한 레이턴시 최적화 추론 옵션(Latency-optimized inference option)’이 새롭게 발표됐다. AWS가 최신 라마(Llama) 모델로 실험한 결과, 기존 베드록보다 더 빠른 성능을 보인 것으로 나타났다. 이와 함께 AWS는 생성형 AI 부문에서 협력을 이어오고 있는 앤트로픽의 대표 모델 클로드(Claude)에 대해서도 최적화 모드를 만들었다.
발표 마지막에는 앤트로픽의 톰 브라운(Tom Brown) 공동 설립자 겸 최고컴퓨팅책임자(CCO)가 특별 게스트로 등장했다. 톰 브라운(Tom Brown) COO는 “AWS와 1년 이상 긴밀하게 협력해 가장 최신의 클로드 3.5 하이쿠 모델에 대한 최적화 모드를 공동 개발했다. AWS상에서 트레이니움2 서버로 구동되는 클로드 3.5 하이쿠 모델은 기존 모델보다 60% 이상 더 빠르다”고 소개했다.
아울러 AWS와 앤트로픽은 AI 모델 훈련에 특화된 수십만 개의 트레이니움2 칩 구성의 대규모 컴퓨팅 클러스터 프로젝트 레이니어를 추진한다고 발표했다. 양사가 구축한 강력한 AI 인프라 위에서 앤트로픽의 새 모델들을 훈련시킨다는 계획이다.
새로운 인스턴스, 멀티 리전 DB 등 발표
컨퍼런스 둘째 날 본격적인 행사가 시작됐다. AWS 맷 가먼 CEO가 3시간가량의 기조연설을 통해 AWS의 차세대 HW 인프라부터 클라우드 컴퓨팅 서버 인스턴스, 스토리지, DB는 물론, 생성형 AI 개발·활용 등 고객 비즈니스 전반을 지원하는 AWS 서비스들을 공개했다.
맷 가먼 CEO는 “AWS는 애플리케이션을 개별 컴포넌트로 나눠 고객이 각 구성 요소인 빌딩 블록(Building block)을 자유롭게 조합하고 활용하도록 지원한다. 기술을 해체하고 새롭게 조합하면서 고객들은 새로운 가능성을 발견할 수 있다”며 “AWS는 빌딩 블록을 크게 컴퓨트, 스토리지, DB, 추론(AI)으로 구분한다. 또한 보안을 최우선 가치로 삼아 칩과 데이터센터 설계, 클라우드 및 모든 SW 영역에 보안을 기본으로 내재화하고 있다”고 강조하며 발표를 시작했다.
이날 기조연설에서는 먼저 컴퓨트 부문 새로운 자체 개발 AI칩과 EC2 인스턴스가 발표됐다. AWS가 지원하는 EC2 인스턴스는 현재 850개의 다양한 타입으로 구성돼 있다. 최근 생성형 AI의 영향으로 기업들의 워크로드가 증가함에 따라, AWS는 이를 지원하기 위해 엔비디아 블랙웰(Blackwell) GPU 기반 ‘P6 인스턴스’를 새롭게 출시했다. 다른 EC2 인스턴스 대비 2.5배 더 빠른 컴퓨트 성능을 보이며, 생성형 AI 개발·활용 영역에서 광범위하게 사용될 것으로 AWS는 기대하고 있다.
또한 맷 가먼 CEO는 전날 피터 드산티스 부사장이 선공개한 차세대 AI 칩 트레이니움2와 이를 기반으로 한 ‘EC2 Trn2 인스턴스’ 출시를 발표했다. 16개의 트레이니움2 칩이 탑재돼 최대 20.8PF 성능을 제공한다. 앞서 AWS는 어도비, 데이터브릭스, 퀄컴, 애플 등과 트레이니움2 칩 활용에 대한 베타테스트도 진행했다.
특히 이날 기조연설에 애플의 브누아 뒤팽(Benoit Dupin) 머신러닝 및 AI 수석 디렉터가 올라 자사 AI 시스템 ‘애플 인텔리전스’ 학습에 트레이니움2를 적극 활용 중이라고 밝혔다. 또한 10년 넘는 파트너십을 이어온 양사 협력을 적극 어필하며 IT업계와 언론의 주목을 받았다.
아울러 맷 가먼 CEO는 앤트로픽과 아마존 트레이니엄2 울트라서버 기반의 AI 인프라 클러스터룰 구축하는 프로젝트 레이니어 진행을 공식 발표했다. 수십만 개의 트레이니엄2 칩이 탑재되는 클러스터를 기반으로 앤트로픽이 제공하는 AI 모델 클로드의 컴퓨팅 파워를 5배 이상 높이고 양사 협력을 더욱 강화한다는 목표다.
더 나아가 맷 가먼 CEO는 이날 발표를 통해 2025년에 ‘트레이니움3’를 연이어 출시한다고 발표했다. 트레이니움3는 3나노 공정으로 제작될 예정으로, 트레이니움2보다 4배 높은 성능을 갖출 것으로 알려졌다.
스토리지 및 DB 기술 혁신과 관련해 맷 가먼 CEO는 아마존 S3 스토리지의 테이블(Tables) 및 메타데이터(Metadata) 등 신규 추가 기능도 소개했다. 맷 가먼 CEO는 “최근 많은 고객들이 대규모 분석 테이블을 위한 오픈소스 포맷인 아파치 아이스버그(Apache Iceberg)를 이용한다. 이는 매우 유용하지만 동시에 확장과 관리의 어려움을 느끼는 고객들도 많다. 따라서 데이터 압축·관리를 담당하는 전담팀을 고용하기도 한다. 이를 자동으로 해결하기 위해 AWS의 S3를 고도화했다”고 설명했다.
구체적으로 아마존 S3 테이블 기능은 아파치 아이스버그에 관한 테이블 관리를 자동으로 수행하며 완전 관리형 지원을 제공한다. 표 형식 데이터 저장과 쿼리를 최적화하는 버킷을 도입해 최대 3배 빠른 쿼리 성능을 구현한 게 특징이다. 아마존 S3 메타데이터는 스토리지 내 메타데이터를 만들어 아이스버그의 테이블 및 선호하는 데이터 분석 도구로 손쉽게 쿼리될 수 있도록 돕는다. 아마존 S3 스토리지가 다양한 데이터 형식을 수분만에 메타데이터로 저장하고, 이를 AI에 학습·추론에 활용할 수 있는 실질적인 분석까지 지원한다는 것이다.
AWS의 DB 신기능도 선보였다. 바로 멀티 리전에서의 액티브-액티브(Active-Active)로 구동되는 DB 기능이다.
먼저 AWS의 대표 관계형 DB ‘아마존 오로라(Amazon Aurora)’의 분산형 SQL 버전인 ‘아마존 오로라 DSQL’을 발표했다. AWS는 고가용성, 멀티 리전 운용 등을 최우선 가치로 DB 고도화에 힘 써왔고, 이를 실현하고자 그간 멀티 리전에서의 일관성을 유지하면서 적은 지연시간을 확보할 수 있는 기술 검증에 나섰다.
AWS는 EC2 인스턴스 기반 위에서 구동되는 각기 다른 리전 간의 시차를 줄이고자 위성으로 통신되는 ‘아마존 타임싱크 서비스’를 EC2에 추가했고, 이 기능 덕분에 멀리 떨어진 리전에서도 마이크로세컨드의 정확한 DB 시간을 맞출 수 있게 됐다. 이를 통해 멀티 리전에서의 높은 가용성과 읽기·쓰기 속도를 갖춘 액티브-액티브 DB 구현이 가능해졌다는 설명이다.
AWS의 서버리스 NoSQL 목적형 DB인 다이나모DB(DynamoDB)에도 동일한 기술이 추가돼, ‘아마존 다이나모DB 글로벌 테이블’ 기능이 새롭게 확장됐다. 멀티 리전에서의 99.999% 가용성을 제공하며 확장성, 제로 인프라 관리를 위한 일관성 옵션이 지원된다.
아마존 베드록 및 아마존 Q 신규 기능 선봬
아마존 베드록은 새롭게 활용할 수 있는 ‘모델 증류(Model Distillation)’ 기술을 통해 대규모 고성능 모델의 특정 지식을 더 작고 효율적인 모델로 이전할 수 있도록 고도화됐다. 이는 매개변수가 큰 모델이 상대적으로 작은 모델을 학습시키는 형태다. 대형 모델이 보유한 복잡한 지식을 소형 모델에 쉽게 이전해 주는 기술로, 지식을 전달받은 소형 모델이 같은 크기의 지식을 가진 대형 모델보다 최대 500% 더 빠르고 75% 저렴한 비용으로 작동할 수 있다.
이외에도 아마존 베드록 내 모델들에 대한 ‘지연 시간 최적화 버전’ 적용을 발표했다. 행사 당일 기준, 메타 라마와 앤트로픽 클로드 3.5 하이쿠에 적용된 상태였고, 맷 가먼 CEO에 따르면 하이쿠 모델은 기존보다 추론 속도가 60% 개선됐다. 또 ‘자동화된 추론 검사’ 기능도 아마존 베드록에 추가됐다. AI 모델 응답의 정확성을 수학적 증명을 통해 검증하고 오류를 방지할 수 있는 기능이다. AI의 환각현상을 방지하고자 최근 주로 활용되는 검색 증강 생성(RAG) 시스템 과정 이전에 모델 응답의 정확도를 더욱 높일 수 있을 것으로 보인다. 특히 단순 오류 감지를 넘어 발견된 문제에 대한 수정 권장 사항도 제공한다.
아울러 아마존 베드록의 AI 에이전트들이 서로 정보를 공유·교류하는 ‘멀티 에이전트 콜라보레이션(Multi-Agent Collaboration)’도 공개됐다. 아마존 베드록 내에서 간단한 업무에 이용할 수 있는 AI 에이전트를 제작해 실행할 수 있는데, 멀티 에이전트 콜라보 기능을 활용하면 복잡한 업무에 대해 수백 개의 AI 에이전트를 동시에 실행할 수 있게 된다. 고객의 세부 업무별 각각에 대해 AI 에이전트를 구성할 수 있고, 모든 워크플로우를 총괄하는 ‘슈퍼 에이전트(Super-Agent)’가 여러 에이전트가 서로 협업할 수 있도록 조율을 돕는다.
또한 깃랩 듀오(GitLab Duo)와 통합한 아마존 Q 솔루션도 공개됐다. 아마존 Q가 통합된 깃랩 듀오는 깃랩의 통합 데브섹옵스(DevSecOps) 플랫폼을 통해 복잡한 다단계 작업을 완료할 수 있도록 지원함으로써, 분절된 SW 개발 수명 주기에서 개발자들이 겪는 혼란을 해소한다. 해당 통합 솔루션을 통해 개발자의 일상적인 워크플로우에 아마존 Q의 자율 AI 에이전트를 접목시켜 원활한 개발자 경험을 제공한다는 목표다.
이외에도 가상머신(VM) 워크로드를 워크로드를 클라우드로 마이그레이션할 수 있는 ‘Q 디벨로퍼 VM워크로드 투 클라우드 네이티브 아키텍처’, 닷넷 애플리케이션을 윈도우 환경에서 리눅스로 전환할 수 있도록 지원하는 ‘Q 디벨로퍼 닷넷 윈도우 투 리눅스’ 등이 발표됐다.
최신 아마존 AI 모델 ‘노바’ 공개
이후 발표에는 아마존의 앤디 재시 CEO가 무대에 올라 새로운 아마존 멀티모달 생성형 AI 모델 노바를 공개했다. 아마존이 자체 개발한 노바는 아마존 베드록을 통해 이용을 지원하며, 고객의 AI 모델 선택권의 폭을 더욱 넓힌다는 방침이다.
아마존 노바의 라인업은 빠른 성능의 텍스트 투 텍스트(Text to Text) 모델 ‘노바 마이크로’와 텍스트부터 이미지, 비디오를 모두 처리할 수 있는 멀티모달 모델 ‘노바 라이트’, ‘노바 프로’, ‘노바 프리미어’ 등으로 구성됐다. 여기에 더해 스튜디오 품질의 이미지 생성이 가능한 ‘노바 캔버스(Canvas)’와 비디오 생성 모델 ‘노바 릴(Reel)’ 등이 추가 공개됐다.
앤디 재시 CEO는 업계 주요 모델들과의 벤치마크 테스트 결과도 소개했다. 각각의 노바 라인업에 대해 동급 수준 매개변수를 갖춘 모델들과 비교한 결과, 메타 라마나 구글 제미나이(Gemini) 나아가 앤트로픽의 클로드(보다 성능이 비슷하거나 더 높은 수준으로 나타났다.
모든 아마존 노바 모델은 아마존 베드록과 통합 제공되기에 기타 상위 성능 모델들보다 비용적으로 75% 이상 저렴하다는 게 앤디 재시 CEO의 설명이다. 뿐만 아니라 아마존 베드록이 제공하는 RAG 기능은 물론, 고객 맞춤형의 파인튜닝도 지원한다. 빠르고 비용효율적이면서도 복수의 AI 고도화 기능들을 활용할 수 있다는 것이다.
특히 아마존 노바 마이크로, 라이트, 프로는 한국어를 포함해 200개 이상의 언어를 지원한다. 아마존 노바 마이크로는 128K 입력 토큰의 컨텍스트 길이를 지원하며, 아마존 노바 라이트와 아마존 노바 프로는 300K 토큰 또는 30분의 비디오 처리를 위한 컨텍스트 길이를 지원한다. 아마존은 내년 초 2M 이상의 입력 토큰 컨텍스트 길이를 지원할 계획이다. 이와 마찬가지로 이미지 및 비디오 생성 모델인 노바 캔버스와 노바 릴도 업계 대표 콘텐츠 생성 모델인 DALL·E나 스테이블 디퓨전(Stable Diffusion)과 비교해 높은 성능을 보였다고 발표했다.
특히 노바 캔버스는 이미지의 출처를 항상 추적할 수 있게 하는 워터마킹과 잠재적으로 유해한 콘텐츠 생성을 제한하는 콘텐츠 조정 기능 등이 함께 지원된다. 노바 릴 역시 워터마킹과 콘텐츠 조정 기능을 비롯해 안전한 AI 사용을 돕는 내장 제어 기능을 갖췄다.
아마존은 올해 1분기 아마존 노바의 스피치 투 스피치(Speech to Speech) 모델 출시도 준비 중이다. 이후 내년 중순에는 애니 투 애니(Any to Any) 즉 문자와 언어, 이미지 무엇이든 인풋으로 넣을 수 있고 또 다양한 형태로 결과물을 산출할 수 있는 모델을 선보일 계획이다.
아마존 앤디 재시 CEO는 “아마존은 항상 고객들에게 더 넓은 선택지를 제공하고자 노력하고 있다. 비용효율적이고 최고 성능 모델인 노바를 출시하는 것 역시 이 일환이다”라며 “AWS의 아마존 베드록과 통합됨으로써 노바는 다양한 발전 기능들과 함께 이용할 수 있다. 언제나 아마존은 고객이 선택할 수 있는 영역을 넓히겠다”고 강조했다.
아마존 세이지메이커 고도화…베드록 마켓플레이스도 업데이트
AWS 리인벤트 2024 셋째 날에는 스와미 시바수브라마니안 AI 및 데이터 담당 부사장이 머신러닝 플랫폼 아마존 세이지메이커 AI의 새로운 기능들을 대거 발표했다.
먼저 아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod)에 추가된 주요기능을 소개했다. AWS는 세이지메이커 하이퍼팟을 위한 유연한 훈련 계획 기능인 ‘하이퍼팟 플렉시블 트레이닝 플랜’을 출시했다. 고객은 몇 번의 클릭만으로 예산과 원하는 완료 날짜, 필요한 최대 컴퓨팅 리소스 양을 지정할 수 있다. 세이지메이커 하이퍼팟은 자동으로 용량을 예약하고 클러스터를 설정하며 모델 학습 작업을 생성해 팀의 모델 학습 시간을 절약하도록 돕는다.
또한 ‘세이지메이커 하이퍼팟 태스크 거버넌스’ 기능도 공개했다. 이는 AI 모델 개발 작업에 드는 컴퓨팅 리소스를 우선순위에 따라 배정하고 관리하도록 하는 기능이다. 세이지메이커 하이퍼팟 태스크 거버넌스를 통해 고객은 모델 학습, 미세조정 및 추론을 위한 가속기 활용을 최대화하고 모델 개발 비용을 최대 40%까지 절감할 수 있다는 설명이다.
아울러 아마존 베드록에 새로운 AI 모델들이 추가되고, 신기능이 업데이트됐다. 최근 시장에서 각광을 받고 있는 루마 AI(Luma AI)와 풀사이드(poolside)의 모델이 아마존 베드록에 새롭게 추가되며, 기존에 지원하던 스태빌리티 AI의 최신 모델도 아마존 베드록 내에 업데이트될 예정이다.
특히 눈에 띈 발표는 ‘아마존 베드록 마켓플레이스’ 출시다. AWS가 아마존 베드록으로 제공하는 AI 모델 외에도 다양한 파트너사들의 산업별 특화 모델과 신생 모델 등을 이용할 수 있는 서비스다. 아마존 베드록 마켓플레이스는 100개 이상의 모델을 제공하며, 고객이 다양한 사업자들의 모델을 손쉽게 탐색하고 선택할 수 있도록 아마존 베드록과 통합된 환경으로 지원한다. 우리나라 기업들 중에서는 업스테이지와 LG AI연구원, 엔씨소프트의 AI 모델이 아마존 베드록 마켓플레이스에 포함됐다.
이에 더해 고객들이 아마존 베드록을 원할하게 이용할 수 있도록 돕는 새로운 프롬프트 캐싱(prompt caching)과 아마존 베드록 인텔리전트 프롬프트 라우팅(Amazon Bedrock Intelligent Prompt Routing) 기능 들이 추가됐다. 고객이 데이터를 활용해 맞춤형 생성형 AI를 구축할 수 있도록 서비스가 더욱 강화됐다.
또한 RAG를 지원하는 아마존 베드록 날리지 베이스(Knowledge Bases)에 구조적 데이터 검색과 그래프 RAG(GraphRAG) 기능이 추가됐다. 날리지 그래프는 데이터를 연결된 구조로 모델링하고 저장해 관련 정보를 맵핑할 수 있도록 지원한다. 날리지 그래프를 RAG에 통합하면 그래프를 따라가며 정보를 검색하는 것이 가능해져 유용성이 더욱 높아진다.
아마존 베드록 데이터 자동화(Amazon Bedrock Data Automation) 기능도 추가돼 비정형 멀티모달 데이터를 코딩 없이도 구조화된 데이터로 변환할 수 있게 됐다. 고객들이 생성형 AI 및 데이터 분석에서 더 많은 데이터를 활용할 수 있도록 돕는다는 방침이다.
스와미 시바수브라마니안 부사장은 “아마존 베드록은 폭넓은 모델 선택지, 고객 데이터를 손쉽게 활용할 수 있는 맞춤형 도구, 책임 있는 AI 기능, 정교한 에이전트를 개발할 수 있는 역량을 제공하면서 빠르게 성장하고 있다”며 “아마존 베드록은 개발자들이 직면한 주요 과제를 해결하고, 고객이 생성형 AI의 잠재력을 최대한 발휘할 수 있도록 지원한다. 이번 새 기능들은 고객이 더욱 지능적인 AI 애플리케이션을 개발해 최종 사용자에게 더 큰 가치를 전달하도록 돕는다”고 말했다.
기술 혁신 ‘박차’ 가하는 국내 기업들
세계로 나아가는 ‘K-SaaS’ 기업들
이번 행사에서는 기술 혁신에 박차를 가하고 있는 국내 기업들을 만나볼 수 있었다. 정부 기관과 힘을 모아 글로벌 진출에 힘쓰고 있는 ‘K-SaaS’ 기업들이 NIPA와 엑스포 전시관을 꾸렸다.
NIPA는 이번 리인벤트 컨퍼런스에서 국내 SaaS 기업의 해외판로를 개척하고자 K-SaaS 기업공동관을 엑스포에 마련했다. 총 8개 기업이 참석했고, 6개 기업이 솔루션 전시 부스를 운영했다. 각 기업들은 K-SaaS 기업공동관 현장에서 해외 기업과의 비즈니스 미팅 및 네트워킹을 위한 프로그램도 진행했다. 또한 국내 보안전문 기업인 엔키화이트햇은 KISA의 지원을 받아 자체 전시 부스를 마련해 선보였다.
앞서 NIPA는 지난해 7월 AWS와 국내 SaaS 기업의 글로벌 진출 및 수출 활성화를 위한 업무협약(MOU)을 맺은 바 있다. 이 일환으로 추진되는 글로벌 SaaS 마켓플레이스 지원 사업을 통해 국내 우수 SW 기업 제품 50개를 선정해 글로벌 CSP의 마켓플레이스 등록 및 기술·사업화, 멘토링 등을 지원하고 있다.
AWS는 이번 행사에 참여한 국내 SaaS 기업들을 위해 글로벌 파트너팀과의 미팅, SW기업의 C레벨 대상 프로그램 등 다양한 네트워킹 기회도 지원했다.
AI 중심 서비스 풍부…국내 보안 솔루션도 주목
NIPA가 마련한 K-SaaS 기업공동관은 △딥브레인AI △플리토 △프렌들리AI △옴니어스 △에스티씨랩 △마크애니 등 6개 기업이 함께 장을 꾸렸다.
AI 아바타 전문기업 딥브레인AI는 주력 솔루션인 ‘AI 스튜디오(AI Studios)’와 ‘AI 휴먼(AI Human)’을 통해 다양한 용도로 활용할 수 있는 가상 인간 생성 기술을 선보였다. AI 스튜디오는 사용자가 텍스트 입력만으로 AI 아바타를 사용해 비디오 콘텐츠를 손쉽게 생성할 수 있도록 돕는다. AI 휴먼은 고객 서비스, 교육, 엔터테인먼트 등 다양한 산업 분야 목적에 맞춰 다방면으로 활용할 수 있는 실시간 디지털 상호작용 솔루션이다.
플리토는 언어 AI 전문기업으로, 다양한 비즈니스 환경에 맞춰 실시간 AI 통역을 제공하는 ‘챗 트랜스레이션(Chat Translation)’과 ‘라이브 트랜스레이션(Live Translation)’을 전시했다. 챗 트랜스레이션은 안내 데스크와 같이 글로벌 고객을 맞이하는 환경에 맞춤 설계돼 다국어 소통을 지원한다. 라이브 트랜스레이션은 비즈니스 미팅을 위한 솔루션으로 38개에 달하는 폭넓은 AI 통역 언어를 지원한다.
프렌들리AI는 맞춤형 AI 에이전트 구축 및 서비스를 지원하는 생성형 AI 인프라 소프트웨어 기업이다. 고객 맞춤형 생성형 AI 모델을 구축하고 서비스하기 위한 클라우드 기반 플랫폼을 지원하고, 사용자가 내부 독점 데이터셋으로 모델을 파인튜닝하고 효율적으로 배포할 수 있게 돕는다. 주요 솔루션은 ‘프렌들리 데디케이티드 엔드포인트(Friendli Dedicated Endpoints)’및 ‘프렌들리 컨테이너(Friendli Container)’ 등으로 온프레미스 또는 클라우드 환경에서 AI 모델 학습에 드는 GPU 비용을 최대 90%까지 절감할 수 있도록 지원한다.
옴니어스는 이커머스 및 패션 AI 기업으로, 생성형 AI 및 이미지 인식 기술을 활용하는 ‘벨라(Vella)’와 ‘옴니커머스(OMNICOMMERCE)’ 등을 주요 솔루션으로 제공하고 있다. 특히 벨라는 가상 의류 피팅 이미지를 생성하는 생성형 AI 솔루션으로 다양한 광고, 엔터테인먼트 분야에 적용해 쇼핑 경험을 향상시킬 수 있다. 옴니커머스는 자동화된 제품 태깅, 개인화된 추천을 위한 대화형 AI 등이 포함된 이커머스 AI 도구 모음이다.
에스티씨랩은 온라인 데이터 트래픽 관리 솔루션 전문기업으로 웹, 봇, API 트래픽 관리를 위한 다양한 제품을 선보이고 있다. 주요 솔루션은 ‘웨이브 오토스케일(Wave Autoscale)’과 ‘넷퍼넬(NetFUNNEL)’이다. 웨이브 오토스케일은 AI 기반 워크로드 최적화 SW로 클라우드 환경을 위한 트래픽 제어 및 예측 스케일링을 제공한다. 넷퍼넬은 트래픽 급증을 관리하는 온라인 트래픽 제어 솔루션이다.
마지막으로 마크애니는 정보 보안 및 콘텐츠 보호 전문기업이다. ‘세이포러스(Saforus)’와 ‘시큐얼라인(Secualign)’ 등의 솔루션을 앞세워 내부 위협 탐지 및 데이터 유출 방지부터 각종 미디어 콘텐츠 파일 보호까지 담당하고 있다. 마크애니는 콘텐츠 보안 제품에 대해 API와 SaaS 솔루션을 모두 제공한다.
아울러 KISA의 지원을 받아 이번 리인벤트에 참가한 엔키화이트햇은 서비스형 침투테스트 솔루션인 ‘오펜 PTaaS(OFFen PTaaS)’, 공격 표면 관리 도구 ‘오펜 ASM(OFFen ASM)’, 사이버 교육 훈련 플랫폼 ‘오펜 캠프(OFFen CAMP)’ 등을 전시했다. 엔키화이트햇 정현경 매니저는 “올해 처음 AWS 리인벤트에 참석했다. 이번 행사에서 해외 고객들의 의견을 듣고 우리 제품 발전에 반영하고자 한다. KISA의 지원 덕분에 해외 시장의 니즈를 파악하고, 파트너사 네트워킹을 확대할 수 있는 기회를 얻게 돼 기쁘다”고 말했다.
이번 행사에 참가한 K-SaaS 기업 모두 최근 아시아태평양 및 북미 시장에서 주목을 받으며 글로벌 인지도를 높이고 있다. K-SaaS 기업공동관을 총괄하는 NIPA 클라우드산업팀 이호영 팀장은 “우리나라 SaaS 기업들이 해외 진출을 할 수 있도록 꾸준히 지원해 왔다. SaaS에 AI를 접목하거나, 실제 사업화로 연결될 수 있는 국내 대표 유망 SaaS 기업들을 선정해 이번 리인벤트에 참여하게 돼 기대된다”며 “앞으로도 국내 SaaS 기업들이 해외 진출에 속도를 낼 수 있도록 다양한 해외 빅테크 전시회에 기업들과 함께 참여하며 성과를 만들어 나갈 계획이다”라고 밝혔다.
LG전자, 생성형 AI 기반 고객 데이터 플랫폼 개발
리인벤트 컨퍼런스 세션 발표에 참가한 국내 주요 기업들도 만나볼 수 있었다. LG전자 이일세 DX담당은 한국기자단과 만나, AWS의 생성형 AI 서비스 아마존 베드록을 활용해 개발한 고객 데이터 플랫폼을 소개했다.
LG전자는 AWS와 협업해 고객 데이터 분석에 생성형 AI를 적용했다. 사내 직원들이 채팅으로 데이터를 분석하고 인사이트를 찾을 수 있는 서비스인 ‘챗 인사이트’를 베타 테스트로 개발한 것이다. LG전자는 생성형 AI 기반 고객 데이터 플랫폼을 올해 중 정식 출시할 계획이다.
챗 인사이트는 복잡한 코딩이 없이도 자연어로 AI와 채팅해 데이터를 분석하고 차트를 만들 수 있도록 지원한다. 복잡한 대시보드 역시 AI가 상세 분석한다.
이일세 담당은 “챗 인사이트를 활용해 타깃 마케팅 메시지가 실제 구매로 연결된 비율이 전년보다 250% 정도 늘었다”고 밝혔다.
올해 출시되는 챗 인사이트의 정식 버전 명칭은 ‘오토젠(AutoGen) CRM’이다. 오토젠 CRM을 기반으로 대고객 마케팅 캠페인을 다각화하고 접촉 고객 수를 늘린다는 목표다. 또 LG전자 매장의 매니저를 돕는 AI 챗봇을 만들겠다는 계획도 밝혔다.
업스테이지 ‘솔라 프로’, 아마존 베드록 마켓플레이스 등록
최근 주목받고 있는 국내 AI 스타트업 업스테이지도 한국기자단과 리인벤트 행사 현장에서 만났다. 업스테이지는 자체 개발 LLM ‘솔라’를 서비스 중이며, 최근 파라미터 수는 적지만 가성비가 강점인 소형언어모델(SLM) 시장을 타기팅해 사업을 영위하고 있다. 특히 각 산업군 및 전문 분야에 특화된 고객 맞춤형 프라이빗 LLM을 구축하는 데 중점을 두고 있다.
업스테이지는 법륩·금융 등의 도메인에서 높은 성능을 낼 수 있는 ‘솔라 프로’를 최근 출시했다. 이와 함께 리인벤트 컨퍼런스에서 새롭게 공개된 아마존 베드록 마켓플레이스에도 솔라 프로가 등록됐다. 이를 통해 더 많은 고객들이 손쉽게 솔라 프로를 도입해 볼 수 있는 가능성이 생겼다.
업스테이지는 솔라 프로 출시와 아마존 베드록 마켓플레이스 등록을 기회로 삼아 글로벌 AI 시장을 적극 공략한다는 목표다. AWS와도 긴밀히 협력하며 글로벌 인지도를 키운다는 방침이다.
업스테이지의 전략은 이전과 마찬가지로 특정 도메인 특화 프라이빗 LLM 수요에 대응한 시장 공략이다. 또한 모델의 가성비 역시 강점으로 내세우고 있다. 다른 동급 성능 모델 대비 5분의 1 가격으로 모델을 제공해 더 많은 고객을 유입한다는 전략이다.
이활석 CTO는 “내부 데이터로 특화된 AI 모델을 구축하려는 시장 수요가 있을 것이라 확신한다. 이 영역에서 많은 결과물을 만들어보려 한다”며 “국내를 넘어 해외에서도 사업을 본격 추진하고 있다. 글로벌 레퍼런스를 만들고 연구개발에 아낌없이 투자해 기술 경쟁력을 키워나가겠다”고 강조했다.


