AIㆍML

“AWS 생성형 AI 전략 나왔다”…‘리인벤트 2023’ 행사 총정리

Anirban Ghoshal | InfoWorld 2023.12.06
현재 클라우드 시장 점유율 1위를 차지하고 있는 AWS가 생성형 AI에서 새로운 사업 기회를 만들려는 모양새다. IDC에 따르면 2023년 전 세계 생성형 AI 및 관련 기술 시장 규모는 160억 달러다. 향후 5년간 연평균 성장률(CAGR)은 73.3%로, 2027년에는 1,430억 달러에 이를 전망이다. 같은 기간 전 세계 IT 시장의 연평균 성장률보다 13배 정도 더 높다.
 
ⓒ IDG

지난 11월 28일(현지 시각) 미국 라스베이거스에서 열린 AWS 리인벤트(re:Invent) 2023 행사에서 AWS가 생성형 AI 관련 새로운 서비스와 업데이트를 대거 발표했다. AWS의 CEO 아담 셀립스키는 생성형 AI 전략이 3가지 계층으로 나뉜다고 설명했다. ▲대규모 언어 모델(LLM)의 학습 또는 개발을 위한 인프라 계층 ▲애플리케이션 구축에 필요한 기초 대규모 언어 모델로 구성된 계층 ▲애플리케이션 계층이다. 하나씩 자세히 살펴보자.
 

생성형 AI 인프라를 강화하는 AWS 

리인벤트 2023에서는 최신 버전의 그래비톤(Graviton) 및 트레이니움(Trainium)이 공개됐다. 회사에 의하면 그래비톤4 프로세서는 그래비톤 3 프로세서 대비 최대 30% 향상된 컴퓨팅 성능, 50% 더 많은 코어, 75% 더 많은 메모리 대역폭을 제공한다. 트레이니움2는 1세대 트레이니움 칩보다 최대 4배 빠른 학습 속도를 지원한다. 최대 10만 개의 칩으로 구성된 EC2 울트라클러스터(EC2 UltraClusters)에 배포할 수 있어 파운데이션 모델(FM)과 대규모 언어 모델(LLM)을 훨씬 더 짧은 시간에 학습시킬 수 있다. 에너지 효율성도 이전 세대 대비 최대 2배 이상 개선됐다고 AWS는 설명했다. 

현재 마이크로소프트, 오라클, 구글, IBM 모두 자사만의 고성능 컴퓨팅용 칩에 큰 관심을 갖고 있다. 마이크로소프트는 모델 학습 워크로드용 마이아 AI 액셀러레이터(Maia AI Accelerator)와 애저 코발트 CPU(Azure Cobalt CPU)를 출시했고, 오라클은 자체 칩 출시에 앞서 그래비톤 칩을 사용하기는 했지만, 암페어와 협력해 오라클 암페어 A1(Oracle Ampere A1) 플랫폼을 내놨다. 구글 클라우드는 멀티슬라이스 기술을 활용할 수 있는 TPU(Tensor Processing Unit) 칩을 개발했고, 현재 5세대(TPUv5e)까지 공개됐다. IBM도 생성형 워크로드를 효율적으로 지원할 수 있는 칩인 노스폴(Northpole)을 개발 중이다. 

이번 리인벤트에서 AWS는 엔비디아와의 전략적 협력을 확대했다고 밝혔다. 이에 따라 DGX 클라우드(DGX Cloud), 세이바(Ceiba)라는 새로운 GPU 프로젝트, 생성형 AI 워크로드 지원을 위한 새로운 인스턴스를 지원한다. 구체적으로 보면 AWS는 엔비디아의 DGX 클라우드 GPU 클러스터를 호스팅한다. AWS에서 제공될 DGX 클라우드는 1조 개 이상의 매개변수를 처리할 수 있는 생성형 AI와 LLM 학습을 지원한다. 오픈AI도 챗GPT의 기반이 되는 LLM을 학습시키는 데 DGX 클라우드를 활용했다. 

지난 2월 초 엔비디아는 오라클 클라우드, 마이크로소프트 애저, 구글 클라우드 플랫폼 등 여러 클라우드 서비스에서 DGX 클라우드를 사용할 수 있도록 지원할 것이라고 밝혔다. 3월에는 오라클과 마이크로소프트는 DGX 클라우드 지원을 발표했다. 엔비디아 L40S GPU를 탑재한 새로운 아마존 EC2 G6e 인스턴스와 L4 GPU를 탑재한 G6 인스턴스도 준비 중이다. 아울러 엔비디아는 챗봇 등 생성형 AI 툴 개발자를 지원하기 위해 자사의 네모 리트리버(NeMo Retriever) 마이크로서비스를 AWS에 통합한다. 네모 리트리버는 기업이 맞춤형 LLM을 자사 데이터에 연결할 수 있는 생성형 AI 마이크로서비스다. 

또한, AWS는 클라우드 업체 중 최초로 엔비디아의 GH200 그레이스 호퍼 슈퍼칩(GH200 Grace Hopper Superchips)을 클라우드에 도입한다. 엔비디아 GH200 NVL32 멀티노드 플랫폼은 엔비디아의 NV 링크와 NV스위치 인터커넥트를 통해 32개의 그레이스 호퍼 슈퍼칩을 연결한다. 이 플랫폼은 아마존의 네트워크 가상화(AWS Nitro System), 하이퍼스케일 클러스터(Amazon EC2 UltraCluster)로 연결된 아마존 EC2(Elastic Compute Cloud) 인스턴스에서 사용할 수 있다. 
 

더 다양해진 파운데이션 모델 

생성형 AI 애플리케이션 구축 서비스 아마존 베드락(Amazon Bedrock)의 파운데이션 모델이 업데이트됐다. 더 많은 파운데이션 모델 선택지를 제공하고, 더 쉽게 애플리케이션을 구축할 수 있다고 AWS는 설명했다. 앤트로픽의 클로드 2.1과 메타 라마 2 70B 등이 추가됐다. 아울러 아마존은 타이탄 텍스트 라이트(Titan Text Lite)와 타이탄 텍스트 익스프레스(Titan Text Express) 파운데이션 모델도 베드락에 추가했다. 여기에 더해 아마존 타이탄 이미지 생성기(Amazon Titan Image Generator)도 미리보기로 공개했다. 한편 현재 베드락에서 사용할 수 있는 파운데이션 모델에는 AI21 랩스, 코히어 커맨드, 메타, 앤트로픽, 스태빌리티 AI의 LLM이 있다. 

마이크로소프트, 오라클, 구글, IBM도 독점 모델과 오픈소스 모델을 포함한 여러 파운데이션 모델을 제공한다. 마이크로소프트는 메타의 라마 2(Llama 2)와 오픈AI의 GPT 모델을, 구글은 팜 2(PaLM 2), 코디(Codey), 이미젠(Imagen), 처프(Chirp) 등의 독점 모델을 제공한다. AWS는 기업이 특정 사용 사례와 비즈니스 요구 사항에 적합한 파운데이션 모델을 평가, 비교, 선택할 수 있는 모델 평가(Model Evaluation) 기능도 선보였다. 완전히 같지는 않지만, 구글의 파운데이션 모델 저장소인 구글 버텍스 AI(Google Vertex AI)의 모델 가든(Model Garden)과 유사하다. 마이크로소프트 애저의 오픈AI 서비스도 대규모 언어 모델을 선택할 수 있는 기능을 제공한다. 
 

애플리케이션 구축 지원 강화한 아마존 베드락과 세이지메이커 

AWS는 모델 학습뿐만 아니라 애플리케이션 개발 속도 향상을 위해 아마존 베드락과 세이지메이커를 업데이트했다. 이번 업데이트에는 RAG(Retrieval-Augmented Generation), LLM을 미세 조정하는 기능, 베드락 내에서 타이탄 텍스트 라이트 및 타이탄 텍스트 익스프레스 모델을 사전 학습시킬 수 있는 기능 등이 포함됐다. 구글의 버텍스 AI, IBM의 왓슨x.ai, 마이크로소프트의 애저 오픈 AI, 오라클의 생성형 AI 서비스 일부 기능도 아마존 베드락과 유사한 기능을 제공한다. 

LLM과 FM의 구축, 학습, 배포를 가속화하는 세이지메이커(SageMaker)의 새로운 기능도 발표됐다. 신규 기능에는 ▲대규모 FM 학습을 가속화하는 ‘세이지메이커 하이퍼포드(SageMaker HyperPod)’ ▲모델 배포 비용과 지연 시간을 줄여주는 ‘세이지메이커 인퍼런스(SageMaker Inference)’ ▲자연어 지침을 사용해 데이터를 준비하고 대규모 비즈니스 분석에 모델을 활용할 수 있도록 돕는 ‘세이지메이커 캔버스(SageMaker Canvas)’ 개선 사항 등이 포함된다. 

아마존 세이지메이커 캔버스는 코드 작성 없이 ML 모델을 구축할 수 있도록 지원한다. 파운데이션 모델을 조정, 배포, 모니터링하기 위한 로우코드 제품군인 구글의 생성형 AI 스튜디오(Generative AI Studio)와 유사하다. AWS는 이번 업데이트를 통해 다양한 사용 사례를 지원할 수 있도록 기능을 확장했다고 설명했다. 한편 AWS를 비롯한 각 클라우드 서비스 업체는 기업이 데이터 및 모델 학습과 관련된 모범 사례를 준수할 수 있도록 소프트웨어 라이브러리 및 서비스도 제공한다. 리인벤트 2023에서 출시된 아마존 베드락용 가드레일(Guardrails for Amazon Bedrock)이 대표적이다.
 

MS 코파일럿에 맞서는 AWS의 전략, 아마존 Q

리인벤트 2023의 주인공은 다름 아닌 ‘아마존 Q(Amazon Q)’였다. 마이크로소프트의 GPT 기반 생성형 AI 비서 ‘코파일럿’에 맞서는 AWS의 기업용 생성형 AI 서비스다. 회사에 따르면 기업은 애플리케이션 개발부터 코드 변환, 비즈니스 인텔리전스 생성, 비즈니스 애플리케이션용 생성형 AI 비서 활용, 아마존 커넥트 제품을 통한 고객 서비스 상담사 지원까지 다양한 곳에서 아마존 Q를 사용할 수 있다. 

기업용 생성형 AI 서비스 시장 경쟁이 격화되고 있다. 구글 역시 지난 8월 데이터 애널리틱스, 데이터베이스, 인프라, 애플리케이션 관리를 포함한 대부분의 클라우드 서비스에 생성형 AI 비서 ‘듀엣 AI’를 추가했다. 오라클도 매니지드 생성형 AI 서비스가 있는데, 이를 활용하면 기업이 API를 통해 애플리케이션에 LLM 기반 생성형 AI 인터페이스를 통합할 수 있다. 오라클은 클라우드 서비스와 넷스위트에 자체 생성형 AI 비서를 제공할 예정이라고 밝혔다. 

이 밖에 아마존 베드락의 벡터 데이터베이스도 업데이트돼 아마존 오로라와 몽고DB가 추가됐다. 현재 지원하는 데이터베이스에는 파인콘, 레디스 엔터프라이즈 클라우드, 아마존 오픈서치 서버리스용 벡터 엔진 등이 있다.
editor@itworld.co.kr
 Tags
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.