본문 바로가기
IT

AWS re:Invent 리인벤트 2022 Keynote #1, Monday Night Live

by 데브길길잇 2022. 12. 6.
728x90
반응형

안녕하세요 dev-길길IT입니다.
이번에 좋은 기회가 생겨서 미국 라스베가스에서 개최되는 AWS re:Invent 2022 행사에 참여할 수 있게 되었습니다. 일주일 정도 머무르면서 다양한 세션들과 Expo, Keynote를 접할 수 있었습니다. 이 중에서 임원진들이 발표하는 중요한 내용들이 담긴 Keynote 세션들에 대해서 순차적으로 포스팅을 해보려고 합니다. 이번 행사에서는 어떠한 혁신적인 새로운 기술들이 발표되었는지 함께 살펴보겠습니다.

※ 목차
1. 차세대 네트워크 워크로드를 위한 AWS 인스턴스, HPC7g / C7gn
2. 딥 러닝을 위한 AWS 인스턴스, Trn1
3. AWS Lambda SnapStart
4. Ferrari with AWS

 


    1. 차세대 네트워크 워크로드를 위한 AWS 인스턴스, HPC7g / C7gn

    AWS HPC7g 인스턴스가 새로 출시됩니다. Graviton2를 사용하는 현재의 C6gn 인스턴스보다 2배 향상된 부동소수점 연산 (112.34 = 1.1234 x 10^2의 형태) 성능과 기존 HPC6a 인스턴스보다 20% 높은 효율을 제공합니다. 긴밀하게 결합된 컴퓨팅 집약적인 HPC 및 Distributing Computing Workload에 대해 가성비가 좋다고 합니다. 특히 동일한 VPC내 인스턴스 간 트래픽에 최적화된 200Gbps의 전용 네트워크 대역폭을 지원하고 최대 64개의 vCPU와 128GiB의 메모리 또한 가능합니다.

    현재 Covid 백신 업체중 하나인 아스트라제네카, 포뮬러 원(F1) 스포츠카 등에서 유전체학 처리, 전산 유체 역학 등의 HPC(High Performance Computing)이 필요한 곳에서 AWS를 활발하게 활용하고 있으며 특히 아스트라제네카는 Covid 백신을 과거보다 신속하게 개발할 수 있던 이유가 HPC 기반의 성능 고도화 덕분이라고 설명한 바 있습니다.

    새로운 Nitro 카드를 탑재한 C7gn 인스턴스 또한 공개되었는데요. 네트워크 가상 appliance(방화벽, 라우터, load balancer 등), 데이터 분석, CPU 기반의 AI/ML 추론과 같이 까다로운 네트워크 집약적 Workload를 위해 만들어졌습니다. C7gn 인스턴스 역시 AWS Graviton3E 프로세스가 탑재되어 있고, 최대 200Gbps의 네트워크 대역폭, 기존 대비 최대 50% 높은 패킷 처리 성능을 제공합니다.


    2. 딥 러닝을 위한 AWS 인스턴스, Trn1


    AWS EC2 Trn1 인스턴스는 AWS Trainium 칩으로 동작하게 됩니다. GPU 기반의 인스턴스이며 다른 것 대비 최대 50% 저렴한 훈련 비용으로 고성능의 Deep Learning Traning을 진행할 수 있도록 만들어졌습니다. 특히 주요 자연어 처리(NLP) 모델을 위해 사용하는 딥 러닝에서 최고 수준의 성능을 제공한다고 합니다. 음성 인식, 사용자 기반 추천, 영상/음성 분류 등 다양하고 넓은 분야에서 모델을 훈련시킬 수 있고 특히 Maching Learning을 시작할 때 주로 사용하는 PyTorch나 TensorFlow와 같은 기존의 프레임워크에서도 Trn1 인스턴스를 시작할 수 있습니다.


    3. AWS Lambda SnapStart

    AWS의 Serverless Computing 서비스로 유명한 Lambda는 ColdStart라는 고질적인 문제가 있었습니다. Lambda 함수를 실행할 때 최초 실행시 cold booting에 시간이 소요되어 함수 전체 duration이 길어지는 증상인데요. 특히 Java의 경우 Class를 Decompile하고 JVM을 켜는 등의 추가적인 시간이 필요하여 더욱 시간이 오래걸렸었는데 이를 Snapshot 기반의 SnapStart로 해결하고자 합니다.

    AWS Lambda SnapStart는 함수의 새 버전을 게시하면 전체에 대한 수행 내역을 snapshot을 찍은 후 이후에 동일한 함수가 호출되면 똑같이 프로세스를 실행하는 것이 아니라 snapshot을 불러와 이 모든 과정을 건너뛰고 실제 기능단으로 바로 넘어가게 되어 시간이 줄어드는 효과가 있다고 합니다. Java를 기준으로 coldstart는 6초에서 200ms 미만으로 90%이상 단축된 결과가 나온다고 합니다. snapshot의 경우 암호화 되어 다른 사람이 변경할 수 없게 되어있다고 설명합니다.


    4. Ferarri with AWS

    본문내용넣기

    이날 AWS re:Invent 2022 Monday Night Live의 Customer로 F1으로 유명한 Ferrari의 Tech Leader인 Clear가 연설을 하였습니다. AWS와 함께 AI와 ML 기술을 사용하여 사람의 눈으로 판단할 수 없는 작은 데이터의 조각까지도 엔지니어에게 제공할 수 있게 되었으며, 특히 1g이 중요한 차량의 무게를 관리하는데에 탁월한 효괄르 보였다고 합니다.

    Clear는 AWS ML을 사용하여 레이스 전략을 만들고 있으며 내년에 전세계 팬들에게 제공할 수 있는 앱을 개발하고 있다고 소개하였습니다. 드라이버 및 엔지니어와의 독점 인터뷰를 포함하여 백스테이지 패스를 제공한다고 합니다.


    마무리

    AWS re:Invent 2022 첫 번째 keynote는 AWS의 Utility Computing의 수석 부사장인 Peter Desantis가 진행하였습니다. 전체적으로 비용은 줄이면서 효율은 늘리는 computing 기술과 서비스의 확장에 대하여 소개를 하였다고 생각이 됩니다. Peter는 성능, 지속 가능성, 비용 3가지의 Trade off를 희생하지 않으면서도 동시에 모두를 끌어올릴 수 있는 새로운 설계를 가능하게 하는 하드웨어와 소프트웨어를 소개하였습니다.

    오늘도 읽어주셔서 감사합니다.



    728x90
    반응형

    댓글