세션명
Innovate faster with generative AI
(생성적 AI로 더욱 빠르게 혁신)
강연자
- Bratin Saha, Vice President, AI & ML, AWS
- John Hurley, Chief Technology Officer, Ryanair
- Vipin Mayar, Head of AI Innovation, Fidelity Investments
- Arvind Jain, CEO, Glean Technologies, Inc.
- Dr. Ebtesam Almazrouei, Executive Director and Acting Chief AI Researcher, Technology Innovation Institute
- Tom Herzog, Chief Operating Officer, Netsmart
핵심 내용 요약
- 생성형 AI 여정을 가속화하기 위해 필요한 5가지 고려 사항과 관련 AWS 서비스 소개
- 생성형 AI 등 최신 AI, ML을 통해 비즈니스를 어떻게 혁신하고 있는지 다양한 산업 분야의 고객 사례
세션 키워드
- Generative AI
- Data
- Foundation Model
세션 요약자
베스핀글로벌 마케팅 콘텐츠팀 이가연 님
생성형 AI 여정을 가속화하기 위해 필요한 것
(1) 모델의 선택과 유연성(Choice and flexibility of models)
- 다양한 모델을 테스트함으로써 비즈니스 상황에 맞는 최적의 모델 선택이 중요함
- Amazon Bedrock을 사용해 다양한 모델 사용 및 커스터마이징 가능
- 고객 사례: John Hurley, Chief Technology Officer, Ryanair
- 코로나19 기간 동안 Amazon Bedrock을 사용해 생성형 AI 기반 애플리케이션 개발
- 승무원 스케줄, 휴가 신청 등 관리 + 가이드라인, 교육 자료 등 확인 가능
- 애플리케이션 도입 후 정보 접근성 향상, 운영 효율 개선 등의 효과 기대
(2) 데이터 활용과 차별화(Differentiate with your data)
- 머신러닝을 끝까지 추진할 수 있는 강력한 데이터 플랫폼 구축이 중요
- Amazon S3 Connector for PyTorch → 대규모 Foundation Model을 빠르고 효율적으로 훈련
- 고객 사례: Vipin Mayar, Head of AI Innovation, Fidelity Investments(24:36)
- 데이터 + AI가 핵심 경쟁력 → AWS와의 파트너십 통해 데이터 플랫폼 구축 시작
- 비정형 데이터 수집/분석 가능한 전체 분류 체계 구축 및 데이터 민주화(democratization) 구현
- 대화형 Q&A, 개발자 생산성 보조 도구 등 생성형 AI 적용을 위한 프로젝트 진행
(3) 책임 있는 AI 통합(Responsible Al integration)
- ML과 생성형 AI 확장을 위해서는 책임 있는 AI 통합이 중요함
- Amazon SageMaker Clarify을 통해 Foundation Model 평가를 지원함
- 고객 사례: Arvind Jain, CEO, Glean Technologies, Inc
- 3가지 우려사항을 해결하기 위한 방법 공유
- 생성형 AI의 답변이 정확한지 어떻게 아는가? → 검색 증강 생성(RAD) 활용최적의 모델인지 어떻게 아는가? → AWS Bedrock에서 가장 적합한 모델 손쉽게 선택 가능
- 데이터가 안전한지 어떻게 확신하는가? → AWS Bedrock의 보안 기능 활용(엔드투엔드 암호화 지원)
(4) 저비용, 고성능 인프라 접근성(Low cost and performant infrastructure)
- AWS의 하드웨어/소프트웨어 인프라 기술을 통해 성능/비용 효율적인 ML 인프라 구축 가능
- Amazon SageMaker HyperPod / Amazon SageMaker inference optimizations
- 고객 사례: Dr. Ebtesam Almazrouei, Executive Director and Acting Chief AI Researcher, Technology Innovation Institute
- AWS 활용해 대규모 언어 모델 개발: 총 5조 개 토큰으로 FALCON LLM 훈련
- Foundation Model 구축 시 충분한 규모의 컴퓨팅 자원 확보, 벤더와의 협업 등의 전략
- 180억 파라미터 규모 언어 모델 FALCON 베타 출시, SageMaker JumpStart를 통한 모델 공개 및 파인튜닝
(5) 생성형 AI 애플리케이션 사용(Generative Al-powered applications)
- AWS에서 고객 센터, 개인화, 문서 처리 등 기업 워크플로우를 위한 애플리케이션 제공
- AWS Healthscribe: 의사-환자 대화 자동 분석, 생성형 AI 활용 임상 문서 자동 생성 등
- 임상 워크플로우 지원, 전자 건강 기록 보완 지원 → 서류 작업 시간 40% 절감 효과
- 고객 사례: Tom Herzog, Chief Operating Officer, Netsmart
- 정신건강 케어 수요가 증가 → 의료진 업무 과부하(진료 시간의 40% 이상 문서 작업에 할애)
- AWS의 HealthScribe와 Amazon Bedrock 활용해 업무 생산성 향상
- 의료 데이터의 효율적 사용을 통한 정신건강 케어 서비스 제공 개선 기대
Bespin’s Comment
- 이제 생성형 AI는 기업 전반의 혁신을 이끌어 내는 필수 기술이 되었습니다. 기업은 지금까지 쌓아 온 데이터를 기반으로 차별화된 서비스, 맞춤형 서비스를 제공해 고객 만족도를 향상시키는 것이 중요합니다. 베스핀글로벌은 많은 데이터 프로젝트 경험과 전문 역량을 바탕으로 데이터에서 AI 비즈니스에 이르기까지 End-to-End 서비스를 제공합니다. 본 세션에서 소개된 5가지 고려 사항과 각 사례를 참고해 앞으로의 AI 비즈니스 전략을 세우고 싶다면 베스핀글로벌과 함께하세요.
- 본 세션에서는 AWS가 제공하는 다양한 생성형 AI 서비스가 함께 소개되었습니다. 베스핀글로벌은 AWS 프리미어 파트너이자 2023년에는 ‘올해의 글로벌 MSP 파트너상’을 수상하는 등 높은 AWS 클라우드 전문성을 지닌 MSP 기업입니다. 베스핀글로벌을 통해 AWS의 생성형 AI 서비스들을 실제 업무에 제대로 활용하시어 비즈니스 성장을 이끄시길 바랍니다.