Summary
모두의연구소 주최 MLOps Now 세미나에서 다룬 프로덕션 환경에서의 LLM 운영 방법론이다. VESSL의 LLM 파이프라인 관리, Weaviate의 벡터 데이터베이스 활용, 삼성SDS의 엔터프라이즈 LLM 운영 사례, Liner의 실시간 LLM 서비스 최적화 전략 등 실무에서의 LLMOps 구현 경험과 노하우를 포함한다.
발표 내용 및 연사
-
Building AI-native applications with Weaviate
- Bob van Luijt, Co-founder & CEO, Weaviate
-
LLMOps에서 AGI까지 — 산업별 2024년 최신 사례
- 안재만, Co-founder & CEO, VESSL AI
-
What if…? 처음부터 다시 LLM 어플리케이션을 개발한다면
- 허훈, Tech Lead, Liner
-
AI 연구를 위한 GPU Platform 기술 소개
- 하승훈, 삼성 SDS, 컴퓨팅시스템연구Lab장
Building AI-native applications with Weaviate
- 발표자:Bob van Luijt, Co-founder & CEO, Weaviate
- Daglo: https://daglo.ai/share/2wbCV9mtDEfN6XZN
3줄 요약
- Weaviate는 벡터 데이터베이스와 AI 네이티브 데이터를 활용하여 다양한 애플리케이션을 개발하고, 이를 위한 오픈소스 생태계와 API를 제공합니다
- 한국어 토크나이저와 같은 기능을 통해 다국어 모델과 데이터베이스 통합을 지원하며, AI 응용 프로그램 개발을 쉽게 할 수 있도록 돕습니다
- GPU 기반 벡터 검색은 비용이 높아 대부분의 고객은 CPU와 메모리를 혼합하여 비용 효율성을 높이고 다양한 검색 요구를 충족시킵니다
벡터 데이터베이스와 AI 네이티브 데이터의 중요성
- 벡터 데이터베이스의 인기는 기계 학습 모델의 벡터 인덱스로부터 비롯됨
- 10년째 벡터 임베딩 작업 중
- AI 네이티브 데이터를 통해 새로운 어플리케이션 개발 가능
Weaviate 생태계 구축
- 데이터베이스를 중심으로 한 생태계 구축
- AI 모델 제공업체와 오픈소스 모델을 활용하여 다양한 모델 운영
- 다양한 유형의 멀티모달 데이터를 사용하여 벡터 데이터베이스에서 검색 가능
- 오픈소스 데이터베이스와 API 제공, 개발자들에게 지식과 예제 제공
오픈 소스 데이터베이스 생태계와 툴링
- 개발자를 돕기 위한 생태계 초점
- 벡터 데이터베이스와 AI 모델의 조합
- 생성적 피드백과 데이터 저장
한국어 AI 응용 프로그램 개발 지원
- 한국어 AI 응용 프로그램 구축 지원
- 다국어 모델과 데이터베이스의 통합 기능 제공
- 한국어 모델 및 데이터베이스의 로컬라이제이션 지원
한국어 토크나이저 및 Weaviate 데모
- 한국어 토크나이저 추가, Weaviate와 함께 사용 가능
- 한국어 토크나이저를 통해 문장을 단어로 분리하여 검색 가능
- Weaviate와 함께 한국어 토크나이저 사용하는 방법 데모 제공
- 커뮤니티와 협력하여 데이터베이스 확장 기능 개발
AI 기반 데이터 저장 및 업로드
- 대규모 use case를 저장하고 메모리에 보관하는 것은 비용이 많이 듬
- 데이터는 디스크나 스토리지 버킷에 업로드 가능
- 데이터셋은 오픈 소스로 제공, 사용자들의 의견을 환영
벡터 데이터 저장 및 쿼리 기능
- 벡터 데이터 저장 및 쿼리에 대한 기능 설명
- BBN의 목적과 BM25의 차이점
- 일반 벡터 점수와 중계 벡터 점수의 차이점
대규모 임베딩 저장 및 혼합 검색 지원
- 대규모 임베딩 저장 가능
- 혼합 검색은 다양한 인덱스를 혼합하여 수행
- 벡터 임베딩 저장의 메모리 비용 문제 해결
Weaviate로 AI 애플리케이션 개발 가능성
- Weaviate로 AI 애플리케이션 개발 가능
- S3 버킷을 이용해 비용 절감 및 정리 필요
- Weaviate와 함께 필요한 기능 제공
- Weaviate를 통해 AI 애플리케이션을 처음부터 끝까지 개발 가능
AI 활용에 대한 미래 계획과 하드웨어 가속화
- AI 활용을 위한 머신 러닝 추가 계획
- VGA를 통한 큰 피처 센터 제공
- CPU 또는 GPU 중 어떤 칩을 사용할 것인가에 대한 논의
GPU 기반 벡터 검색의 효율성
- GPU 기반 벡터 검색은 매우 빠르지만 비용이 비쌈
- CPU와 비교하여 GPU 사용은 더 높은 비용이 듦
- 고객들은 더 저렴한 처리를 원함
메모리와 디스크 인덱스의 장단점
- 메모리 인덱스는 가장 빠르지만 비용이 높음
- 메모리와 디스크를 혼합한 인덱스는 중간 속도와 비용
- 디스크 인덱스는 느리지만 가장 저렴
Q&A 정리
Q1: 벡터 데이터 저장 및 쿼리에 대한 추가 기능은 어떤 것이 있나요?
A1: 벡터 데이터 저장 및 쿼리에 대한 추가 기능에 대한 기대가 있습니다. 특히 BBN의 목적과 BM25의 차이점에 대해 궁금해하는 분들이 많습니다. 일반 벡터 점수와 중계 벡터 점수의 차이점을 설명했습니다
Q2: 대규모 임베딩 저장 및 혼합 검색에 대한 자세한 설명 부탁드립니다
A2: 임베딩 저장은 대규모로 가능하며, 혼합 검색은 다양한 인덱스를 혼합하여 수행할 수 있습니다. 또한 벡터 임베딩 저장의 메모리 비용 문제를 해결하기 위한 방법도 설명했습니다
Q3: Weaviate를 사용한 AI 애플리케이션 개발에 대해 자세히 설명해 주세요
A3: Weaviate를 사용하면 AI 애플리케이션을 처음부터 끝까지 개발할 수 있습니다. 이는 매우 비용이 많이 들 수 있으므로 S3 버킷을 이용해 비용을 절감하고 정리하는 것이 필요합니다. Weaviate와 함께 필요한 기능들을 제공하며, 이를 통해 AI 애플리케이션을 효율적으로 개발할 수 있습니다
Q4: GPU 기반 벡터 검색의 효율성에 대해 설명해 주세요
A4: GPU 기반 벡터 검색은 매우 빠르지만 비용이 비쌉니다. CPU와 비교했을 때 더 높은 비용이 들어가며, 고객들은 더 저렴한 처리를 원합니다. GPU는 특정한 경우에만 사용되며, 대부분의 경우 CPU와 메모리를 혼합하여 사용하는 것이 더 경제적입니다
Q5: 메모리와 디스크 인덱스의 장단점은 무엇인가요?
A5: 메모리 인덱스는 가장 빠르지만 비용이 높습니다. 메모리와 디스크를 혼합한 인덱스는 중간 속도와 비용을 가지며, 디스크 인덱스는 가장 저렴하지만 가장 느립니다. 각각의 인덱스 방식은 사용자의 필요와 예산에 따라 선택할 수 있습니다
Q6: AI 활용에 대한 미래 계획은 무엇인가요?
A6: AI 활용을 위한 머신 러닝 추가 계획이 있으며, VGA를 통해 큰 피처 센터를 제공할 예정입니다. CPU 또는 GPU 중 어떤 칩을 사용할 것인가에 대한 논의도 진행 중입니다
Q7: 벡터 데이터베이스의 비용 효율성을 높이는 방법은 무엇인가요?
A7: 벡터 데이터베이스의 비용 효율성을 높이기 위해 메모리와 디스크를 혼합하여 사용하는 것이 중요합니다. 메모리 인덱스는 비용이 높기 때문에, 디스크 인덱스를 함께 사용하여 비용을 절감할 수 있습니다. 또한, S3 버킷을 이용해 데이터를 저장하고 관리하는 방법도 비용 효율성을 높이는 데 도움이 됩니다
LLMOps에서 AGI까지 — 산업별 2024년 최신 사례
- 안재만, Co-founder & CEO, VESSL AI
- Daglo: https://daglo.ai/share/IlinZMErTUC-Naz0
3줄 요약:
- 다양한 AI 모델 개발 및 운영 방법과 실제 비즈니스에의 활용 사례 논의
- AI 모델 결합을 통한 의사 결정 프로세스 개발 및 자동 생성 연구
- LLM 모델의 개발, 업데이트, 테스트 및 인공지능 시스템 구현 시 고려사항
1. AI 모델 개발 및 운영의 최근 동향
- 데이터 수집, 챗봇, 시계열 데이터 활용 등 다양한 AI 모델 개발 방법 논의
- AI 모델 및 LLM 모델 개발과 운영의 필요성 증가 강조
2. AI 모델의 실제 비즈니스 활용
- 범죄 지능 AGI 개발 사례 및 전문 AI 에이전트와 모델 간의 소통
- 기존 AI 모델의 적응 및 배치로 비즈니스에 활용
3. AI 모델을 활용한 의사 결정 프로세스 개발
- AI 모델 결합을 통한 의사 결정 프로세스 개발
- 내부 데이터와 외부 뉴스를 활용한 챗봇 개발
- 다양한 사용자를 위한 특화된 모델 개발
4. AI 모델 자동 생성 및 활용 연구
- 인프라 구축의 필수 조건
- 의사 결정 프로세스에 연결하고 토론하기 위한 모델 요구사항
- 수백 개의 AI 모델 자동 생성 및 활용 가능성
5. 클라우드와 GPU를 연결한 AI 모델 학습 및 배포 플랫폼
- 다양한 클라우드와 GPU 연결로 데이터 활용하여 학습 및 배포
- 사용자 정의 LL 앱의 개발 및 운영 지원
- YAML 인터페이스를 통한 학습부터 배포까지 지원하며 다양한 모델 제공
6. AI/LLM 기술의 미래와 문제
- AI 모델들이 네트워크를 통해 소통하고 정보를 수집하는 기능
- AI 에이전트의 기능 지원을 위한 AI 모델 개발
- AI/LLM 문제 해결을 위한 인프라 구축의 중요성
7. LLM 모델 업데이트와 파이프라인 활용
- 데이터 업데이트 시 LLM 모델 업데이트 방법 논의
- 파이프라인을 사용하여 벡터 데이터 색인화
- Acadia 시스템을 활용한 MLS 설명
8. 인공지능 시스템 개발 고려사항
- GPU 클러스터에서 추론을 수행할 때 큰 비용 발생
- 인공지능 모델 개발 및 실행으로 인한 비즈니스 영향
- 인공지능 시스템 구현을 위한 다양한 고려사항
9. LLM 모델 개발 및 테스트
- LLM 모델 개발 및 성능 조정
- 모듈화를 통한 유연한 수정 가능
- 다양한 모델과 워크플로 테스트
Q&A 요약:
질문 1:
- 질문: AI 도구가 잘 개발되어 있어 장난감 데모는 쉽게 만들 수 있지만, 실제 유용한 수준으로 만드는 것은 어렵다. 이를 해결하기 위한 방법은?
- 답변: 유용한 수준으로 만들기 위해서는 폭넓은 공간을 선택해야 하며, 벡터 임베딩, 검색, 모델 선택 등 다양한 요소를 고려해야 한다.
질문 2:
- 질문: AI 시스템 개발 시 주의해야 할 점은?
- 답변: 레이어의 일부를 구축할 때 주의하지 않으면 처음부터 다시 개발해야 할 수 있으므로 신중하게 접근해야 한다.
질문 3:
- 질문: LLM 모델을 개발하고 테스트할 때 고려해야 할 사항은?
- 답변: 공공 LLM으로 먼저 테스트하고, 응답이 만족스럽지 않으면 파인튜닝을 시도하는 것이 좋다. 모듈화를 통해 각 순간에 수정이 가능하도록 시스템을 설계해야 한다.
What if…? 처음부터 다시 LLM 어플리케이션을 개발한다면
- 허훈, Tech Lead, Liner
- Daglo: https://daglo.ai/share/Wc3FIgz3alDSTkxz
3줄 요약
- 모델 선택과 오케스트레이션의 중요성을 강조
- 인공지능 기반 시스템 개발과 성능 평가 방법
- 챗봇 프로젝트의 기술적 이해와 비용 효율성 향상 방안
모델 선택과 오케스트레이션
모델 선택의 중요성과 고민
- 오픈 AI 챗GPT 도입 이후 모델 선택의 중요성이 강조됨
- 사용자가 선택할 수 있는 모델에 다양한 옵션이 제공되며, 이에 따라 고민의 여지가 생김
- 모델 선택 시, 컨텍스트, 퍼포먼스, 레이턴시, 포스트 사용 등 고려해야 할 요소가 있음
- 사용자 경험 향상을 위해 연속성과 비용이 더 중요한 경우, 고려해야 할 모델 선택에 대해 설명
- 성능이 좋은 모델만 쓰는 것보다, 연속성과 비용이 더 중요한 경우, 어떤 모델을 사용할지 고민해야 함
모델 선택의 고려 사항
- 모델 선택 시, 컨텍스트, 퍼포먼스, 레이턴시 등 고려해야 할 요소들을 설명
- 사용자의 요구와 선호에 따라 모델 선택이 달라짐
- 사용자의 요구 중 지나친 긴 요청에 대응할 수 있는지, 주력 모델이 되는지 고려해야 함
- 연속성과 비용이 더 중요한 경우, 사용자에게 모델 선택권을 주는 방안을 고려
- 성능이 좋은 모델을 쓰는 것보다, 연속성과 비용이 더 중요한 경우, 어떤 모델을 사용할지 고민해야 함
오케스트레이션 로직의 구현
- 모델 선택 시, 주력 모델과 베이스 모델의 선정과 사용에 대해 설명
- 연속성과 비용이 더 중요한 경우, 연속성과 비용이 좋은 모델을 선택하는 방안을 설명
- 사용자의 요청에 대응하기 위해, 라이델러를 사용하는 경우, 모델 선택을 대신해주는 방안을 설명
- 라이델러의 활용을 통해 모델 선택의 고민을 덜어주고, 모델의 연속성과 비용에 대한 고려를 도움
- 라이델러의 컴플레이션 원, 모델의 엔트로픽 모델 등 다양한 프로바이더의 모델 사용을 설명
인공지능 기반 시스템 개발과 성능 평가
인공지능 기반 시스템 개발과 선택적 대안 고려
- 인공지능 기반 시스템 개발에 있어 VLM과 같은 대안들 존재
- VLM은 인터페이스 통합성을 가지고 있지만, 아직 완벽한 대안은 아님
- 대체적으로 물 쓰는 시스템보다 라인 LLM을 선호하나, 이는 상황에 따라 달라짐
- 라인 LLM 개발 시 어플리케이션 레이어에서 프레임워크를 어떻게 녹여낼지 고민 필요
시스템 성능과 고민 사항
- 시스템 성능에 대해 강점과 약점 고려 필요
- 고랭을 활용한 시스템 개발에 대해 많은 고민 진행
- 라이델 레이어와 고랭의 이점과 한계를 분석하여 활용 방안 검토 필요
- 시스템 성능에 따라 비즈니스 의사결정의 유리함이 결정되므로, 시스템 성능을 고려한 개발 전략 필요
시스템 개발 전략과 평가
- 시스템 개발 시, 소프트웨어 비즈니스 모델 고려 필요
- 비용과 성능, 라우터 개념 도입 등 고려사항 고려
- 시스템 개발 전략을 결정하기 위해 에이전트 시스템의 성능 분석 필요
- 시스템 개발 시 비용-성능 비율, 성능-비용 관계 등을 고려해야 함
챗봇 프로젝트
챗봇 기술 이해
- 챗봇 프로젝트에서 사용하는 여러 모델에 대해 이해해야 함
- 챗봇의 기술과 비용 구조, 사용량 등 미시적, 전체적 관점에서 점검해야 함
- 전체 시스템에서 비용 지불 구조와 사용량 관리 등 챗봇 프로젝트의 비즈니스 모델을 정의해야 함
- LLM(챗봇 학습 모델)을 활용한 기술로 챗봇의 기술적 비용 측면을 이해할 수 있음
- 챗봇의 비용 구조와 사용량 관리 등 챗봇 프로젝트의 비즈니스 모델을 정의하는 것이 중요함
비용 효율성 향상
- 챗봇 프로젝트에서 사용하는 기술의 비용 효율성을 향상시키는 것이 중요함
- 기술의 비용 효율성을 고려하여 근대화를 해야 함
- LLM(챗봇 학습 모델)을 사용하는 비용 구조와 사용량 관리 등 챗봇 프로젝트의 비즈니스 모델을 설명해야 함
- 챗봇 프로젝트의 비용 구조와 사용량 관리 등 챗봇 프로젝트의 비즈니스 모델을 이해해야 함
- 파이팅(양방향 통신)을 제공하는 기업들과 협업하여 비용 효율성을 높일 수 있음
효율적인 파이팅 제공
- 파이팅 제공을 위한 오픈 소스 AI 서비스를 제공하는 기업들이 있음
- 오픈 소스 AI 서비스를 활용하여 파이팅을 대신 해주는 서비스들이 있음
- GPU(경사하강 모델) 임대 서비스를 제공하는 등 파이팅 제공에 필요한 기술들을 지원함
- 파이팅 제공을 위한 기업들과 협업하여 비용 효율성을 높일 수 있음
- GPU 클러스터를 확보하고, 엔지니어 트레이닝과 임플루언스를 제공할 수 있는 인력이 필요함
파이팅과 서빙
파인튜닝과 문제 정의
- 파인튜닝과 서빙의 어려움으로 파인업스와 프라임 채닝을 선택함
- 파인튜닝을 위한 5단계 과정으로 GPL 기반의 자체 파인튜닝 인프라 구축이 2.23단계에 위치함
- 파인튜닝 전 필수 모델 평가를 위한 모델 비교 및 판단이 중요함
- 필모델과 미니 모델의 성능 차이로 인해 파인튜닝의 필요성을 인지해야 함
- 모델 평가 시 필모델과 미니 모델의 성능 차이를 비교하고 판단하는 것이 중요함
모델 평가 요소
- 파인튜닝을 위한 첫 번째 요소는 캐시, 즉 파인튜닝을 통해 포스트 옵티메이션을 이룰 수 있는지 점검하는 것임
- 두 번째 요소는 도전적이고 기술적인 파인튜닝을 위한 모델 평가임
- 파이옥스와 그룹은 펑션 컬링 전용 모델을 제공함
- 파인튜닝을 통해 특정 컴포넌트의 성능을 개선할 수 있음
- 레버리지 가능한 우리만의 지적자산권이 있음
문제 해결을 위한 접근법
- 모델 평가 시 메트릭의 필요성이 중요함
- LMS 젖지의 유명함으로 인해 메트릭의 설정과 평가가 어려움
- 모델 평가 시 모델의 성능을 측정하는 과정이 중요함
- 모델 평가를 위한 테스트셋 확보가 필요함
- 모델 평가 시 제약 조건과 선호되는 행동 등을 고려해야 함
AI 연구를 위한 GPU Platform 기술 소개
- 하승훈, 삼성 SDS, 컴퓨팅시스템연구Lab장
- Daglo: https://daglo.ai/share/q1rQnpUGNaA-xNTU
3줄 요약
- AI GPU 플랫폼은 GPU 운영 및 사용률 향상을 위해 개발되었으며, AI 사이언티스트들이 도커라이즈(Dockerize)와 자동 빌드 시스템을 사용하여 효율성을 높였습니다.
- 클러스터는 효율적으로 구성되고, AI 최적화 스케줄러를 통해 자원 배분과 다중 작업이 가능하며, 강화학습 기법을 활용해 시스템 효율성을 증대시켰습니다.
- 메타피에션 메타모델을 사용하여 성능을 높이고, 필요에 따라 사용자 맞춤형 로드 그룹을 제공하는 등 다양한 솔루션을 제공합니다.
AI GPU 플랫폼
AI GPU 플랫폼 개발 과정
- 2018년부터 GPU 운영 및 사용률 향상을 위한 연구 진행
- AI 사이언티스트들이 서버 20대를 사용하여 효율을 20%로 끌어올림
- AI 사이언티스트들이 편리하게 사용하도록 도커라이즈(Dockerize) 지원
- 2021년, AI 사이언티스트들이 컨테이너 명령어에 적응하도록 지원
- 자동으로 빌드하는 시스템을 구축
클러스터 구성 및 문제점 해결
- 2021년, 클러스터를 2개로 나누어 효율적으로 구성
- 네트워크 고도 이더넷을 사용해 저비용 구성
- 고성능 지표로 구성된 인터랙티브 클러스터를 구축
- 인피니밴드로 4채널 플랜 채널 구성
- 조직에서 큰 모델을 돌릴 수 있도록 AI 사이언티스트들이 만족감을 가짐
GPU 플랫폼 구축과 보완점
- 삼성 SDS의 리액터 센터를 위한 친환경 이슈로 GPU 서버를 제한적으로 운영
- 추가 GPU 서버 설치
- Kubernetes 설치와 CNI 설치 필요
- 스토리지 오케스트레이션을 위해 SSD나 NAS 사용 권장
AI 옵티마이즈드 스케줄러
GPU 자원 아낀 스케줄링
- GPU 사용량이 많을 때 네트워크 성능 극대화
- 서버 내 GPU 사용 불가능 시 외부 네트워크로 다른 GPU 연결
- 다중 작업 시 효율적 자원 배분을 위해 다중 스케줄링 필요
- 다중 스케줄링으로 3~4개 이상의 서버에서 많은 학습 작업 구동 가능
- 자원 효율 개선 위해 휴리스틱과 강화 학습 기반 스케줄러 개발
휴리스틱 스케줄러
- 분산 학습 노드의 순서 유지
- 사용자 작업량에 따라 GPU 분산 필요, 전체 작업량 유지
- P4 알고리즘 적용해 컴퓨팅 부담 줄임
- 백필 알고리즘 적용해 작업이 원래 시간에 맞춰 실행되도록 함
다중 스케줄링의 효과
- 대기 시간 줄이고 복잡한 모델 처리 가능
- 복잡해진 모델에 대한 다중 스케줄링 필요
- 분산 학습 안 되는 노드는 불필요해졌지만, 여전히 알고는 있어야 함
- 새로운 모델 다양성 고려해 연구와 학습 필요
강화학습 기법을 활용한 복잡한 시스템 효율성 증대
강화학습 기법의 도입과 GPU의 한계
- 강화학습 기법은 에이전트가 현재 상태를 보고, 액션에 따른 리워드를 받으며 학습
- 게임이나 길찾기 같은 어려운 알고리즘 해결에 사용
- GPU 수가 한정적이므로 효율적인 사용 요구됨
- 강화학습 성능 향상을 위해 시뮬레이터의 CPU 부하 최소화 중요
강화학습의 구체적인 적용 방법
- 시뮬레이터에 스케줄링 문제 해결을 위한 강화학습 적용
- 시뮬레이터에 머신 상태, 작업 리스트, 학습 잡 리스트 포함
- 스케줄링 시스템을 결정하고 최종 스케줄을 컨트롤러에 전달
- 사용자별 작업, 시간대, 메모리 사용량 등을 시뮬레이션
강화학습의 성능 평가와 시스템 개선
- 강화학습 모델은 성능 향상을 위해 슬로우 다운 수치 비교
- 메모리 대기 시간 줄이는 것이 중요
- 강화학습 모델의 성능 향상을 위해 페어니스(타임 간격) 고려
- 메모리 대기 시간과 슬로우 다운 수치를 조정해 성능 향상
GPU 대체 솔루션
GPU 대체 솔루션 소개
- 메이커리소스를 별도로 분리하여 사용 가능
- 메이커리소스는 성능이 일정하지 않으나 대규모 모델에 유리
- 10기가 이하 작업은 메이커리소스를 사용하고, 20기가 이하 작업은 메타피에션 메타모델 사용
- 메타피에션 메타모델은 성능이 높고 여러 기능 제공
- 여러 메타피에션 메타모델을 동시에 사용 가능
메타피에션 메타모델의 특징
- 메타피에션 메타모델은 단일 모델로 높은 성능 제공
- 강화학습과 멀티캐스팅 알고리즘 적용 가능
- 성능 향상을 위해 모델 개수를 2개 이상으로 설정 가능
시스템 구성과 운영
- 성능 향상을 위해 메타피에션 메타모델의 개수를 3개 이상으로 설정 가능
- 메타피에션 메타모델은 CPU와 GPU를 대체할 수 있음
- 성능이 높고 다양한 기능 제공
Q&A 세션
질문 1:
질문: SDS에서는 이 기술을 상품으로 제공할 계획이 있나요?
답변: 현재 연구 용도로 사용하고 있으며, 상품화 계획은 없음. 하지만 클라우드 플랫폼 내에서 유사한 기능 제공
질문 2:
질문: 다양한 스케줄러 폴리시들을 어떻게 해결하나요?
답변: 스케줄러에 다양한 폴리시를 적용할 수 있도록 설계. 서로 겹칠 수 없는 폴리시도 있으며, 용도에 따라 클러스터를 구분해 사용
질문 3:
질문: 로드 그룹을 사용자 맞춤형으로 제공하나요?
답변: 필요에 따라 사용자 맞춤형 로드 그룹 제공 가능. 그룹과 오가니제이션 개념을 통해 자원 할당 조절