Home ​MLOps Now — LLM in Production
Post
Cancel

​MLOps Now — LLM in Production

​발표 내용 및 연사

  • Building AI-native applications with Weaviate

  • LLMOps에서 AGI까지 — 산업별 2024년 최신 사례

  • What if…? 처음부터 다시 LLM 어플리케이션을 개발한다면

  • AI 연구를 위한 GPU Platform 기술 소개

    • 하승훈, 삼성 SDS, 컴퓨팅시스템연구Lab장

Building AI-native applications with Weaviate

  • 발표자:Bob van Luijt, Co-founder & CEO, Weaviate
  • Daglo: https://daglo.ai/share/2wbCV9mtDEfN6XZN

3줄 요약

  • Weaviate는 벡터 데이터베이스와 AI 네이티브 데이터를 활용하여 다양한 애플리케이션을 개발하고, 이를 위한 오픈소스 생태계와 API를 제공합니다
  • 한국어 토크나이저와 같은 기능을 통해 다국어 모델과 데이터베이스 통합을 지원하며, AI 응용 프로그램 개발을 쉽게 할 수 있도록 돕습니다
  • GPU 기반 벡터 검색은 비용이 높아 대부분의 고객은 CPU와 메모리를 혼합하여 비용 효율성을 높이고 다양한 검색 요구를 충족시킵니다

벡터 데이터베이스와 AI 네이티브 데이터의 중요성

  • 벡터 데이터베이스의 인기는 기계 학습 모델의 벡터 인덱스로부터 비롯됨
  • 10년째 벡터 임베딩 작업 중
  • AI 네이티브 데이터를 통해 새로운 어플리케이션 개발 가능

Weaviate 생태계 구축

  • 데이터베이스를 중심으로 한 생태계 구축
  • AI 모델 제공업체와 오픈소스 모델을 활용하여 다양한 모델 운영
  • 다양한 유형의 멀티모달 데이터를 사용하여 벡터 데이터베이스에서 검색 가능
  • 오픈소스 데이터베이스와 API 제공, 개발자들에게 지식과 예제 제공

오픈 소스 데이터베이스 생태계와 툴링

  • 개발자를 돕기 위한 생태계 초점
  • 벡터 데이터베이스와 AI 모델의 조합
  • 생성적 피드백과 데이터 저장

한국어 AI 응용 프로그램 개발 지원

  • 한국어 AI 응용 프로그램 구축 지원
  • 다국어 모델과 데이터베이스의 통합 기능 제공
  • 한국어 모델 및 데이터베이스의 로컬라이제이션 지원

한국어 토크나이저 및 Weaviate 데모

  • 한국어 토크나이저 추가, Weaviate와 함께 사용 가능
  • 한국어 토크나이저를 통해 문장을 단어로 분리하여 검색 가능
  • Weaviate와 함께 한국어 토크나이저 사용하는 방법 데모 제공
  • 커뮤니티와 협력하여 데이터베이스 확장 기능 개발

AI 기반 데이터 저장 및 업로드

  • 대규모 use case를 저장하고 메모리에 보관하는 것은 비용이 많이 듬
  • 데이터는 디스크나 스토리지 버킷에 업로드 가능
  • 데이터셋은 오픈 소스로 제공, 사용자들의 의견을 환영

벡터 데이터 저장 및 쿼리 기능

  • 벡터 데이터 저장 및 쿼리에 대한 기능 설명
  • BBN의 목적과 BM25의 차이점
  • 일반 벡터 점수와 중계 벡터 점수의 차이점

대규모 임베딩 저장 및 혼합 검색 지원

  • 대규모 임베딩 저장 가능
  • 혼합 검색은 다양한 인덱스를 혼합하여 수행
  • 벡터 임베딩 저장의 메모리 비용 문제 해결

Weaviate로 AI 애플리케이션 개발 가능성

  • Weaviate로 AI 애플리케이션 개발 가능
  • S3 버킷을 이용해 비용 절감 및 정리 필요
  • Weaviate와 함께 필요한 기능 제공
  • Weaviate를 통해 AI 애플리케이션을 처음부터 끝까지 개발 가능

AI 활용에 대한 미래 계획과 하드웨어 가속화

  • AI 활용을 위한 머신 러닝 추가 계획
  • VGA를 통한 큰 피처 센터 제공
  • CPU 또는 GPU 중 어떤 칩을 사용할 것인가에 대한 논의

GPU 기반 벡터 검색의 효율성

  • GPU 기반 벡터 검색은 매우 빠르지만 비용이 비쌈
  • CPU와 비교하여 GPU 사용은 더 높은 비용이 듦
  • 고객들은 더 저렴한 처리를 원함

메모리와 디스크 인덱스의 장단점

  • 메모리 인덱스는 가장 빠르지만 비용이 높음
  • 메모리와 디스크를 혼합한 인덱스는 중간 속도와 비용
  • 디스크 인덱스는 느리지만 가장 저렴

Q&A 정리

Q1: 벡터 데이터 저장 및 쿼리에 대한 추가 기능은 어떤 것이 있나요?

A1: 벡터 데이터 저장 및 쿼리에 대한 추가 기능에 대한 기대가 있습니다. 특히 BBN의 목적과 BM25의 차이점에 대해 궁금해하는 분들이 많습니다. 일반 벡터 점수와 중계 벡터 점수의 차이점을 설명했습니다

Q2: 대규모 임베딩 저장 및 혼합 검색에 대한 자세한 설명 부탁드립니다

A2: 임베딩 저장은 대규모로 가능하며, 혼합 검색은 다양한 인덱스를 혼합하여 수행할 수 있습니다. 또한 벡터 임베딩 저장의 메모리 비용 문제를 해결하기 위한 방법도 설명했습니다

Q3: Weaviate를 사용한 AI 애플리케이션 개발에 대해 자세히 설명해 주세요

A3: Weaviate를 사용하면 AI 애플리케이션을 처음부터 끝까지 개발할 수 있습니다. 이는 매우 비용이 많이 들 수 있으므로 S3 버킷을 이용해 비용을 절감하고 정리하는 것이 필요합니다. Weaviate와 함께 필요한 기능들을 제공하며, 이를 통해 AI 애플리케이션을 효율적으로 개발할 수 있습니다

Q4: GPU 기반 벡터 검색의 효율성에 대해 설명해 주세요

A4: GPU 기반 벡터 검색은 매우 빠르지만 비용이 비쌉니다. CPU와 비교했을 때 더 높은 비용이 들어가며, 고객들은 더 저렴한 처리를 원합니다. GPU는 특정한 경우에만 사용되며, 대부분의 경우 CPU와 메모리를 혼합하여 사용하는 것이 더 경제적입니다

Q5: 메모리와 디스크 인덱스의 장단점은 무엇인가요?

A5: 메모리 인덱스는 가장 빠르지만 비용이 높습니다. 메모리와 디스크를 혼합한 인덱스는 중간 속도와 비용을 가지며, 디스크 인덱스는 가장 저렴하지만 가장 느립니다. 각각의 인덱스 방식은 사용자의 필요와 예산에 따라 선택할 수 있습니다

Q6: AI 활용에 대한 미래 계획은 무엇인가요?

A6: AI 활용을 위한 머신 러닝 추가 계획이 있으며, VGA를 통해 큰 피처 센터를 제공할 예정입니다. CPU 또는 GPU 중 어떤 칩을 사용할 것인가에 대한 논의도 진행 중입니다

Q7: 벡터 데이터베이스의 비용 효율성을 높이는 방법은 무엇인가요?

A7: 벡터 데이터베이스의 비용 효율성을 높이기 위해 메모리와 디스크를 혼합하여 사용하는 것이 중요합니다. 메모리 인덱스는 비용이 높기 때문에, 디스크 인덱스를 함께 사용하여 비용을 절감할 수 있습니다. 또한, S3 버킷을 이용해 데이터를 저장하고 관리하는 방법도 비용 효율성을 높이는 데 도움이 됩니다

LLMOps에서 AGI까지 — 산업별 2024년 최신 사례

  • 안재만, Co-founder & CEO, VESSL AI
  • Daglo: https://daglo.ai/share/IlinZMErTUC-Naz0

3줄 요약:

  1. 다양한 AI 모델 개발 및 운영 방법과 실제 비즈니스에의 활용 사례 논의
  2. AI 모델 결합을 통한 의사 결정 프로세스 개발 및 자동 생성 연구
  3. LLM 모델의 개발, 업데이트, 테스트 및 인공지능 시스템 구현 시 고려사항

1. AI 모델 개발 및 운영의 최근 동향

  • 데이터 수집, 챗봇, 시계열 데이터 활용 등 다양한 AI 모델 개발 방법 논의
  • AI 모델 및 LLM 모델 개발과 운영의 필요성 증가 강조

2. AI 모델의 실제 비즈니스 활용

  • 범죄 지능 AGI 개발 사례 및 전문 AI 에이전트와 모델 간의 소통
  • 기존 AI 모델의 적응 및 배치로 비즈니스에 활용

3. AI 모델을 활용한 의사 결정 프로세스 개발

  • AI 모델 결합을 통한 의사 결정 프로세스 개발
  • 내부 데이터와 외부 뉴스를 활용한 챗봇 개발
  • 다양한 사용자를 위한 특화된 모델 개발

4. AI 모델 자동 생성 및 활용 연구

  • 인프라 구축의 필수 조건
  • 의사 결정 프로세스에 연결하고 토론하기 위한 모델 요구사항
  • 수백 개의 AI 모델 자동 생성 및 활용 가능성

5. 클라우드와 GPU를 연결한 AI 모델 학습 및 배포 플랫폼

  • 다양한 클라우드와 GPU 연결로 데이터 활용하여 학습 및 배포
  • 사용자 정의 LL 앱의 개발 및 운영 지원
  • YAML 인터페이스를 통한 학습부터 배포까지 지원하며 다양한 모델 제공

6. AI/LLM 기술의 미래와 문제

  • AI 모델들이 네트워크를 통해 소통하고 정보를 수집하는 기능
  • AI 에이전트의 기능 지원을 위한 AI 모델 개발
  • AI/LLM 문제 해결을 위한 인프라 구축의 중요성

7. LLM 모델 업데이트와 파이프라인 활용

  • 데이터 업데이트 시 LLM 모델 업데이트 방법 논의
  • 파이프라인을 사용하여 벡터 데이터 색인화
  • Acadia 시스템을 활용한 MLS 설명

8. 인공지능 시스템 개발 고려사항

  • GPU 클러스터에서 추론을 수행할 때 큰 비용 발생
  • 인공지능 모델 개발 및 실행으로 인한 비즈니스 영향
  • 인공지능 시스템 구현을 위한 다양한 고려사항

9. LLM 모델 개발 및 테스트

  • LLM 모델 개발 및 성능 조정
  • 모듈화를 통한 유연한 수정 가능
  • 다양한 모델과 워크플로 테스트

Q&A 요약:

질문 1:

  • 질문: AI 도구가 잘 개발되어 있어 장난감 데모는 쉽게 만들 수 있지만, 실제 유용한 수준으로 만드는 것은 어렵다. 이를 해결하기 위한 방법은?
  • 답변: 유용한 수준으로 만들기 위해서는 폭넓은 공간을 선택해야 하며, 벡터 임베딩, 검색, 모델 선택 등 다양한 요소를 고려해야 한다.

질문 2:

  • 질문: AI 시스템 개발 시 주의해야 할 점은?
  • 답변: 레이어의 일부를 구축할 때 주의하지 않으면 처음부터 다시 개발해야 할 수 있으므로 신중하게 접근해야 한다.

질문 3:

  • 질문: LLM 모델을 개발하고 테스트할 때 고려해야 할 사항은?
  • 답변: 공공 LLM으로 먼저 테스트하고, 응답이 만족스럽지 않으면 파인튜닝을 시도하는 것이 좋다. 모듈화를 통해 각 순간에 수정이 가능하도록 시스템을 설계해야 한다.

What if…? 처음부터 다시 LLM 어플리케이션을 개발한다면

  • 허훈, Tech Lead, Liner
  • Daglo: https://daglo.ai/share/Wc3FIgz3alDSTkxz

3줄 요약

  • 모델 선택과 오케스트레이션의 중요성을 강조
  • 인공지능 기반 시스템 개발과 성능 평가 방법
  • 챗봇 프로젝트의 기술적 이해와 비용 효율성 향상 방안

모델 선택과 오케스트레이션

모델 선택의 중요성과 고민

  • 오픈 AI 챗GPT 도입 이후 모델 선택의 중요성이 강조됨
  • 사용자가 선택할 수 있는 모델에 다양한 옵션이 제공되며, 이에 따라 고민의 여지가 생김
  • 모델 선택 시, 컨텍스트, 퍼포먼스, 레이턴시, 포스트 사용 등 고려해야 할 요소가 있음
  • 사용자 경험 향상을 위해 연속성과 비용이 더 중요한 경우, 고려해야 할 모델 선택에 대해 설명
  • 성능이 좋은 모델만 쓰는 것보다, 연속성과 비용이 더 중요한 경우, 어떤 모델을 사용할지 고민해야 함

모델 선택의 고려 사항

  • 모델 선택 시, 컨텍스트, 퍼포먼스, 레이턴시 등 고려해야 할 요소들을 설명
  • 사용자의 요구와 선호에 따라 모델 선택이 달라짐
  • 사용자의 요구 중 지나친 긴 요청에 대응할 수 있는지, 주력 모델이 되는지 고려해야 함
  • 연속성과 비용이 더 중요한 경우, 사용자에게 모델 선택권을 주는 방안을 고려
  • 성능이 좋은 모델을 쓰는 것보다, 연속성과 비용이 더 중요한 경우, 어떤 모델을 사용할지 고민해야 함

오케스트레이션 로직의 구현

  • 모델 선택 시, 주력 모델과 베이스 모델의 선정과 사용에 대해 설명
  • 연속성과 비용이 더 중요한 경우, 연속성과 비용이 좋은 모델을 선택하는 방안을 설명
  • 사용자의 요청에 대응하기 위해, 라이델러를 사용하는 경우, 모델 선택을 대신해주는 방안을 설명
  • 라이델러의 활용을 통해 모델 선택의 고민을 덜어주고, 모델의 연속성과 비용에 대한 고려를 도움
  • 라이델러의 컴플레이션 원, 모델의 엔트로픽 모델 등 다양한 프로바이더의 모델 사용을 설명

인공지능 기반 시스템 개발과 성능 평가

인공지능 기반 시스템 개발과 선택적 대안 고려

  • 인공지능 기반 시스템 개발에 있어 VLM과 같은 대안들 존재
  • VLM은 인터페이스 통합성을 가지고 있지만, 아직 완벽한 대안은 아님
  • 대체적으로 물 쓰는 시스템보다 라인 LLM을 선호하나, 이는 상황에 따라 달라짐
  • 라인 LLM 개발 시 어플리케이션 레이어에서 프레임워크를 어떻게 녹여낼지 고민 필요

시스템 성능과 고민 사항

  • 시스템 성능에 대해 강점과 약점 고려 필요
  • 고랭을 활용한 시스템 개발에 대해 많은 고민 진행
  • 라이델 레이어와 고랭의 이점과 한계를 분석하여 활용 방안 검토 필요
  • 시스템 성능에 따라 비즈니스 의사결정의 유리함이 결정되므로, 시스템 성능을 고려한 개발 전략 필요

시스템 개발 전략과 평가

  • 시스템 개발 시, 소프트웨어 비즈니스 모델 고려 필요
  • 비용과 성능, 라우터 개념 도입 등 고려사항 고려
  • 시스템 개발 전략을 결정하기 위해 에이전트 시스템의 성능 분석 필요
  • 시스템 개발 시 비용-성능 비율, 성능-비용 관계 등을 고려해야 함

챗봇 프로젝트

챗봇 기술 이해

  • 챗봇 프로젝트에서 사용하는 여러 모델에 대해 이해해야 함
  • 챗봇의 기술과 비용 구조, 사용량 등 미시적, 전체적 관점에서 점검해야 함
  • 전체 시스템에서 비용 지불 구조와 사용량 관리 등 챗봇 프로젝트의 비즈니스 모델을 정의해야 함
  • LLM(챗봇 학습 모델)을 활용한 기술로 챗봇의 기술적 비용 측면을 이해할 수 있음
  • 챗봇의 비용 구조와 사용량 관리 등 챗봇 프로젝트의 비즈니스 모델을 정의하는 것이 중요함

비용 효율성 향상

  • 챗봇 프로젝트에서 사용하는 기술의 비용 효율성을 향상시키는 것이 중요함
  • 기술의 비용 효율성을 고려하여 근대화를 해야 함
  • LLM(챗봇 학습 모델)을 사용하는 비용 구조와 사용량 관리 등 챗봇 프로젝트의 비즈니스 모델을 설명해야 함
  • 챗봇 프로젝트의 비용 구조와 사용량 관리 등 챗봇 프로젝트의 비즈니스 모델을 이해해야 함
  • 파이팅(양방향 통신)을 제공하는 기업들과 협업하여 비용 효율성을 높일 수 있음

효율적인 파이팅 제공

  • 파이팅 제공을 위한 오픈 소스 AI 서비스를 제공하는 기업들이 있음
  • 오픈 소스 AI 서비스를 활용하여 파이팅을 대신 해주는 서비스들이 있음
  • GPU(경사하강 모델) 임대 서비스를 제공하는 등 파이팅 제공에 필요한 기술들을 지원함
  • 파이팅 제공을 위한 기업들과 협업하여 비용 효율성을 높일 수 있음
  • GPU 클러스터를 확보하고, 엔지니어 트레이닝과 임플루언스를 제공할 수 있는 인력이 필요함

파이팅과 서빙

파인튜닝과 문제 정의

  • 파인튜닝과 서빙의 어려움으로 파인업스와 프라임 채닝을 선택함
  • 파인튜닝을 위한 5단계 과정으로 GPL 기반의 자체 파인튜닝 인프라 구축이 2.23단계에 위치함
  • 파인튜닝 전 필수 모델 평가를 위한 모델 비교 및 판단이 중요함
  • 필모델과 미니 모델의 성능 차이로 인해 파인튜닝의 필요성을 인지해야 함
  • 모델 평가 시 필모델과 미니 모델의 성능 차이를 비교하고 판단하는 것이 중요함

모델 평가 요소

  • 파인튜닝을 위한 첫 번째 요소는 캐시, 즉 파인튜닝을 통해 포스트 옵티메이션을 이룰 수 있는지 점검하는 것임
  • 두 번째 요소는 도전적이고 기술적인 파인튜닝을 위한 모델 평가임
  • 파이옥스와 그룹은 펑션 컬링 전용 모델을 제공함
  • 파인튜닝을 통해 특정 컴포넌트의 성능을 개선할 수 있음
  • 레버리지 가능한 우리만의 지적자산권이 있음

문제 해결을 위한 접근법

  • 모델 평가 시 메트릭의 필요성이 중요함
  • LMS 젖지의 유명함으로 인해 메트릭의 설정과 평가가 어려움
  • 모델 평가 시 모델의 성능을 측정하는 과정이 중요함
  • 모델 평가를 위한 테스트셋 확보가 필요함
  • 모델 평가 시 제약 조건과 선호되는 행동 등을 고려해야 함

AI 연구를 위한 GPU Platform 기술 소개

  • 하승훈, 삼성 SDS, 컴퓨팅시스템연구Lab장
  • Daglo: https://daglo.ai/share/q1rQnpUGNaA-xNTU

3줄 요약

  • AI GPU 플랫폼은 GPU 운영 및 사용률 향상을 위해 개발되었으며, AI 사이언티스트들이 도커라이즈(Dockerize)와 자동 빌드 시스템을 사용하여 효율성을 높였습니다.
  • 클러스터는 효율적으로 구성되고, AI 최적화 스케줄러를 통해 자원 배분과 다중 작업이 가능하며, 강화학습 기법을 활용해 시스템 효율성을 증대시켰습니다.
  • 메타피에션 메타모델을 사용하여 성능을 높이고, 필요에 따라 사용자 맞춤형 로드 그룹을 제공하는 등 다양한 솔루션을 제공합니다.

AI GPU 플랫폼

AI GPU 플랫폼 개발 과정

  • 2018년부터 GPU 운영 및 사용률 향상을 위한 연구 진행
  • AI 사이언티스트들이 서버 20대를 사용하여 효율을 20%로 끌어올림
  • AI 사이언티스트들이 편리하게 사용하도록 도커라이즈(Dockerize) 지원
  • 2021년, AI 사이언티스트들이 컨테이너 명령어에 적응하도록 지원
  • 자동으로 빌드하는 시스템을 구축

클러스터 구성 및 문제점 해결

  • 2021년, 클러스터를 2개로 나누어 효율적으로 구성
  • 네트워크 고도 이더넷을 사용해 저비용 구성
  • 고성능 지표로 구성된 인터랙티브 클러스터를 구축
  • 인피니밴드로 4채널 플랜 채널 구성
  • 조직에서 큰 모델을 돌릴 수 있도록 AI 사이언티스트들이 만족감을 가짐

GPU 플랫폼 구축과 보완점

  • 삼성 SDS의 리액터 센터를 위한 친환경 이슈로 GPU 서버를 제한적으로 운영
  • 추가 GPU 서버 설치
  • Kubernetes 설치와 CNI 설치 필요
  • 스토리지 오케스트레이션을 위해 SSD나 NAS 사용 권장

AI 옵티마이즈드 스케줄러

GPU 자원 아낀 스케줄링

  • GPU 사용량이 많을 때 네트워크 성능 극대화
  • 서버 내 GPU 사용 불가능 시 외부 네트워크로 다른 GPU 연결
  • 다중 작업 시 효율적 자원 배분을 위해 다중 스케줄링 필요
  • 다중 스케줄링으로 3~4개 이상의 서버에서 많은 학습 작업 구동 가능
  • 자원 효율 개선 위해 휴리스틱과 강화 학습 기반 스케줄러 개발

휴리스틱 스케줄러

  • 분산 학습 노드의 순서 유지
  • 사용자 작업량에 따라 GPU 분산 필요, 전체 작업량 유지
  • P4 알고리즘 적용해 컴퓨팅 부담 줄임
  • 백필 알고리즘 적용해 작업이 원래 시간에 맞춰 실행되도록 함

다중 스케줄링의 효과

  • 대기 시간 줄이고 복잡한 모델 처리 가능
  • 복잡해진 모델에 대한 다중 스케줄링 필요
  • 분산 학습 안 되는 노드는 불필요해졌지만, 여전히 알고는 있어야 함
  • 새로운 모델 다양성 고려해 연구와 학습 필요

강화학습 기법을 활용한 복잡한 시스템 효율성 증대

강화학습 기법의 도입과 GPU의 한계

  • 강화학습 기법은 에이전트가 현재 상태를 보고, 액션에 따른 리워드를 받으며 학습
  • 게임이나 길찾기 같은 어려운 알고리즘 해결에 사용
  • GPU 수가 한정적이므로 효율적인 사용 요구됨
  • 강화학습 성능 향상을 위해 시뮬레이터의 CPU 부하 최소화 중요

강화학습의 구체적인 적용 방법

  • 시뮬레이터에 스케줄링 문제 해결을 위한 강화학습 적용
  • 시뮬레이터에 머신 상태, 작업 리스트, 학습 잡 리스트 포함
  • 스케줄링 시스템을 결정하고 최종 스케줄을 컨트롤러에 전달
  • 사용자별 작업, 시간대, 메모리 사용량 등을 시뮬레이션

강화학습의 성능 평가와 시스템 개선

  • 강화학습 모델은 성능 향상을 위해 슬로우 다운 수치 비교
  • 메모리 대기 시간 줄이는 것이 중요
  • 강화학습 모델의 성능 향상을 위해 페어니스(타임 간격) 고려
  • 메모리 대기 시간과 슬로우 다운 수치를 조정해 성능 향상

GPU 대체 솔루션

GPU 대체 솔루션 소개

  • 메이커리소스를 별도로 분리하여 사용 가능
  • 메이커리소스는 성능이 일정하지 않으나 대규모 모델에 유리
  • 10기가 이하 작업은 메이커리소스를 사용하고, 20기가 이하 작업은 메타피에션 메타모델 사용
  • 메타피에션 메타모델은 성능이 높고 여러 기능 제공
  • 여러 메타피에션 메타모델을 동시에 사용 가능

메타피에션 메타모델의 특징

  • 메타피에션 메타모델은 단일 모델로 높은 성능 제공
  • 강화학습과 멀티캐스팅 알고리즘 적용 가능
  • 성능 향상을 위해 모델 개수를 2개 이상으로 설정 가능

시스템 구성과 운영

  • 성능 향상을 위해 메타피에션 메타모델의 개수를 3개 이상으로 설정 가능
  • 메타피에션 메타모델은 CPU와 GPU를 대체할 수 있음
  • 성능이 높고 다양한 기능 제공

Q&A 세션

질문 1:

질문: SDS에서는 이 기술을 상품으로 제공할 계획이 있나요?
답변: 현재 연구 용도로 사용하고 있으며, 상품화 계획은 없음. 하지만 클라우드 플랫폼 내에서 유사한 기능 제공

질문 2:

질문: 다양한 스케줄러 폴리시들을 어떻게 해결하나요?
답변: 스케줄러에 다양한 폴리시를 적용할 수 있도록 설계. 서로 겹칠 수 없는 폴리시도 있으며, 용도에 따라 클러스터를 구분해 사용

질문 3:

질문: 로드 그룹을 사용자 맞춤형으로 제공하나요?
답변: 필요에 따라 사용자 맞춤형 로드 그룹 제공 가능. 그룹과 오가니제이션 개념을 통해 자원 할당 조절

This post is licensed under CC BY 4.0 by the author.

중국어 4회

3-1첫학기 프라임칼리지 수업 정리