OpenInfra Summit Asia 2024 & OCP APAC Summit 2024 - 1일차


📚 Seminar

alt text

키노트 #1 - Openstack

openinfra 진영의 오픈소스 도구들

  • kata container

    • 기존의 컨테이너가 리눅스 커널을 공유하여 자원을 효율적으로 사용하지만 보안에 문제가 있었음
    • kata container는 각 컨테이너를 가상 머신 내부에서 실행하여 격리된 실행환경을 제공하여 보안을 향상시킴 Kata 와 Docker 비교
  • starlingx

    • 엣지 인프라를 위한 완전한 소프트웨어 스택을 제공
    • 분산된 컴퓨팅, 네트워킹, 스토리지 기능을 통합하여, 엣지 노드에서 안정적이고 고성능의 서비스를 실행할 수 있도록 지원
    • 주요 특징
      • 고가용성: 장애 발생 시 자동 복구, 무중단 운영
      • 실시간 성능: 실시간 데이터 처리와 저지연을 요구하는 엣지 어플리케이션에 적합 ex) 자율 주행 자동차
      • 분산 관리: 댜수의 엣지 노드를 중앙에서 효율적으로 관리
      • 확장성: IoT 센서에서부터 엣지 데이터 센터에 이르기까지 다양한 디바이스 지원 starlingX
  • zuul

    • 오픈 스택 프로젝트를 위한 CI/CD 서비스로 탄생했지만 독립
    • 주요 특징
      • 멀티 프로젝트 관리 : 여러 프로젝트에 걸친 코드를 동시에 테스트하고 의존성을 관리
      • 게이트키핑 기능 : 메인 브랜치에 병합전 자동화된 테스트를 강제화하여 품질을 보장
      • 파이프라인 설계 : 복잡한 CI/CD 시나리오를 워크플로로 정의
      • Deployment 관리 : CI/CD 프로세스 일부로서 자동 배포 및 롤백 지원
      • Scaling & 병렬 처리 : 많은 테스트가 있기 떄문에 이를 효율적으로 병렬 실행 zuul
  • openstack

    • 클라우드 인프라를 손쉽게 구성하기 위한 오픈소스 프로젝트 모음
    • 컴퓨팅, 네트워킹, 스토리지, 그리고 다양한 클라우드 리소스를 통합 관리할 수 있도록 도움
    • 주요 프로젝트
      • Nova : 가상 머신과 기타 컴퓨팅 리소스를 관리
      • Neutron : 가상 네트워크와 IP 주소 관리, 방화벽, 라우터 등 네트워크 자원을 관리
      • Cinder : 블록 스토리지 관리 서비스
      • Swift : 오브젝트 스토리지 관리 서비스
      • Glance : 가상 머신 이미지 관리 서비스
      • Keystone : 인증/권한 관리 서비스
      • Horizon : Openstack을 위한 웹 UI
      • Heat : 클라우드 인프라에 대한 자동화된 배포 관리 도구
      • Ceilometer : Openstack 에 대한 모니터링 서비스 openstack

오픈소스에 대해

  • 오픈소스 소프트웨어(Open Source Software, OSS)는 소스 코드가 공개되어 누구나 사용, 수정, 배포할 수 있는 소프트웨어
  • 오픈소스는 기술 발전과 혁신을 촉진하며, 협력과 커뮤니티 기반의 개발 방식을 통해 빠르게 성장 중
  • 2020년대 초반, 오픈소스 소프트웨어의 경제적 가치는 약 1,200조 원으로 추산
  • 여러 오픈소스 중 OpenStack은 약 120억 달러 규모로 평가되며, 2029년에는 1100조 원 이상의 가치를 가질 것으로 예상
  • 구글, 페이스북, 아마존과 같은 대기업도 오픈소스 프로젝트를 통해 기술 개발에 기여 중
  • 오픈소스 소프트웨어는 소스 코드가 공개되어 있기 때문에, 누구나 코드를 검토하고 보안 취약점을 발견할 수 있음 -> 보안성 강화 기여
  • 여러 정부와 공공 기관들은 비용 절감과 기술 자립을 위해 오픈소스 소프트웨어를 적극적으로 채택 중 유
  • 공공 데이터의 공개와 투명성을 위해 오픈소스를 활용한 사례도 증가하고 있으며, 이는 시민 참여와 신뢰를 증진하는 데 기여
  • 오픈소스 소프트웨어는 코드 재사용을 촉진하고 불필요한 중복 개발을 줄임으로써 자원의 낭비를 방지하는 데 기여 -> 개발 효율성 향상으로 탄소 배출 감소

많은 기업과 정부가 오픈소스를 선택하는 이유

  • 디지털 주권
    • 어디에 저장할까, 누가 접근할까, 법이 어떻게 적용될까
    • 프랑스 9대 은행들이 openstack 기반으로 운영된다.
    • 유럽의 디지털 주권은 RISC-V로 돌아간다
  • 라이센스 변화
    • HashiCorp가 Teraform을 독점하려 해서 리눅스 재단에서 OpenTofu를 만들었다.
    • 라이선스 변화는 신뢰를 부시는 행위다 ex) VMWare 라이선스 변화
    • 그러니 오픈인프라 재단은 이런것을 방지하기 위해 책임감 있게 운영한다.
    • 미국의 자동차 보험 회사 GEICO는 SW 운영 시 Open Stack 기반이다
  • 보안 우려
    • 87%의 컨테이너 이미지가 위험한 취약점을 가지고 있다.
    • 보안성이 강화된 안전한 컨테이너의 구축 -> kata container를 제안한다
    • kata container는 azure 적용했고, aws도 문의하고 있다
  • AI 인프라의 재정의
    • 96%의 기업/기관들이 AI 인프라에 투자하고 있다.
    • 인프라의 고도화는 지금보다 11배의 전력수요가 필요할것이다
    • Openstack은 영국의 AI 컴퓨터 구축에 관여하고 있다
    • NEXGEN의 클라우드도 오픈스택 인프라 기반이다.

키노트 #2 - OCP

  • 데이터의 폭발적인 증가, AI와 머신러닝의 확산, 클라우드 서비스의 확장 등으로 인해 데이터센터의 효율성을 극대화하면서 비용을 최소화하려는 필요성이 커짐.
  • 이를 해결하기 위해 모든 것을 오픈 소스화하자는 취지로 OCP(Open Compute Project)가 탄생함.
  • OCP는 페이스북이 주도하는 오픈소스 하드웨어 프로젝트로, 데이터센터 인프라를 설계하고 구축하는 방식을 개방하고 협력하는 데 초점을 맞추고 있음.
  • OCP 커뮤니티는 서버, 스토리지, 네트워킹, 전력 관리 등 데이터센터의 거의 모든 요소에 대해 개방적인 설계와 표준화를 도모하고 있음.
  • OCP는 현재 360개의 회원을 가지고 있으며, 2023년에는 340억 달러의 수익을 발생시킴. 2028년에는 740억 달러의 수익을 예상하고 있음.
  • OCP 주요 벤더 (현 이사회): AMD, ARM, 삼성전자, Ampere, NVIDIA, Seagate, Supermicro.
  • 삼성전자는 2015년에 OCP 멤버로 합류했으며, 2020년에는 글로벌 OCP 컨퍼런스를 개최하는 데 기여함.
  • OCP에 대한 소개 영상 : https://youtu.be/HgcRirF4-UU OCP OCP-2

키노트 #3 - META

  • Facebook은 2009년에 데이터 센터 구축을 준비했으며, 2024년 현재 목표의 50%를 달성함.
  • 2011년에 OCP에 참여하여 지속적으로 성장하고 있고, AI에 최적화된 인프라 구성을 위해 노력 중임.
  • 또한 친환경 활동(탄소 배출 모니터링, 폐기물 최소화)에도 열심히 하고 있음.
  • OCP를 통해 산업의 표준화를 목표로 하고 있음. OCP - META

키노트 #4 - META

  • 우리는 일생 중 AGI(범용 인공지능)를 경험하게 될 것임. 즉, 우리는 행운아임.
  • 미래의 AI는 지금처럼 반도체 기반이 아닌 탄소 기반으로 갈 것임.
  • 그래서 AI 특이점이 오면 기계는 스스로 향상될 것임. 그리고 어느 시점에서 모든 인류 지식의 총합을 돌파할 것임.
  • 인간을 움직이게 하는 것, 즉 인식, 데이터 채굴, 데이터 합성, 상상 등의 모든 것을 AI가 할 수 있게 될 것임.
  • META는 2024년에 405B 모델을 출시, 이는 AI 시대를 크게 견인할 것임.
  • 초거대 AI에는 GPU 클러스터가 중요하며, 그만큼 관련 기술(데이터 센터)이 중요함.
  • 더 발전된 AI는 이제 소프트웨어만의 영역이 아니라 하드웨어의 영역도 매우 중요해지고 있음.
  • 높은 전력 소요를 어떻게 감당할 것인가에 대한 고민이 필요하며, 에너지 사용의 효율화, 재사용성, 지속 가능성이 중요해지고 있음. alt text

키노트 #5 - 현대 자동차

  • 자동차는 이제 바퀴 달린 스마트폰이다. 이제는 단순 운송의 수단이 아닌 스마트 모빌리티
  • 급격한 SW 서비스의 수요 -> 21년부터 자체 Private Cloud를 개발해왔다. HCloud
  • SDV(Software-Defined Vehicle); 대표적인 서비스로 현재 커넥트카 서비스이다
  • 현대가 SDV 시대를 위해 HCloud에 집중한 것
    • High Availbility
    • Large Scale Network
    • Internalization
    • Automation
    • Monitoring & Measure
  • HCloud는 Openstack 기반이다
  • HCloud ; Network, DNS, k8s(rancher), LB, Monitor, Watcher, BareMetal, Object Storage, DB(개발중), VPC(개발중)
  • HCloud는 Open Stack 기반으로 AA 아키텍처를 통해 고가용성을 확보하였고 (3ms latency 이내), 그리고 multi regional orchestration 을 구축하여 REST API 기반으로 전체를 하나의 클러스터로 관리하고 운영
  • Oepnstack 인프라 구성한 21년 이후 현재까지 장애 발생한적 없다
  • 현재 HCloud는 10PB의 스토리지, 1300개의 노드, 10M의 자동차 지원, 12K의 VM
  • HCloud는 현대의 SW 서비스를 향상시켜 큰 수익을 창출해줄거라 예측한다 H Cloud

키노트 #5 - FADU

  • FADU는 고성능 SSD 솔루션을 제공하는 기업으로, 특히 데이터센터 및 클라우드 인프라에서 요구되는 높은 성능과 효율성을 제공하는 솔루션을 개발하는 회사
  • 기업 소개 위주여서 광고 같았고.. 제 전문 분야가 아니라서 생략 -_-; (사실 회사에서 연락와서 제대로 못들음)

키노트 #6 - OpenInfra, ANT Group

  • OceanBase; 중국에서(알리바바) 만드는 고성능의 분산형 관계형 Database;; k8s에서 최적화된 분산형 데이터베이스
  • OceanBase는 특히 금융 서비스, 전자상거래, 전사적 자원 관리(ERP) 등 데이터 일관성과 신뢰성이 중요한 대규모 시스템에서 널리 사용
  • 알리바바 그룹의 주요 거래 시스템, Ant Financial(알리바바의 금융 자회사), 그리고 다양한 금융 기관들이 OceanBase를 채택
  • 키노트 현장에서 사용 데모를 보여주다보니 발표 내용은 많이 없음 OCEANBase

키노트 #7 - AMD

  • GPU에 대한 Scaling Out/Scaling Up을 고민하다
  • *Ultra Accelerator Link (UALink)**는 AI 및 고성능 컴퓨팅(HPC) 시스템에서 가속기들 간의 고속, 저지연 연결을 제공하기 위해 개발된 새로운 산업 표준
  • 이 표준은 AMD, Intel, Broadcom, Google, Meta, Microsoft 등의 주요 기술 기업들이 주도하여 만들어지고 있으며, NVIDIA의 NVLink와 경쟁할 목적으로 개발 중
  • 이 표준은 특히 데이터센터에서 AI 모델의 학습과 추론을 위한 인프라를 더 효율적으로 구축할 수 있도록 돕고, 기업들이 독점 기술에 의존하지 않고도 고성능 시스템을 구축할 수 있게 해줌
  • 2026년쯤에 본격적인 사용화 기대 UA Link

키노트 #8 - vexxhost

  • VEXXHOST는 캐나다에 본사를 둔 클라우드 인프라 서비스 제공업체로, 오픈스택(OpenStack)을 기반으로 한 퍼블릭, 프라이빗, 하이브리드 클라우드 솔루션을 제공
  • VMWare에서 OpenStack으로 무중단 전환 하는 도구를 소개 하고 시연
  • https://github.com/vexxhost/migratekit
  • 시연의 법칙으로 데모 도중 실패.. 동영상 보라고 함 (키노트에서 시연을 하다니?)

키노트 #9 - MIRANTIS

  • Autononic Computing; 인공지능 제어 지점, 그리고 범용 API를 사용하여 IT를 보다 쉽고 비용 효율적으로 관리하게 해주는 기술
  • MIRANTIS 사에서 제공한 AI 기반의 CLI 도구
  • OPENAPI 토큰을 연계하여, 관리자가 클러스터를 쉽게 배포, 관리, 업데이트할 수 있도록 지원하며, 복잡한 Kubernetes 작업을 단순화하는 데 중점으로 둔 AI 기반의 DevOps 어시스턴트 도구
  • https://github.com/gptscript-ai/clio

Storage JuiceFS Appliances for AI Platforms - NAVER

  • 네이버 AI Suite에서 사용되는 클라우드 파일 시스템

  • 네이버는 AI AI Workload를 위해 Storage로 다음을 고려하였음

    • 대규모 데이터를 다룰 수 있는 스토리지
    • 학습을 위한 고성능 지원
    • k8s의 CSI 를 지원해야 함
    • POSIX 호환이 잘되는 Storage
    • 분산 학습을 위한 RWM/RWO를 동시 접근성 지원 필요
    • 일관성 문제 없어야 함
    • 운영 부담 최소화
    • 다른 Data PLatform과의 연계성
  • NFS는 Scalability / Cache 미지원

  • Ceph는 RWX / Cache 미지원

  • 처음엔 이를 극복하고자 Alluxio HDFS를 사용했으나.. POSIX 호환성 부족, 일관성 불안정, 운영 부담 높았음

  • 그래서 고민 끝에 JuiceFS로 전환. JuiceFS는 다음의 특징을 가짐

    • Metadata Engine : Redis / TiKV / MySQL / MariaDB / Postgres 등
    • Data Storage : S3, MinIO, HDFS, MinIO 지원
    • CLient : 서버 없이 클라이언트만으로 구동할 수 있음
  • JuiceFS Feature

    • POSIX 지원 (로컬 파일 시스템처럼 쓸 수 있다) - 네이버에서 아직까지 문제 못느꼈다
    • HADOOP 호환성 (데이터 플랫폼과 연계 좋음)
    • S3 호환성 (S3 Gateway로써 사용 가능)
    • Cloud Native (CSI 지원 잘되서 k8s 연계 좋음)
    • Distributed (shareable)
    • Storage 일관성
    • 뛰어난 성능 (Client Level Caching)
    • 데이터 보안 (암호화)
    • 데이터 압축 (lz4, zstandard 지원)
  • Naver에서는 어떻게 쓰나

    • Metadata와 Data간의 Decoupling 구조
    • Redis Cluster(nBase-ARC; Metadata), nubes(Object Storage), c3s(HDFS, Data Stroage)
    • JuiceFS는 GET / PUT / DELETE / LIST / HEAD로 단순한 Operation으로 구성됨
    • juicefs objbench로 테스트하면서 자체적인 모듈을 만듦
    • User 마다 JuiceFS CSI 를 통해 자신의 데이터 사용
    • juiceFS에 Contribute 하여 kerberos 인증 기능을 지원하고, k8s에서 잘 쓸 수 있게, 멀티 user 가능하게 함
    • JuiceFS의 성능 측정을 해본 결과 alluxio 만큼은 아니지만 local-path보다는 빠르다.
  • 장점

    • large-scale shared volumes
    • high performance (local path / host path보다 빠르다)
    • AI 학습을 위한 workspace / checkpoint / log 공유에 좋았다
    • 크기가 작은 파일에 대한 효율성이 증가
    • 기존 사내 시스템과 호환성 있게 직접 구현하여 연계를 하여 운영 부담 줄어듦
    • 데이터와 메타데이터 엔진간의 isolate
    • k8s 호환이 좋음
    • 비싼 유료 솔루션 안써서 좋았음
    • 개발자의 Local 스토리지가 CSI로써 사용됨 (Object Storage 이기도 하고..)
  • https://d2.naver.com/helloworld/4555524

  • Juice FS

Cost Optimization stratagies for private clouds with machine learning-based workload prediction - OKESTRO

  • 프라이빗 클라우드의 도전 과제: 프라이빗 클라우드는 운영 비용 절감과 효율적인 자원 관리 등의 이점이 있지만, 실제로는 총소유비용(TCO)이 증가하는 경우가 많음

  • 이는 온프레미스 환경에 비해 프라이빗 클라우드가 더 많은 장점을 제공하지만, 즉각적인 비용 절감이 어려운 이유

  • 프라이빗 클라우드에서 TCO를 최적화하기 위해 리소스 사용을 효율적으로 관리하는 방법을 제안; 서버의 전력 사용량, 서버 구매 가격, 네트워크 대역폭 사용량 등을 관리함으로써 비용 절감을 도모

  • Private Cloud에서 중요한 것은

    • Power Usage (Server); VM Size 조정 / CPU 전압 조정 / 전기 절약 솔루션 적용
    • Purchase Price (Server); 목적에 맞는 적절한 구매, 서버 교체 주기를 체계적으로, 미사용 데이터를 제거/압축/정리하는 자동화 적용
    • Bandwidth Usage (Network); WAN 최적화, 쓰로틀링 적용, 트래픽에 대한 우선순위 적용
  • 리소스 관리 방안:

    • 서버 전력 사용량: 가상 머신 사용률과 부하 사용률에 따라 전력 소모를 줄일 수 있음
    • 서버 구매 가격: 서버 사양과 교체 주기를 최적화하여 불필요한 비용을 절감할 수 있음
    • 네트워크 대역폭 사용: 대역폭 사용량을 관리하여 초과 요금 부과를 방지하고 비용을 절감
  • Workload 대한 사용량을 Forecasing을 할 필요가 있다

  • Workload Trends에 대한 패턴을 파악하여 최적화 플랜을 설계하자; 이를 위한 AI 모델.. ARIMA / Prophet 적용해봄

  • https://doheon.github.io/%EC%84%B1%EB%8A%A5%EB%B9%84%EA%B5%90/time-series/ci-6.compare-post/

  • https://cordingdiary.tistory.com/109

  • 시스템 사용량을 예측하여 필요 없을꺼 같으면 끄고, 필요하면 키거나 구매하는 전략을 잘 적용해보자

Innovating the Korea Meteorological Administration with OpenStack and Kubernetes: Strategic Selection and Successful Implementation of the Community Version - 오픈소스컨설팅, 기상청 - 303

  • Playce KUBE?, 오픈소스컨설팅사에서 제공해주는 K8S 서비스 (On premise)
  • COMIS(종합기상청정보시스템)
  • 기상청은 왜 Openstack을 썻을까?
    • 원래는 Vendor 제품 결과를 썻지만.. 오픈소스 기술로 선회함
      • 이유:
        • 서버는 지속적으로 증가하는데.. 이에 대한 벤더 제품에 대한 비용 증가
        • 재단을 통해 기술 지원 받는데 더 빠르고, 저렴
        • 벤더에 결합된 CI/CD, 벤더에 종속된 PaaS, 벤더 종속 이미지/ 환경의 제약 -> 폐쇄적 기술 의족
        • 확장성의 한계 / 복잡한 유지보수 등..
  • Playce Openstack & Ceph & GSLB 기술을 적용하여 서로 다른 지역의 클러스터들끼리 AA 구조가 될 수 있게 함
  • 자세한 내용은 종합기상정보시스템 구축 백서 참조 할 것
  • 링크

    alt text

The first exploration of “Beyonding Kubernetes” - 306 -

  • 대규모 Python 프로젝트에 대한 성찰

    • Python은 많은 인프라 또는 기반 개발에서 사용됩니다. 대표적인 예로 오픈스택(OpenStack)과 MicroPython이 있습니다. 이러한 프로젝트는 Python이 기본 시스템 개발에도 적합하다는 것을 입증함
    • 성능 문제: Python의 성능은 대규모 프로젝트에서 제한적; 이를 해결하기 위해 “섀넌 플랜”과 같은 Python 속도 향상 계획이 추진되고 있음. 또한, GRPy와 RustPython 같은 새로운 Python 구현체가 Cpython을 대체할 가능성이 논의되고 있음.
    • 하드웨어와 소프트웨어 설계: Python은 RISC-V 기반 하드웨어 및 소프트웨어 코드 설계에서도 사용되고 있으며, 성능 문제는 꾸준히 개선되고 있음
  • 이미징 워크로드와 오케스트레이션 eBPF: eBPF(extended Berkeley Packet Filter)는 지난 10년간 가장 큰 혁신 중 하나로, 보편적인 내부 가상 머신이 되는 것을 목표로 함. 네트워크 및 보안 하위 시스템에서 특히 중요한 역할. 사용자 공간 버전인 uBPF도 있으며, 네트워킹과 블록체인에서 사용 Wasm: 원래 브라우저에서 사용되도록 설계된 이식성 있는 바이트코드로, 웹 어셈블리 시스템 인터페이스(WASI)를 통해 사용 범위가 확장될 수 있음. 현재 Linux 커널로도 이식 가능성이 논의되고 있으며, 보안 분야에서 중요한 역할 오케스트레이션 시스템: eBPF와 Wasm을 위한 다양한 오케스트레이션 시스템이 존재하며, SpinKube와 같은 프로젝트가 최근 주목받고 있음

  • Python 기반 도메인 언어(DSL)

  • Mojo: LLVM의 창시자가 개발한 Python 유사 언어로, ML 기반이며 Python과 Rust의 조합. 이기종 병렬 프로그래밍을 지원하지만, 컴퓨팅 분산에 대한 내장 지원이 부족함.

  • Acton: Python 언어에 Acton 모델을 추가한 언어로, 정적 결합과 명시적 메모리 관리가 없는 것이 특징. 현재 실험적 상태이며, Mojo와는 달리 완전히 오픈 소스는 아님

  • xDSL: 새로운 Python eDSL(도메인 특정 언어)로, Moja에 대한 오픈 소스 대안입니다. Acton과 유사한 액터 모델을 Python에 추가하였으며, 새로운 워크로드를 위한 오케스트레이션 시스템에 적합

  • 새로운 워크로드를 위한 오케스트레이션 시스템 설계

    • Ray 프로젝트: 분산 AI 워크로드를 위한 프레임워크로, 2단계 스케줄링 메커니즘과 클러스터링을 지원. 그러나 이 시스템은 새로운 오케스트레이션 시스템에 완전히 적합하지 않을 수 있음

    • IREE 프로젝트: AI 모델을 통합하는 프레임워크로, 가벼운 가상 머신을 지원하며, 엣지에서 클라우드까지 다양한 시나리오에 적응할 수 있음

    • SuperVM: 경량 가상 머신 구현으로, eBPF와 Wasm의 하위 집합을 기반으로 설계 모듈 방식의 RISC-V 설계와 유사한 플러그인 및 확장 메커니즘을 제공

  • 결론 및 요약

    • 새로운 워크로드에 대한 요구가 증가함에 따라, Azure 및 클라우드 배포를 위한 확장성이 뛰어난 경량 오케스트레이션 시스템이 필요
    • Python과 그 파생 언어는 AI와 하드웨어 소프트웨어 설계의 혁신을 주도할 것
    • Kubernetes를 대체할 수 있는 새로운 오케스트레이션 시스템이 필요하며, 이는 특히 IPv4 및 Wasm과 같은 새로운 워크로드에 적합해야함

Implementing a Kubernetes Engine with Cluster-API and OpenStack / Kubernetes engine implemented with Cluster-api and Openstack - 305 - 카카오 클라우드

  • Cluster API (CAPI)란?

  • 쿠버네티스(Kubernetes) 클러스터의 수명 주기 관리를 자동화하기 위한 오픈소스 프로젝트

  • 이는 쿠버네티스 클러스터의 설치, 업그레이드, 스케일링, 복구 등을 간소화하고 자동화하는 데 초점

  • Cluster API는 선언적 API를 통해 클러스터의 상태를 관리하고, 쿠버네티스의 자체 리소스 정의(Custom Resource Definitions, CRDs)를 활용하여 클러스터를 구성하고 운영

  • https://cluster-api.sigs.k8s.io/introduction Cluster API

  • 주요 특징:

    • 멀티 클라우드 지원: Cluster API는 AWS, Azure, Google Cloud와 같은 주요 퍼블릭 클라우드뿐만 아니라, 온프레미스 환경에서도 클러스터 관리를 지원
    • 확장성: 플러그인 메커니즘을 통해 다양한 인프라 제공자(Infrastructure Providers)를 지원할 수 있으며, 조직의 요구에 맞게 확장 가능
    • 자동화된 수명 주기 관리: 클러스터 생성, 업그레이드, 스케일링, 복구 작업을 자동화하여 운영의 복잡성을 줄이고 신뢰성을 높임
  • Cluster API를 이용하여 Kakao Cloud에서 사용자에게 어떻게 클러스터를 제공해주는지, 그리고 어떻게 적합하게 커스터 마이징 했는지 소개

  • 카카오에서 미래에 개발하고 싶은 Feature..

    • 사용자 정의 ingress controller
    • 자체 CNI
    • 서버리스 컨테이너