Red Hat OpenShift에서 DPU의 클라우드 네이티브 활성화

Red Hat Blog를 보다가 관심 가는 글이 보여서 AI번역+약간 교정해 보았습니다.
출처: https://www.redhat.com/en/blog/cloud-native-enablement-dpus-red-hat-openshift

소개

최신 데이터센터는 워크로드 성능, 보안 및 효율성을 최적화하기 위해 빠르게 발전하고 있습니다. 이러한 변화를 가능하게 하는 핵심 혁신은 데이터 처리 장치(DPU)입니다. DPU는 호스트 CPU에서 네트워킹, 보안 및 스토리지 작업을 오프로드하여 전반적인 시스템 효율성을 개선하고, 워크로드 격리를 강화하며, 보안 기능을 강화하는 특수 하드웨어 가속기입니다.

Red Hat OpenShift를 사용하면 DPU를 기존 인프라에 통합할 수 있습니다. 가장 큰 장점은 클라우드 네이티브 확장 기능입니다. 현재 OpenShift 또는 Kubernetes에서 실행되는 모든 워크로드를 DPU로 원활하게 확장할 수 있으므로 기업은 애플리케이션 수정 없이도 성능을 최적화할 수 있습니다. 일부 워크로드 컨테이너는 호스트 시스템에서 DPU로 이동할 수 있습니다.

일반 OpenShift 노드와 DPU가 있는 OpenShift 노드 비교

OpenShift에서 DPU 배포 및 관리

OpenShift DPU 운영자는 OpenShift의 내장 관리 기능을 공급업체에 구애받지 않는 방식으로 DPU까지 확장하여 배포 및 구성을 최대한 간소화하는 동시에 소프트웨어 엔지니어의 유지 관리 부담을 줄여줍니다. 사용자 친화적인 custom resources(CR)를 통해 관리자는 특정 공급업체 하드웨어에 대한 전문 지식 없이도 DPU를 관리할 수 있습니다.

운영자는 OPI(Open Programmable Infrastructure) 프로젝트에 맞춰 공급업체에 구애받지 않는 API를 통해 DPU 검색, 워크로드 스케줄링 및 수명 주기 관리를 자동화합니다. 주요 설계 목표는 호스트 시스템과 네트워크 간의 데이터 흐름을 최적화하여 병목 현상을 크게 줄이고 네트워크 기반 워크로드를 가속화하는 것입니다.

DPU 운영자는 표준화된 API를 사용하여 클러스터가 여러 공급업체의 DPU를 통합할 수 있도록 지원하여 조직이 고유한 이점을 활용할 수 있도록 합니다. 관리자는 Prometheus 및 Grafana와 같은 OpenShift 네이티브 도구를 사용하여 노드 선호도 규칙을 정의하고, 워크로드를 오프로드하고, 성능을 모니터링하여 기존 인프라와의 조화로운 통합을 보장할 수 있습니다.

지원되는 DPU는 트리 내 오픈소스 구성 요소를 기반으로 하며 Red Hat 제품 스택의 모든 계층에 통합되어 복잡성과 마찰을 유발하는 맞춤형 구성 요소를 필요로 하지 않습니다. 이를 통해 원활한 통합, 장기적인 유지 관리 및 강력한 엔터프라이즈 지원이 보장됩니다.

Red Hat  OpenShift DPU operator는 현재 OpenShift 카탈로그에서 사용할 수 있으며, 소스 코드는 GitHub에서 찾을 수 있습니다.

OpenShift의 DPU 장점

DPU를 OpenShift 환경에 통합하면 운영 효율성이 한 단계 더 높아집니다. 이러한 이점은 인프라 전반에 걸쳐 파급되어 더욱 견고하고 응답성이 뛰어나며 보안에 중점을 둔 플랫폼을 구축합니다.

가장 중요한 이점 중 하나는 네트워크 가속입니다. DPU는 특수 하드웨어를 통해 네트워크 트래픽 처리의 부담을 덜어줍니다. 이러한 직접적인 하드웨어 가속은 네트워크 처리량을 획기적으로 향상시켜 더 많은 데이터 흐름을 가능하게 하고 지연 시간을 크게 줄입니다. 데이터 집약적인 애플리케이션, 실시간 통신 또는 마이크로초 단위의 처리가 중요한 금융 거래 플랫폼에서 DPU는 필요한 속도와 효율성을 제공합니다.

보안 측면에서 DPU는 향상된 보안 격리 기능을 제공합니다. DPU는 보안 기능을 위한 별도의 하드웨어 격리 도메인을 생성하여 호스트 시스템의 공격 표면을 최소화합니다. 방화벽 및 암호화와 같은 중요한 보안 작업은 DPU에서 직접 실행할 수 있습니다. 즉, 호스트가 손상되더라도 이러한 보안 메커니즘은 독립적으로 계속 작동하여 복원력 있는 방어 계층을 제공합니다. 또한, 이러한 시행 메커니즘은 워크로드에 투명하게 작동하므로 강화된 보안 태세의 이점을 얻기 위해 애플리케이션을 다시 작성할 필요가 없습니다.

이러한 오프로드 전략은 자연스럽게 호스트 CPU 최적화로 이어집니다. 네트워킹 및 보안과 같은 인프라 작업을 DPU가 관리하면 호스트 CPU는 이러한 컴퓨팅 집약적인 프로세스에서 해방됩니다. 이렇게 절약된 CPU 사이클은 핵심 비즈니스 애플리케이션 실행에 전념할 수 있게 되어 성능 향상과 기존 하드웨어에서 더 많은 워크로드를 처리할 수 있는 능력을 확보하고, 궁극적으로 인프라 비용 절감으로 이어질 수 있습니다.

마지막으로, DPU는 상당한 스토리지 성능 향상을 제공합니다. 데이터베이스나 빅데이터 분석처럼 빠른 스토리지 액세스에 크게 의존하는 워크로드의 경우, DPU는 스토리지 I/O 작업을 관리할 수 있습니다. 이는 스토리지 사용량이 많은 워크로드의 속도를 높일 뿐만 아니라 호스트 CPU의 부담을 더욱 덜어줍니다. 여기서 핵심 기능은 DPU가 NVMe(Non-Volatile Memory Express) 장치를 호스트에 동적으로 노출하여 고속 스토리지 리소스를 유연하고 효율적으로 할당할 수 있다는 것입니다.

OpenShift의 DPU 사용 사례

DPU의 독보적인 기능은 Red Hat OpenShift의 오케스트레이션 기능과 결합되어 다양하고 매력적인 사용 사례를 구현할 수 있으며, 이를 통해 기업은 핵심 서비스의 설계 및 배포 방식을 혁신할 수 있습니다. 이러한 사용 사례는 앞서 언급한 장점의 실질적인 적용 사례를 보여줍니다.

네트워크 가속의 이점을 바탕으로 DPU는 전용 네트워크 제어 지점으로 전환되어 진정한 고성능 네트워킹을 구현합니다. 가상 스위칭, 라우팅, 방화벽, 로드 밸런서를 포함한 전체 소프트웨어 정의 네트워킹(SDN) 스택을 오프로드함으로써 OpenShift 환경은 정교한 트래픽 관리 정책과 세분화된 네트워크 분할을 구현하여 보안을 강화할 수 있습니다. 또한, 애플리케이션 워크로드의 리소스를 낭비하지 않고 서버 에지에서 직접 고충실도 원격 측정을 가능하게 하여 매우 민첩하고 프로그래밍 가능한 네트워크 패브릭을 구축할 수 있습니다.

빠르게 성장하는 인공지능 및 머신러닝(AI/ML) 분야 또한 상당한 이점을 누릴 수 있습니다. 특히 AI 추론과 같은 작업에서 AI/ML을 DPU로 오프로드하면 처리 시간을 획기적으로 단축할 수 있습니다. AI 모델의 복잡성이 증가함에 따라 추론(훈련된 모델을 사용하여 예측을 수행하는 것)에 대한 연산 요구가 증가합니다. DPU는 이러한 추론 워크로드를 효율적으로 처리하여 귀중한 호스트 CPU 및 GPU 리소스를 모델 학습이나 기타 애플리케이션 로직을 포함한 다른 작업에 사용할 수 있도록 합니다. 이를 통해 기업은 AI 기반 서비스를 더욱 광범위하고 비용 효율적으로 배포할 수 있습니다.

DPU는 고유한 보안 격리 기능을 활용하여 고급 보안 강화를 위한 강력한 플랫폼을 제공합니다. DPU의 격리된 실행 환경은 신뢰의 근원(Root of Trust) 역할을 할 수 있습니다. 이를 통해 침입 탐지 및 방지 시스템(IDS/IPS)을 위한 인라인 심층 패킷 검사와 같은 정교한 조치를 구축하거나 데이터 경로에서 직접 마이크로세그먼테이션과 같은 복잡한 데이터 중심 보안 정책을 적용할 수 있습니다. 따라서 보안은 호스트 기반 병목 현상이 아닌 필수적인 고성능 구성 요소가 되며, 호스트 시스템이 위협을 받는 상황에서도 정책을 투명하게 적용하여 효과적으로 작동할 수 있습니다.

마지막으로, DPU의 스토리지 성능 향상은 특히 까다로운 애플리케이션의 스토리지 액세스에 혁신을 가져옵니다. 분산 데이터베이스 또는 AI/ML 학습 파이프라인과 관련된 시나리오에서 DPU는 스토리지 가속에 탁월합니다. 스토리지 프로토콜을 처리하고 데이터 축소 또는 암호화와 같은 작업을 유선 속도로 오프로드함으로써 DPU는 분산된 스토리지 풀에 대한 직접적이고 지연 시간이 짧은 액세스를 지원합니다. 이는 I/O 작업 속도를 높일 뿐만 아니라 OpenShift 내에서 더욱 유연하고 확장 가능한 스토리지 아키텍처를 구축하여 스토리지 리소스를 컴퓨팅 노드와 독립적으로 동적으로 프로비저닝하고 관리할 수 있도록 하여 데이터 처리 속도를 높이고 애플리케이션 응답성을 향상시킵니다.

결론

Red Hat OpenShift의 DPU는 간소화된 워크로드 확장, 향상된 성능, 그리고 더욱 강력한 보안 기능을 제공하여 클라우드 네이티브 인프라를 재정의합니다. DPU를 컴퓨팅 노드로 처리함으로써 Red Hat OpenShift 사용자는 운영의 단순성을 유지하면서 호스트에서 DPU로 작업을 이동할 수 있습니다. DPU가 더욱 널리 보급됨에 따라 Red Hat OpenShift는 더 많은 DPU를 지원하고 더욱 강력한 가속 기능을 제공함으로써 지속적으로 발전해 나갈 것입니다.

이제 조직이 DPU를 탐색하고 클라우드 기반 배포를 강화해야 할 때입니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

You May Also Like