Hacker News 의견
  • CERN의 1TB/s 도달 소식과 Ceph의 역사
    • 한 사용자는 CERN에서 EOS 클러스터를 통해 1TB/s의 속도를 달성했다고 언급하며, 이 클러스터는 주로 HDD를 사용하고 더 많은 노드를 가지고 있다고 설명함. 또한, Ceph가 Dreamhost에서 내부적인 필요에 의해 창안되었고, 이후 Redhat에 의해 인수되었다는 흥미로운 역사를 공유함.
  • 과거 기술 리더의 경험과 Ceph에 대한 호감
    • 한 사용자는 Cisco에서 기술 리더로 일하며 Kubernetes를 베어 메탈에 설정하고 GlusterFS와 Ceph를 실험한 경험을 회상하며, 이러한 실험을 즐겼다고 언급함. 또한, 해당 글을 잘 쓴 것에 대해 칭찬함.
  • 노드 크기 축소에 대한 제안
    • 한 사용자는 현재 시스템의 노드당 에너지 소비가 높다고 지적하며, 노드 크기를 줄이는 엔지니어링 노력이 필요하다고 제안함. 이를 통해 더 적은 노드로도 충분하고, 단일 장애가 10개의 디스크에 영향을 미치는 것을 줄일 수 있다고 주장함.
  • 디지털 데이터 저장량의 역사적 관점
    • 한 사용자는 지난 60년 이내에 전 세계적으로 처음으로 1TiB의 디지털 데이터가 저장된 날이 있었을 것이라고 언급하며, 현재는 매초 그런 양의 데이터를 이동시키고 있다고 놀라움을 표현함.
  • Ceph 클러스터를 통한 Docker 캐시 성능 향상 경험
    • 한 사용자는 Docker 레이어 캐시를 유지하기 위해 Ceph 스토리지 클러스터를 운영하고 있으며, EBS에서 Ceph로 전환한 후 처리량이 크게 향상되었다고 경험을 공유함. 이 사용자는 Ceph가 거의 유지 관리가 필요 없다고 언급함.
  • Kubernetes 내 스토리지 컨트롤러 소프트웨어 문제
    • 한 사용자는 Kubernetes 내에서 동적 스토리지와 관련된 가장 큰 문제가 I/O와 관련된 것이 아니라, 스토리지 컨트롤러 소프트웨어가 실제 문제에 직면했을 때 발생한다고 언급함. 특히, rook/ceph와 Longhorn을 사용할 때 PVC가 오랜 시간이 지난 후에야 연결되는 문제를 경험함.
  • 하드웨어 이론적 한계 대비 1 TiB/s 성능 분석
    • 한 사용자는 1 TiB/s의 성능이 하드웨어의 이론적 한계와 어떻게 비교되는지 분석하고, 네트워크가 병목 현상을 일으키고 있음을 지적함. 또한, Ceph의 복잡성이 CPU에 상당한 부담을 주고 있으며, OSD 스레딩 모델이 최적화되지 않았다고 결론짓고 개선을 희망함.
  • Ceph와 다른 오브젝트 스토리지 엔진 비교 요청
    • 한 사용자는 Ceph와 MinIO, Garage 등 다른 오브젝트 스토리지 엔진과의 비교 및 벤치마크를 보고 싶다고 요청함.
  • Ceph의 트랜잭션 데이터베이스 스토리지 적합성과 IO 지연 시간 문의
    • 한 사용자는 Ceph가 트랜잭션 데이터베이스 스토리지로 적합한지, IO 지연 시간은 어떤지에 대해 질문하며, Oracle의 클러스터 파일 시스템이나 Veritas와 같은 시스템과 경쟁할 수 있는 저렴한 파일 시스템으로 이동하고 싶다는 의견을 나타냄.