▲neo 2달전 | parent | favorite | on: GN⁺: AMD GPU Inference(github.com/slashml)Hacker News 의견 PyTorch와 transformers를 사용하면 대부분의 작업을 수행할 수 있으며, llama.cpp 컴파일도 비교적 쉬운 편임 Windows에서는 win-hip 바이너리나 Vulkan 빌드를 사용할 수 있음 ROCm 5.4.2는 오래된 버전이지만, 최근 업데이트된 ROCm 6.2와 RDNA3 호환성을 확인할 수 있음 생성된 머신러닝 라이브러리의 증가가 놀라움 이 라이브러리는 50%가 print 문으로 구성되어 있으며, 불필요한 분기도 포함되어 있음 Ubuntu 24.04에서는 대부분의 AMD GPU에서 llama.cpp를 실행할 수 있음 성능은 최적이 아닐 수 있지만 다양한 카드를 테스트했음 RDNA 3, MI200, MI300 사용자들은 AMD 제공 ROCm 패키지를 사용하는 것이 좋음 Ryzen 8700G와 NPU를 사용 중이며, Vulkan을 통해 iGPU 가속을 얻고 있음 64GB RAM으로 32GB 이상의 모델을 시도하는 데 문제가 없었음 ROCm 5.4.2가 RX 7900 XTX를 지원할지 의문이며, 최신 rocm/pytorch 이미지를 사용하는 것이 더 쉬웠음 NixOS 워크스테이션에 필요한 설정을 추가했음 ROCm 가속을 활성화하고 환경 변수를 설정함 AMD ROCm 설치 시 36GB의 공간이 필요하다는 점이 이해되지 않음 현재 가장 가성비 좋은 AMD GPU에 대한 질문 중고 3090 두 개를 약 $750에 구매했음 AMD와 NVidia 그래픽 카드의 가격 비교에 관심이 있다면, 가격을 빠르게 확인할 수 있는 사이트를 제공함 ROCm 5.4 대신 최신 버전(6.2)을 사용하지 않는 이유에 대한 질문 제공된 Docker 이미지가 성공적으로 빌드되지 않음
Hacker News 의견
PyTorch와 transformers를 사용하면 대부분의 작업을 수행할 수 있으며, llama.cpp 컴파일도 비교적 쉬운 편임
생성된 머신러닝 라이브러리의 증가가 놀라움
Ubuntu 24.04에서는 대부분의 AMD GPU에서 llama.cpp를 실행할 수 있음
Ryzen 8700G와 NPU를 사용 중이며, Vulkan을 통해 iGPU 가속을 얻고 있음
ROCm 5.4.2가 RX 7900 XTX를 지원할지 의문이며, 최신
rocm/pytorch
이미지를 사용하는 것이 더 쉬웠음NixOS 워크스테이션에 필요한 설정을 추가했음
AMD ROCm 설치 시 36GB의 공간이 필요하다는 점이 이해되지 않음
현재 가장 가성비 좋은 AMD GPU에 대한 질문
AMD와 NVidia 그래픽 카드의 가격 비교에 관심이 있다면, 가격을 빠르게 확인할 수 있는 사이트를 제공함
ROCm 5.4 대신 최신 버전(6.2)을 사용하지 않는 이유에 대한 질문