본문 바로가기 메뉴 바로가기

꿈을 항해하는 개발자의 낭만 공작소

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

꿈을 항해하는 개발자의 낭만 공작소

검색하기 폼
  • 분류 전체보기 (49)
    • Digital design (VLSI) (8)
    • Verilog & SystemVerilog (6)
    • Digital Signal Processing (1)
    • Image Sensor World (0)
    • 머신러닝 & 딥러닝 (6)
    • Algorithm (4)
    • Convergence factory (2)
    • Math (2)
    • 책, the another world (3)
    • Tech. review (2)
    • Self - innovation (3)
    • Self - project (2)
    • 끄적임의 공간 (10)
      • 단상(斷想) (10)
  • 방명록

multi gpu (1)
[PyTorch] Distributed DataParallel로 Multi GPU 연산하기

들어가며 느려 느려도 너무 느렸다. 서버에 GPU가 8개씩 달려있으면 뭐 하니, 제대로 쓰질 못하는데. 4K 이미지를 몇 천장을 128x128 사이즈로 잘라서 데이터셋을 만들고, 조금 무거운 모델에 올려서 돌리다 보니 속도가 너무 느렸다. 1 epoch를 도는데, 2시간 가까이 걸리는데 어느 세월에 학습을 다 끝내냔 말이다. 이제는 제대로 Multi GPU를 사용해야 할 때인가 싶어, 폭풍 구글링을 통해 nn.DataParallel을 검색하여 후딱 코드에 박아 넣었다. 좀 빨라지려나 생각했으나 결과는 Fail. 이유가 뭘까? 일단 무지성으로 PyTorch 한국 공식 페이지에 들어가서 Multi GPU 관련 튜토리얼을 쭉 돌려봤다. 인터넷에 돌아다니는 아티클과 테크 리포트 등을 훑어보니, nn.DataPa..

머신러닝 & 딥러닝 2023. 1. 18. 11:37
이전 1 다음
이전 다음
공지사항
  • 첫 발을 딛다.

Blog is powered by Tistory / Designed by Tistory

티스토리툴바