연구실에 gpu 서버가 들어오게 되면서, 서버의 gpu를 겹치거나 사용하지 못하는 일이 없도록 사용자별로 gpu의 사용 유무를 확인한 후 gpu를 지정하여 머신러닝을 학습시켜야 한다.
이를 위한 gpu 사용 유무 확인 방법 및 gpu를 지정하는 방법을 공유한다.
1. gpu 사용 유무 확인
nvidia-smi
위 명령어를 이용하여 아래와 같이 현재 사용중인 gpu와 사용하지 않는 gpu를 확인할 수 있다. (현재는 gpu가 한 개인 환경에서 테스트 하므로 gpu가 한 개 밖에 없다.)
2. gpu 지정
사용하지 않는 gpu를 확인하면 해당 gpu를 지정하여 학습해야한다.
tensorflow를 이용할 때
아래 코드를 이용하여 gpu들을 출력한다.
from tensorflow.python.client import device_lib
print(device_lib.list_local_devices())
import os
os.environ["CUDA_VISIBLE_DEVICES"]="{gpu_num}";
# ex) 1번 gpu를 사용하고자 할 때
os.environ["CUDA_VISIBLE_DEVICES"]="1";
위의 방법을 이용하여 gpu를 지정하여 사용하여 주길 바란다.
'Tensorflow' 카테고리의 다른 글
Jeson Nano 에서의 Illegal instruction(core dumped) error (0) | 2022.02.23 |
---|---|
머신러닝 학습시 GPU 메모리 제한 (0) | 2022.02.19 |
머신러닝 모델의 분기점 생성 및 병합 (0) | 2022.02.19 |