- Today
- Total
목록분류 전체보기 (276)
hye-log
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/mjf3x/btrNvNAfPnc/MFE1aIKjwstzvMMW6YsUq1/img.png)
0. 문제 링크 https://school.programmers.co.kr/learn/courses/30/lessons/12973 프로그래머스 코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요. programmers.co.kr 1. 문제 설명 1) 같은 문자가 연속으로 나오면 제거 2) 제거 후에도 같은 문자가 연속이면 제거 2. 입출력 # input s = 'baabaa' # output result = 1 3. 코드 def solution(s): answer = 0 stack = [] for i in range(len(s)): # 주어진 문자열의 개수만큼 반복 if len(stack) > 0 and ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bmhSba/btrNwC4qY5A/sNXLBhrBoIArI1H8Xj1vv0/img.png)
0. 문제 링크 https://school.programmers.co.kr/learn/courses/30/lessons/12981 프로그래머스 코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요. programmers.co.kr 1. 문제 설명 1) 1~n명이 돌아가면서 한 단어씩 말함 2) 끝말잇기 규칙에 따라 첫 번째 글자는 이전 단어의 마지막 글자와 같아야 함 3) 이전에 사용된 단어와 중복이 되면 안 됨 2. 입출력 # input n = 3 words = ["tank", "kick", "know", "wheel", "land", "dream", "mother", "robot", "tank"] # o..
🎀 개별학습 [10] PyTorch Troubleshooting 1. OOM(Out Of Memory) 1) batch size를 줄이고 -> GPU를 비우고 -> Run 2) GPU Util 사용하기 - nvidia-smi, Colab 등에서 GPU 상태 확인 - iter마다 메모리가 늘어나는지 확인할 것 3) torch.cuda.empty_cache() - 사용하지 않은 GPU 상 cache를 정리해서 가용 메모리를 확보 4) training loop에 tensor로 축적되는 변수 확인하기 - tensor로 처리된 변수는 GPU 상 메모리 사용 - 해당 변수가 loop 연산에 있으면 computation graph를 생성 5) del 명령어 적절히 사용하기 6) 가능한 batch 사이즈 실험해보기 -..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bj0LFs/btrNihtUR5k/arO7XJtktTgVJr8LwDsBTk/img.png)
🎀 개별학습 [8] Multi-GPU 학습 1. 개념 정리 1) Single(한 개) vs. Multi(두 개 이상) 2) GPU vs. Node(System. 한 대의 컴퓨터) 3) Single Node Single GPU(한 대의 컴퓨터의 한 개의 GPU) 4) Single Node Multi GPU(한 대의 컴퓨터의 여러 개의 GPU) 5) Multi Node Multi GPU(한 대의 컴퓨터의 한 개의 GPU. 서버실) 2. Model parallel 1) 다중 GPU에 학습을 분산하는 두 가지 방법 - 모델을 나누거나, 데이터를 나눔 2) 모델의 병목, 파이프라인의 어려움 등으로 인해 모델 병렬화는 고난이도 과제 3) AlexNet # Model parallel class ModelParalle..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/c0rMvK/btrNcXCRiRa/C5j9COPcjbXVtQt264CSn1/img.png)
🎀 개별학습 [6] 모델 불러오기 1. model.save() 1) 학습의 결과를 저장하기 위한 함수 2) 모델의 형태와 parameter를 저장 # Print model's state_dict # state_dict: 모델의 parameter를 표시 for param_tensor in model.state_dict(): print(param_tensor, "\t", model.state_dict()[param_tensor].size()) # 모델의 parameter를 저장 torch.save(model.state_dict(), os.path.join(MODEL_PATH, "model.pt")) # 같은 모델의 형태에서 parameter만 load new_model = TheModelClass() new..