- Today
- Total
목록분류 전체보기 (276)
hye-log
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cvlEpj/btrOkccOA1X/ZUF3c3dtYELucnZ8YLHoqk/img.png)
🌱 개별학습 [7] Recurrent Neural Networks 1. Sequential Model 1) Naive sequence model : 이전 데이터로 현재 데이터를 예측함 2) Autoregressive model : 과거의 τ개로 현재 데이터를 예측함 3) Markov model : 바로 직전 값만 영향을 받음 4) Latent autoregressive model : hidden state로 과거의 정보를 기억, 요약 2. Recurrent Neural Network 1) Recurrent Neural Network : 모델의 출력이 다시 입력으로 가는 구조 2) 단점 : Long-term dependencies - 네트워크의 크기가 클수록 과거의 정보를 잃어버릴 수 있음 - vanish..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/rDJT4/btrNX7K9jb6/t5wRq49RtKHadSr4VOe641/img.png)
🌱 개별학습 [4] Convolution Neural Networks 1. Convolution 1) signal processing에서 두 함수를 잘 섞어주는 것 2) kernel filter 모양에 따라 결과가 다양해짐 2. Convolutional Neural Networks 1) convolution layer, pooling layer, fully connected layer - convolution layer, pooling layer : 특징 추출 - fully connected layer : 결과 추출 (ex. classification) 2) stride 3) padding 4) parameter 계산 - 11 * 11 * 3 * 48 * 2 = 35k - 5 * 5 * 48 * 128 ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/Va5Dl/btrNUB5vrAf/ICvoKt2tQYZhpSYxYqqPO0/img.png)
🌱 개별학습 [3] Optimization 1. Important Concepts in Optimization 1) Generalization(일반화) - Generalization gap(training error와 test error 사이의 차)를 줄이는 것이 목적 - 학습을 통해 training error가 줄어 0이 되어도 test error가 커질 수 있기 때문에 일반화 성능을 높이는 것이 중요 2) Underfitting vs. Overfitting - Overfitting(과적합)은 training error보다 test error가 커서 training data에 지나치게 fitting 된 상태 - Underfitting과 Overfitting 사이의 balanced 모델을 만드는 것이 중..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cilieT/btrNL9CE9c9/WA9qclk4tdebJAaVLW2ZOK/img.png)
🌱 개별학습 [1] Historical Review 1. Introduction 1) 인공지능(Artificial Intelligence) : 사람의 지능을 모방한 것 2) 머신러닝(Machine Learning) : 데이터를 통해 학습하는 것 3) 딥러닝(Deep Learning) : Neural Network를 활용하여 학습하는 것 - 딥러닝의 주요 요소 : data, model, loss, algorithm 2. Historical Review 1) 2012 AlexNet : CNN을 사용한 모델이며, 딥러닝을 이용한 ImageNet 대회에서 1등을 차지한 모델 2) 2013 DQN : 알파고를 만든 딥마인드에서 Atari Games을 플레이하도록 훈련하는 데 성공한 모델 3) 2014 Encode..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bU8LXY/btrNDU6ieoQ/0tHdD1KwBfbEiE2LAL9SG1/img.png)
0. 문제 링크 https://school.programmers.co.kr/learn/courses/30/lessons/42885 프로그래머스 코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요. programmers.co.kr 1. 문제 설명 1) 주어진 people 리스트에서 limit 만큼의 최대 두 사람 고르기 2) 필요한 구명보트 반환 2. 입출력 # input people = [70, 50, 80, 50] limit = 100 # output return = 3 3. 코드 def solution(people, limit): answer = 0 front = 0 # 리스트의 처음부터 시작 rear..