반응형

Deep Learning 18

강화학습 (Reinforcement Learning)

강화학습이란 -> 어떤 환경안에서 정의된 에이전트가 현재의 상태를 인식하여, 선택가능한 행동들 중 보상을 최대화하는 행동 혹은 행동 순서를 선택하는 방법 supervised learning -> 답을 알려주고 모델 학습을 시키고 이후에 인퍼런스를 하는구조 unsupervised learning -> 라벨이 없지만 데이터의 특징을 스스로 분석을해서 군집을 나누는 구조 Reinforement learning -> 데이터들은 이미 확보가 되어있고 그것을 분석하는 과정으로 지속적으로 변하는 환경에대해 옳은 결정이면 + 옳지않으면 - 와 같은 reward 시스템 즉 어떠한 action에 대해 Rule을 스스로 만들어 가는 과정이라고 생각하면 됨 강화학습의 예시 -> 쥐가 지렛대를 통해 먹이를 먹는 과정으로 함수를..

Deep Learning 2022.05.13

Word2VeC (Cbow , Skip-gram)

* Sparse Representation 벡터 또는 행렬(matrix)의 값이 대부분이 0으로 표현되는 방법 -> 희소표현 -> 이것은 각 단어간 유사성을 표현 할 수 없음 그래서 나온 것이 단어의 '의미'를 다차원 공간에 벡터화하는 방법인 분산표현이 나옴 이렇게 분산 표현을 이용하여 단어의 유사도를 벡터화하는 작업 -> 워드 임베딩(embedding) * 분산 표현(Distributed Representation) 기본적으로 분포 가설(distributional hypothesis)이라는 가정 하에 만들어진 표현 방법 -> '비슷한 위치에서 등장하는 단어들은 비슷한 의미를 가진다'라는 가정 분포 가설에 따라서 저런 내용을 가진 텍스트를 벡터화한다면 저 단어들은 의미적으로 가까운 단어가 되고 원핫이 아..

Deep Learning 2021.04.14

BERT의 학습 원리 및 transferlearning

BERT : Pre-training of Deep Bidirectional Trnasformers for Language Understanding 구글에서 개발한 NLP(자연어처리) pre-trained model 로 모든 자연어 처리 분야에서 좋은 성능을 내는 범용 language model 2. 데이터가 충분히 많다면 Embedding이 성능에 큰 영향을 미치는데- 임베딩이 잘 된 단어들이 훈련과정에서 당연히 좋은 성능을 낼 수 밖에없음 3. 데이터의 전처리 임베딩을 Word2Vec, GloVe, Fasttext 방식을 많이 사용했지만, 요즘의 고성능을 내는 대부분의 모델에서 BERT를 많이 사용 4.기존 단방향성 모델은 성능 향상, 문맥 파악에 한계점이 존재했었고, 이를 해결하기 위해 Bert는 양..

Deep Learning 2021.04.14

keras - Image generator

Keras에서는 이미지 데이터학습을 위해 패키지를 제공 , 그 중 하나가 ImageDataGenerator 클래스. np.expand_dim -> 이미지 파일을 불러와서 다차원 배열로 변환할 때 사용 np.squeeze -> (1,3,1) -> (1,3) : 배열에서 1차원인 축을 제거 하는 것 이미지는 모델에 (batch_size,height,weight,channel) 이렇게 들어가야 해서 차원을 늘려야함그런데 일단 이미지를 불러오기위해 (height,weight) 만 input으로 집어넣음batch size는 1만 있으면 안되고 (28.28) 에다가 channel 까지 늘려주어야함 Feature Extraction에서 이미지가 가지고있는 특징,패턴을 알아가는 것이고 Classification에서 예..

Deep Learning 2020.11.27

전통 데이터마이닝 vs 딥러닝

1.2.3 Time-series Learning "정확성 vs. 설명력 반비례 관계 존재" * 데이터마이닝 알고리즘 : KNN RF SVM 등은 조금씩 정확성이 상승하지만 그만큼 결과가 왜 그렇게 나왔는지 설명해주는 포인트는 부족해짐 * 실제로 Tree계열 알고리즘은 최대한 데이터를 세분화 시켜서 구분을 짓는것 -> 구분을 Ratio를 보면서 변수의 특성을 추론 하는 것이지 각각의 변수가 모델의 정확성에 얼마나 기여했는지는 표시하지 못하는 것이 현실 * 최근에 화두인 DNN(딥러닝)은 정확성이 높음과 반대로 불운하게도 설명력은 거의 없다라고 할정도로 이론적 근거가 뚜렷하게 있지가 않다.. (점추정 형태로 정확도가나왔다)이지 왜 그런 정확성이 나왔는지 통계적인 범위가 나왔다거나 이런것 이없음 bias나 v..

Deep Learning 2020.10.04

Hypothesis, Cost, Loss Function

가설 함수 : H(x) = W * X + b -> H(x) = Y Predict 손실함수 : W * X + b - Y -> 손실 = Y Predict - Y 손실의 총합은 3개씩 짤라서 ex1) W=0.5 ,b =0.5 -> -2+(-3.5)+(-5)=-10.5 ex2) W=1,b=1 -> -1+-2+-3 = -6 ex3) W=2,b=1 -> 0+0+0 =0 -> 최고의 알고리즘을 구하기 위해서는 손실의 총합이 0에 가깝게 만드는 W 와 B를 구할 수 있었음 손실함수 (W=2,b=1) = W * X + b – Y = (2X + 1 – Y)2 But , 손실의 총합이 0이 되게끔 만드는 것이 최적의 해이지만 -1+0+1 = 0 과 같은 오류가 나올 때가 있음 그래서 나온 해법이 아래와 같이 손실 함수에 제..

Deep Learning 2020.08.30

최적화 알고리즘 - Gradient Descent

학습 매개변수 - a,b가 조금식 달라짐 손실함수(lost function, cost function)의 예 : MSE (평균제곱에러) , Cross entropy error (교차엔트로피 오차) 가능한 모든 수를 대입해서 출력 값을 확인해보는 것 - 여러문제들로인해 실제 사용 불가 이렇게 많이 대입하는 것이 아니라 적게 대입하고 최적값을 찾을 수는 없을까? 해서 나온게 Gradient Descent GD는 1.시작점은 랜덤하게 정해줘야함 2. 사진의 시작점을 미분하면 음수가 나왔기에 왼쪽으로 가면 더 내려가겠구나를 알 수있음 3. 왼쪽으로 내려가다보면 경사하강법을 통해 최저값을 알아 낼 수 있음 학습률(learning rate,a) , (a * 기울기) 해서 이동함 그래서 학습률 a 가 너무작거나 크지..

Deep Learning 2020.06.30

LDA -linear Discriminant Analysis

가정 1. 각 숫자 집단은 정규분포 형태의 확률분포를 갖는다 2. 각 숫자 집단은 비슷한 형태의 공분산 구조를 갖는다 * 1,2,3 을 잘나누는 방법은? LDA 결과 얻게되는 Decision Boundary 특징 1. 기본적으로 평균의 차이를 가장 크게하는 축 -> 차이를 극대화하려면 두 평균 Vector의 차이 벡터를 이용 2. 두 분포의 각각의 분산은 최소화 * 결국 분산대비 평균의 차이를 극대화 하는 Boundary를 찾고자 하는 것

Deep Learning 2020.06.26
반응형
반응형