반응형

Cost Function 2

Hypothesis, Cost, Loss Function

가설 함수 : H(x) = W * X + b -> H(x) = Y Predict 손실함수 : W * X + b - Y -> 손실 = Y Predict - Y 손실의 총합은 3개씩 짤라서 ex1) W=0.5 ,b =0.5 -> -2+(-3.5)+(-5)=-10.5 ex2) W=1,b=1 -> -1+-2+-3 = -6 ex3) W=2,b=1 -> 0+0+0 =0 -> 최고의 알고리즘을 구하기 위해서는 손실의 총합이 0에 가깝게 만드는 W 와 B를 구할 수 있었음 손실함수 (W=2,b=1) = W * X + b – Y = (2X + 1 – Y)2 But , 손실의 총합이 0이 되게끔 만드는 것이 최적의 해이지만 -1+0+1 = 0 과 같은 오류가 나올 때가 있음 그래서 나온 해법이 아래와 같이 손실 함수에 제..

Deep Learning 2020.08.30

최적화 알고리즘 - Gradient Descent

학습 매개변수 - a,b가 조금식 달라짐 손실함수(lost function, cost function)의 예 : MSE (평균제곱에러) , Cross entropy error (교차엔트로피 오차) 가능한 모든 수를 대입해서 출력 값을 확인해보는 것 - 여러문제들로인해 실제 사용 불가 이렇게 많이 대입하는 것이 아니라 적게 대입하고 최적값을 찾을 수는 없을까? 해서 나온게 Gradient Descent GD는 1.시작점은 랜덤하게 정해줘야함 2. 사진의 시작점을 미분하면 음수가 나왔기에 왼쪽으로 가면 더 내려가겠구나를 알 수있음 3. 왼쪽으로 내려가다보면 경사하강법을 통해 최저값을 알아 낼 수 있음 학습률(learning rate,a) , (a * 기울기) 해서 이동함 그래서 학습률 a 가 너무작거나 크지..

Deep Learning 2020.06.30
반응형
반응형