반응형

deeplearning 6

DeepFM 논문 리뷰

DeepFM : A Factorization - Machine based Neural network for CTR Prediction Abstract CTR(Click Through Rate)를 예측하는 모델로 Low와 High - order interactions 모두 학습 가능 Factorization Machine의 장점과 Deep Learning의 장점을 모두 합친 모델이 DeepFM 추가 featrue engineering 없이 raw featrue를 그대로 사용할 수 있음(fe가 없어서 도메인지식이 필요X) 이 부분이 wide&deep 과 deepfm의 중요한 차이점 deepfm의 최종 목표는 CTR을 높이는 것이고 CTR을 높이는 item을 최종적으로 추천하는 것 Introduction 1...

Embedding Vector 과정 및 정의

1. 텍스트를 숫자로 바꾸는 작업 단어에 번호를 매기고 번호에 해당하는 요소만 1 ,나머지는 0 N개의 단어가 있다면 각 단어는 한 개의 요소만 1인 N차원의 벡터로 표현 ( 벡터 포현에 어떤 단어 끼리 유사하고, 반대인지 단어와 단어 관계가 전혀 드러나지 않음) 이 부분을 좀 더 똑똑하게 바꾸려고 예를 들면 왕↔ 여왕을 남↔녀 관게라는 것을 벡터로 알아낼 수 있기 위해 만든 것이 임베딩 모델 (word embedding) 2. Word2Vec 현대적인 자연어 처리 기법들은 대부분 이 임베딩 모델에 기반을 두고 있다. 그렇다면 어떻게 벡터에 단어의 의미를 담을 수 있을까? 우리는 어떤 대상이든 대상의 속성들을 표현하고, 그것을 바탕으로 모델 생성 예를들어 버섯을 조사해 놓은 데이터가 있다면 이것은 버섯이..

Deep Learning 2022.11.19

Deep learning( CNN을 활용한 Mnist classification kernel)

Mnist 데이터 로드 후 tensorflow를 통한 train/test split. from tensorflow.keras import datasets (train_x, train_y), (test_x, test_y) = datasets.mnist.load_data() 28바이28 의 데이터가 6만개 쌓여있다 라는 뜻 from tensorflow.keras import datasets (train_x, train_y), (test_x, test_y) = datasets.mnist.load_data() image=train_x[0] image.shape (60000, 28, 28) plt.imshow(image,'gray') plt.show() # 차원 수 높이기 image=image[tf.newaxis..

Project & Kaggle 2020.11.30

keras - Image generator

Keras에서는 이미지 데이터학습을 위해 패키지를 제공 , 그 중 하나가 ImageDataGenerator 클래스. np.expand_dim -> 이미지 파일을 불러와서 다차원 배열로 변환할 때 사용 np.squeeze -> (1,3,1) -> (1,3) : 배열에서 1차원인 축을 제거 하는 것 이미지는 모델에 (batch_size,height,weight,channel) 이렇게 들어가야 해서 차원을 늘려야함그런데 일단 이미지를 불러오기위해 (height,weight) 만 input으로 집어넣음batch size는 1만 있으면 안되고 (28.28) 에다가 channel 까지 늘려주어야함 Feature Extraction에서 이미지가 가지고있는 특징,패턴을 알아가는 것이고 Classification에서 예..

Deep Learning 2020.11.27

전통 데이터마이닝 vs 딥러닝

1.2.3 Time-series Learning "정확성 vs. 설명력 반비례 관계 존재" * 데이터마이닝 알고리즘 : KNN RF SVM 등은 조금씩 정확성이 상승하지만 그만큼 결과가 왜 그렇게 나왔는지 설명해주는 포인트는 부족해짐 * 실제로 Tree계열 알고리즘은 최대한 데이터를 세분화 시켜서 구분을 짓는것 -> 구분을 Ratio를 보면서 변수의 특성을 추론 하는 것이지 각각의 변수가 모델의 정확성에 얼마나 기여했는지는 표시하지 못하는 것이 현실 * 최근에 화두인 DNN(딥러닝)은 정확성이 높음과 반대로 불운하게도 설명력은 거의 없다라고 할정도로 이론적 근거가 뚜렷하게 있지가 않다.. (점추정 형태로 정확도가나왔다)이지 왜 그런 정확성이 나왔는지 통계적인 범위가 나왔다거나 이런것 이없음 bias나 v..

Deep Learning 2020.10.04
반응형
반응형