Optimizer 필기한거 201030 1. cats_dogs 이미지 분할 파일 구조 # 폴더구조 생성 및 고양이, 멍멍이 이미지 각 폴더로 복사 import os, shutil original_dataset_dir = './data/cat_dog/train' base_dir = 'data/cat_dog_full' os.mkdir(base_dir) train_dir = os.path.join(base_dir,'train') os.mkdir(train_dir) validation_dir = os.path.join(base_dir,'validation') os.mkdir(validation_dir) test_dir = os.path.join(base_dir,'test') os.mkdir(test_dir) t..
CNN은 colab에서 GPU로 돌리기 %reset import numpy as np import pandas as pd import tensorflow as tf from sklearn.model_selection import train_test_split from sklearn.preprocessing import MinMaxScaler from sklearn.metrics import classification_report # Raw Data Loading df = pd.read_csv('/content/drive/My Drive/MachineLearning/train.csv') # 결측치와 이상치는 없어요!! # Data Split(Train data와 Test data 분리) x_data_tra..
keras.io/ko/getting-started/sequential-model-guide/ 201022, 23 CNN Filter는 '지정된 간격'을 이동해가면서 이미지 데이터와 Convolution 연산 수행 최종결과 => Feature Map Stride - 기본값 1 변경 가능 특별한 경우 빼고는 그닥 의미 x CNN (합성곱 신경망) Convolution Neural Network 지금까지 사용한 Deep Learning 구조는 DNN (Deep Neural Network) CNN은 이미지 처리용으로 주로 Computer Vision쪽 연구나 응용에서 사용한다. Computer Vision : 시각적인 세계를 해석하고 이해하도록 컴퓨터를 학습시키는 AI 분야 DNN은 FC layer로 구성되어 ..
201021 Impurity (불순도)/ Entropy (불확실성) Decision Tree는 순도가 증가하고 불순도/ Entropy가 감소하는 방향으로 학습을 진행, 영역을 분기한다. Information Theory (정보 이론) Information Gain (정보 획득) : 순도 ↑ & 불순도/ 불확실성 ↓ 정보 획득의 양이 크게 발생하는 방향 (= 불확실성이 많이 감소하는 방향)으로 node가 분기 정보 획득량을 어떤 사건이 얼마만큼의 정보를 줄 수 있는지를 수치화 => 정보 함수 (I.F) / Entropy Decision Tree 데이터를 분석해서, 이들 데이터 사이에 존재하는 패턴 예측 가능한 규칙들의 조합을 만드는 알고리즘 독립, 종속 => 이산적인 데이터로 classification 작..
201019 # %reset # pip install mlxtend import numpy as np from sklearn.svm import SVC import matplotlib.pyplot as plt from mlxtend.plotting import plot_decision_regions # Decision Boundary 그리기 import mglearn # 과학 계산용 그래프 그리기 (선 그래프, 히스토그램, 산점도 등) # training data set 가져오기 x_data, t_data = mglearn.datasets.make_forge() # x_data # array([[ 9.96346605, 4.59676542], -> 좌표값 # t_data # array([1, 0, 1, 0..
In [3]: # Adam optimizer : SGD보다 조금 더 좋은 성능 import tensorflow as tf print(tf.__version__) # kernel_initializer -> W값 초기화 # he_uniform, he_normal(정규분포 형태) # Multinomial 0~9 숫자 파악 -> Logistic 10개, 출력 10개 # sparse_categorical_crossentropy => Multinomial은 categorical # sparse : one hot encoding 안해도 됨 # verbose = 1, 출력 1로 잡음 2.1.0 In [5]: import numpy as np import pandas as pd import tensorflow as tf..
In [ ]: ### 1) TF 1.15 단일 layer로 구현 %reset # Tensorflow 1.15버전 # multinomial classification으로 MNIST 구현 import numpy as np import pandas as pd import tensorflow as tf import matplotlib.pyplot as plt from sklearn.preprocessing import MinMaxScaler # Normalization from sklearn.model_selection import train_test_split # train, test 분리 from sklearn.metrics import classification_report # Raw Data Loadin..