분류 전체보기365 AI 3일차 (2023-05-10) 인공지능 기초 - Validation split, 과적합(Overfitting)과 Early Stopping Validation split ㄴ validation은 모델이 학습하는 동안 학습에 사용되지 않은 데이터셋으로 모델의 일반화 성능을 평가하기 위해 사용 ㄴ 일반화 성능을 평가하기 위해 학습 데이터와 별도로 유효성 검사(validation) 데이터를 사용하여 모델의 성능을 평가 ㄴ 일반적으로 학습 데이터(train), 유효성 검사 데이터(validation), 테스트 데이터(test)를 6:2:2 로 분할함 tf12_validation03.py import numpy as np from keras.models import Sequential from keras.layers import Dense from sklearn.model_selection import train_test_split from skle.. 2023. 5. 10. AI 3일차 (2023-05-10) 인공지능 기초 - Optimizer Optimizer Gradient Descent (경사 하강법) ㄴ 함수의 기울기(즉, gradient)를 이용해 x의 값을 어디로 옮겼을 때 함수가 최소값을 찾는지 알아보는 방법 = > 문제점 ㄴ 극소값(local minimum)에 도달할 수 있다는 것이 증명되었으나 전체 최소값(global minimum) 으로 갈 수 있다는 보장은 없음 ㄴ 훈련이 느림 ** 참고 https://angeloyeo.github.io/2020/08/16/gradient_descent.html Momentum ㄴ Gradient Descent 의 문제를 해결하기 위해 보편적으로 사용됨 ㄴ 관성(momentum)을 적용하여 변수가 가던 방향으로 계속 갈 수 있도록 속도(velocity)를 추가한 것 ㄴ global minim.. 2023. 5. 10. AI 2일차 (2023-05-09) 인공지능 기초 - 데이터 셋 회귀분석 - California_housing 데이터 셋 tf07_california.py import numpy as np from keras.models import Sequential from keras.layers import Dense from sklearn.model_selection import train_test_split from sklearn.metrics import r2_score # from sklearn.datasets import load_boston # 윤리적 문제로 제공 안 됨 from sklearn.datasets import fetch_california_housing # 1. 데이터 # datasets = load_boston() datasets = fetch_cali.. 2023. 5. 9. AI 2일차 (2023-05-09) 인공지능 기초 - 회귀분석과 분류분석 회귀분석과 분류분석 구분 회귀분석 분류 이진분류 다중분류 평가지표 Loss mse, mae R2 Binary_Crossentropy accuracy Catergorical_Crossentropy accuracy Last Layer Activation Default (Linear) Simoid Softmax Last Layer node 의 개수 1이상 1 y 레벨의 수 만큼 Metrics mse, mae mse, mae + acc mse, mae + acc One Hot Encoding X X X 회귀분석 (Regression) ㄴ 연속된 값을 예측 (계속해서 변하는 값) ㄴ 과거의 주가 데이터를 가지고 미래 주가를 예측하거나, 자동차 배기량이나 연식 등 중고차 정보를 이용하여 가격을 예측 분류분석 (Cl.. 2023. 5. 9. AI 2일차 (2023-05-09) 인공지능 기초 - 인공지능 기초개념과 훈련 테스트 데이터 셋 퍼셉트론ㄴ 다수의 신호(Input)를 입력으로 받아 하나의 신호(Output)를 출력하는 알고리즘 ㄴ 인공신경망(ANN)의 한 종류로, 1957년에 Frank Rosenblatt이 발명 ㄴ 각 입력값에 대해 가중치(Weight)를 곱한 값들의 합과 편향(Bias)을 더한 후, 이 값이 어떤 임계값(Threshold)을 넘으면 1을 출력하고, 그렇지 않으면 0을 출력 = > y = wx + b ㄴ 활성화 함수를 통해 입력값이 일정한 임계치를 넘어설 경우 출력값이 1에 가까워지고, 그렇지 않은 경우에는 0에 가까워지도록 하여 입력값을 0 또는 1로 변환 ㄴ 계산된 출력값은 정답과 비교하여 오차를 계산하고, 이 오차를 줄이는 방향으로 가중치(w)와 편향(b)을 업데이트함 ㄴ 최적의 가중치(w)와 편향(b)을 .. 2023. 5. 9. AI 1일차 (2023-05-08) 인공지능 기초 - 딥러닝 기본 코드 실습 딥러닝 기본 코드 실습 tf01_study # 1. 데이터 import numpy as np x = np.array([1, 2, 3]) y = np.array([1, 2, 3]) # 2. 모델구성 from keras.models import Sequential from keras.layers import Dense model = Sequential() model.add(Dense(10, input_dim=1))# 입력층 model.add(Dense(5))# 히든 레이어 1 model.add(Dense(7)) # 히든 레이어 2 model.add(Dense(5)) # 히든 레이어 3 model.add(Dense(1)) # 출력층 # 3. 컴파일, 훈련 model.compile(loss='mse', opti.. 2023. 5. 8. 이전 1 ··· 47 48 49 50 51 52 53 ··· 61 다음