728x90
728x90

Machine Learning 3

[머신러닝 기초] 이론 06 - 경사하강법 & 커널 기법

#경사하강법 Gradient Descent  : 모델의 Cost를 최소화하기 위해 반복적으로 최적화    (산 정상에서 아래로 내려가는 과정에 비유)  1. 과정  2. 학습률(Learning Rate)   # Kernel Method 커널 기법  : 고차원 공간으로 데이터를 변환하여 선형적으로 구분되지 않는 데이터를 구분     (⟶ n차 방정식)  1. 방법  1) 입력 변수(feature) 추가하여 데이터셋 확장  2) 둘로 나누는 직선을 찾음  3) 기존의 데이터셋과 잘 맞는 곡선으로 변환  2. 커널 기법  1) 직선으로 나눌 수 없는 데이터셋이 주어지면  2) 각 포인트에서 원점까지의 거리의 제곱에 해당하는 값을 z축 상에 추가하여 각 포인트가 포물면 상에 위치하도록 함      (전체가 2차..

[머신러닝 기초] 이론 05 - 로지스틱 회귀 Logistic Regression

# 로지스틱 회귀(Logistic Regression)  : 선형 회귀를 그대로 사용하면 예측값이 0에서 1을 벗어날 수 있다는 문제가 있음   3. Cost Function - 좋은 Cost Function   : 데이터가 정확히 분류되면 작은 값, 잘못 분류되면 cost나 error가 큰 값  - 선형 회귀의 Absolute 나 Square Error는 분류 문제에 적합하지 않음  # Log Loss Cost (Logarithmic Loss)  : Log Loss = -ln(데이터를 lable로 예측할 확률)

[머신러닝 기초] 이론 03 - 선형 회귀 & 비용 함수

# 선형 회귀와 모델의 종류0. 지도학습(Supervised Learning)  ex) 고양이와 개 사진 데이터에서 'Dog' 또는 'Cat'이라는 레이블을 기반으로 모델 학습      → 새로운 사진에서 어떤 동물인지 예측  1. 회귀(Regression) 모델 : 주어진 데이터셋과 가장 가까운 직선을 그림   ex) 방 개수에 따른 주택 가격 예측  2. 선형 회귀 모델 (Linear Regression) - 목표: 데이터를 기반으로 직선(선형 모델)을 찾아 예측값을 생성하기 - 직선 조정 방법   : 기울기와 y절편 값을 조금씩 바꿔나감 (회전)  - 학습 알고리즘  1) 기울기와 y절편 초기값 설정 (random)  2) 데이터를 ‘반복’적으로 샘플링하며 직선을 점점 데이터에 맞추기  3) 최적화..

728x90
반응형