로지스틱 회귀모델
1. 입력변수의 선형결합
2. 선형결합 값의 비선형 변환(sigmoid function 통해서)
퍼셉트론
-단층 퍼셉트론 (초기)
-입력값의 선형결합 값을 구하고 그 값이 0보다 큰지를 여부로 분류
Boolean XOR 한계.
직선으로 구별 불가능.
2중 퍼셉트론(=뉴럴네트워크 모델)
-단층 퍼셉트론에서 나아간 개념
- 2개의 퍼셉트론을 결합
- 2개의 입력변수와 1개의 출력변수
로지스틱 회귀모델을 한 번 더 수행한 모델
다층 퍼셉트론->인공신경망
입력층: 입력변수의 값이 들어오는 곳 , 입력변수의 수 = 입력 노드의 수
은닉층: 은닉층에는 다수 노드 포함 가능, 다수의 은닉층 형성 가능
출력층: [범주형] 출력 노드의 수 = 출력 변수의 범주 개수
[연속형] 출력 노드의 수 = 출력 변수의 개수
x변수들의 선형 결합 -> 선형 회귀 모델
x들의 선형 결합을 로지스틱으로 비선형 변환 -> 로지스틱 회귀 모델
선형 결합의 로지스틱 변환 후 한 번 더 진행 -> 뉴럴네트워크 모델
뉴럴네트워크 파라미터
파라미터: 층 간 노드를 연결하는 가중치 -> 알고리즘으로 결정
하이퍼파라미터: 은닉층 개수, 은닉노드 개수, activation function ->사용자가 임의로 결정
sigmoid function
large input->small output
아웃풋범위: 0~1
인풋값에 대해 단조증가 혹은 단조감소 함수
미분결과를 아웃풋의 함수로 표현 가능(gradient learning method에 유용하게 사용)
비용함수
-뉴럴네트워크 파라미터 결정
수치 예측
-예측값과 실제값의 차이 측정
-미분 가능해야함
-Regression: MSE
분류
-예측값과 실제값의 차이 측정
- Clssification: cross entropy
-미분 가능해야함
파라미터 추정 방법 중 핵심 개념 경사하강법
Gradient: 함수의 기울기
a first-order optimization algorithm
optimization: 함수의 최솟값 혹은 최댓값을 찾는 과정
모든 turning point가 최솟값 혹은 최댓값은 아님
turning points 의 개수는 함수의 차수에 의해 결정
최솟값들 중 가장 작은 최솟값: 전역 최솟값
지역적인 최소값: 지역 최소값
비용함수를 최소화하는 w를 찾는 알고리즘의 개념, 방법론
'공부' 카테고리의 다른 글
BDA X 이지스퍼블리싱 서평단 이벤트 [Do it! 데이터 과학자를 위한 실전 머신러닝]/ 10장: 서포트 벡터 머신 모델 (0) | 2023.12.31 |
---|---|
BDA X 이지스퍼블리싱 서평단 이벤트 [Do it! 데이터 과학자를 위한 실전 머신러닝]/ 9장: K-최근접 이웃 모델 (0) | 2023.12.31 |
오차역전파 (0) | 2023.12.29 |
BDA X 이지스퍼블리싱 서평단 이벤트 [Do it! 데이터 과학자를 위한 실전 머신러닝]/ 5장 : 릿지 회귀 모델 (0) | 2023.12.11 |
BDA X 이지스퍼블리싱 서평단 이벤트 [Do it! 데이터 과학자를 위한 실전 머신러닝]/ 4장: 라쏘 모델 (0) | 2023.12.11 |