부스트캠프 AI Tech (17) 썸네일형 리스트형 [WEEK 1] AI Math 이왕 이렇게 된 거 기초부터 다지자 # 선형모델에서는... 경사하강법(gradient descent) - 쉽게 말하자면 미분, 행렬 등을 통해 효율적으로 최소점을 잡는 기법 - 이를 이용해 선형회귀가 가능 확률적 경사하강법(stochastic gradient descent), SGD - 미니배치를 확률적으로 선택하여 연산자원을 효율적으로 활용 - non-convex 목적식에도 사용 가능하여 머신러닝 학습에 더 효율적 다변수 함수에서 도출되는 gradient는 -np.transpose(expand_x) @ error 참고로 expand_x는 기존 x에 상수항 1을 expand 한 행렬 # 비선형모델에서는... 소프트맥스(softmax) - 선형모델과 결합해 모델의 출력을 확률로 해석할 수 있게 변환하는 연.. 이전 1 2 3 다음