Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- anaconda
- 선형회귀
- 분리연쇄법
- pytorch
- 상향식 힙
- 경사하강법
- 개방주소법
- POST
- 이중연결리스트
- 연결리스트
- urlencoded
- nodejs
- 선형조사법
- body-parser
- upheap
- ML
- MSE
- 삽입식 힙
- 딥러닝
- 힙정렬
- 해시테이블
- downheap
- bodyparser
- 알고리즘
- Loss함수
- 이중해싱
- vsCode
- 2차조사법
Archives
- Today
- Total
목록경사하강법 (1)
LittleDeveloper
모두의 딥러닝 4장 경사하강법
우리는 지난 시간에 선형회귀법에서 기울기 a의 크기가 너무 크거나 너무 작으면, 오차(실제값과 예측값의 차)가 커짐을 확인했다. 저번에 다루지 않았던 개념이 하나 있는데, 'Loss 함수'가 무엇인지부터 짚고 넘어가보자. Loss 함수란? = 실제 값과 예측 값 차이(오차)의 제곱의 합 오차가 작을수록 좋으니까, Loss 함수가 작을수록 좋은 모델이 된다는 것을 알 수 있다. 위의 공식에서 a(기울기), b(y절편) 값에 따라 Loss 함수를 조절할 수 있다. Loss 함수를 최소화하는 a, b 값을 찾기 위해 도입된 방법에는 여러가지가 있다. 1) Gradient descent (경사하강법) 2) Normal equation (least squares) 3) Brute force search 4) et..
AI
2022. 1. 9. 16:22