일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- pytorch
- downheap
- ML
- 선형회귀
- 해시테이블
- Loss함수
- 이중해싱
- 이중연결리스트
- body-parser
- 딥러닝
- anaconda
- upheap
- 개방주소법
- urlencoded
- 경사하강법
- bodyparser
- 힙정렬
- vsCode
- 선형조사법
- 연결리스트
- MSE
- 알고리즘
- 상향식 힙
- POST
- 삽입식 힙
- 2차조사법
- 분리연쇄법
- nodejs
- Today
- Total
목록딥러닝 (2)
LittleDeveloper
우리는 지난 시간에 선형회귀법에서 기울기 a의 크기가 너무 크거나 너무 작으면, 오차(실제값과 예측값의 차)가 커짐을 확인했다. 저번에 다루지 않았던 개념이 하나 있는데, 'Loss 함수'가 무엇인지부터 짚고 넘어가보자. Loss 함수란? = 실제 값과 예측 값 차이(오차)의 제곱의 합 오차가 작을수록 좋으니까, Loss 함수가 작을수록 좋은 모델이 된다는 것을 알 수 있다. 위의 공식에서 a(기울기), b(y절편) 값에 따라 Loss 함수를 조절할 수 있다. Loss 함수를 최소화하는 a, b 값을 찾기 위해 도입된 방법에는 여러가지가 있다. 1) Gradient descent (경사하강법) 2) Normal equation (least squares) 3) Brute force search 4) et..
필자는 전필로 선형대수를 들으면서 '선형회귀'라는 것을 처음 배웠다. 그리고 그 다음 학기에 확률통계를 배우면서 선형회귀 수식과 그래프를 엑셀과 매트랩으로 간단하게 나타나는 것을 배웠다. 처음에는 고등학교 수학 수준에서 금방 이해가 되니까 딱히 어려울 것도 없어서 '왜 배워야 하지..'라는 의문조차 안 들었었는데, 작년 여름 방학에 머신러닝 입문 강의(모두의 딥러닝x)를 듣다가 '오..이래서 배우는구나..'라는 마음가짐으로 전환되었다. 머신러닝의 지도학습 기법에는 크게 2가지가 있다. 1. 회귀 2. 분류 그럼 머신러닝은 뭐고.. 지도학습이란 무엇인가.. (이거는 따로 정리해서 포스트할 예정! 조금만..기다려...~) (일단 머신러닝의 기법은 지도학습, 비지도학습, 강화학습 이렇게 3가지로 나뉜다. 정도..