일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 경사하강법
- nodejs
- 분리연쇄법
- 이중연결리스트
- 선형조사법
- pytorch
- Loss함수
- 선형회귀
- downheap
- 상향식 힙
- 연결리스트
- 힙정렬
- body-parser
- bodyparser
- urlencoded
- 2차조사법
- MSE
- 삽입식 힙
- 알고리즘
- POST
- anaconda
- 딥러닝
- 이중해싱
- 개방주소법
- 해시테이블
- upheap
- vsCode
- ML
- Today
- Total
목록AI (7)
LittleDeveloper
1. CNN의 탄생 1) MLP의 한계: ◾ 앞선 딥러닝 모델 → 하나의 은닉층을 가진 MLP(다층 퍼셉트론) ◾ MLP의 장점이자 단점=> ‘학습데이터’에서 완벽한 모델 생성 ▶ 과적합!! ◾ Gradient Vanishing 문제 2) MLP ? ----> DNN ! (by 사전학습, RELU, GPU) *DNN : 2개 이상의 Hidden Layer를 가진 다층 신경망(Deep Neural Network) 3) DNN의 한계 ▶ 데이터량이 많은 이미지와 영상 처리가 어려움 Why? 데이터의 변형 및 왜곡에 취약함 + 공간정보 손실(픽셀들 간의 연관성) ✅ 데이터 손실(평탄화) ✅ 매우 높은 시간 복잡도 ✅ Parameter 수 ⬆ ▶ DNN으로는 이 모든 문자를 A라고 분류하기 어렵지만, CNN은 ..
1. 머신 러닝 모델의 평가 *검증용 데이터의 필요성 하이퍼파라미터(초매개변수): 모델의 성능에 영향을 주는 매개변수들, 보통 "사용자가 직접" 정해줄 수 있는 변수 ex) 경사 하강법의 학습률(learning rate), 딥러닝의 은닉층의 수, 뉴런의 수, 드롭아웃 비율 매개변수: 가중치와 편향과 같은 학습을 통해 바뀌어져가는 변수, 기계가 훈련을 통해서 바꾸는 변수 (사용자가 결정해주는 값이 아니라 모델이 학습하는 과정에서 얻어지는 값) ->훈련용 데이터로 훈련을 모두 시킨 모델은 검증용 데이터를 사용하여 정확도를 검증하며 하이퍼파라미터를 튜닝(tuning) *k겹 교차 검증(검증데이터, 테스트 데이터가 불충분한 경우) 2. 분류(Classification)와 회귀(Regression) 1) 이진 분..
Pytorch로 배우는 Neural Network 우리는 머신러닝을 처음 접하면서 회귀/분류 문제를 시작으로 여러가지 기법을 공부하게 된다. (물론 머신러닝으로 해결할 수 있는 과제가 회귀와 분류만 있는 것은 아님. 이 얘기는 추후 포스팅에서..) 머신러닝의 여러 방법론 중 하나로서 딥러닝이 있는데, 인공신경망을 바탕으로 컴퓨터에게 사람의 사고방식을 가르치는 방법이다. '인공신경망'이란 생물학의 신경망에서 영감을 얻은 학습 알고리즘으로, 사람의 신경 시스템을 모방한 것이다. 어떤 문제가 주어졌을 때 머신러닝으로만, 또는 딥러닝으로만 풀어야 한다는 정답은 없다. 그렇지만 딥러닝이나 전이학습(transfer learning)을 통해서 다른 모델보다 정확한 모델을 만들 수 있다. 이 경우, 파이토치(PyTor..
우리는 지난 시간에 선형회귀법에서 기울기 a의 크기가 너무 크거나 너무 작으면, 오차(실제값과 예측값의 차)가 커짐을 확인했다. 저번에 다루지 않았던 개념이 하나 있는데, 'Loss 함수'가 무엇인지부터 짚고 넘어가보자. Loss 함수란? = 실제 값과 예측 값 차이(오차)의 제곱의 합 오차가 작을수록 좋으니까, Loss 함수가 작을수록 좋은 모델이 된다는 것을 알 수 있다. 위의 공식에서 a(기울기), b(y절편) 값에 따라 Loss 함수를 조절할 수 있다. Loss 함수를 최소화하는 a, b 값을 찾기 위해 도입된 방법에는 여러가지가 있다. 1) Gradient descent (경사하강법) 2) Normal equation (least squares) 3) Brute force search 4) et..
필자는 전필로 선형대수를 들으면서 '선형회귀'라는 것을 처음 배웠다. 그리고 그 다음 학기에 확률통계를 배우면서 선형회귀 수식과 그래프를 엑셀과 매트랩으로 간단하게 나타나는 것을 배웠다. 처음에는 고등학교 수학 수준에서 금방 이해가 되니까 딱히 어려울 것도 없어서 '왜 배워야 하지..'라는 의문조차 안 들었었는데, 작년 여름 방학에 머신러닝 입문 강의(모두의 딥러닝x)를 듣다가 '오..이래서 배우는구나..'라는 마음가짐으로 전환되었다. 머신러닝의 지도학습 기법에는 크게 2가지가 있다. 1. 회귀 2. 분류 그럼 머신러닝은 뭐고.. 지도학습이란 무엇인가.. (이거는 따로 정리해서 포스트할 예정! 조금만..기다려...~) (일단 머신러닝의 기법은 지도학습, 비지도학습, 강화학습 이렇게 3가지로 나뉜다. 정도..
지난 시간에는 AI 개발에 있어서 VM 개발 환경이 필요한 이유와 설치해야 하는 것에 대해 알아보았다! 이번에는 가상환경을 세팅하는 구체적인 방법을 알아보자. 1) VirtualBox 설치 https://www.virtualbox.org/ Oracle VM VirtualBox Welcome to VirtualBox.org! VirtualBox is a powerful x86 and AMD64/Intel64 virtualization product for enterprise as well as home use. Not only is VirtualBox an extremely feature rich, high performance product for enterprise customers, it is als..
방학 동안 다양한 딥러닝 모델을 배워 보고 응용해보고 싶다는 생각에 AI 실무 교육 과정에 지원하게 되었다! 평소에 컴퓨터 비전에 관심이 있어 학기 중에 파이썬으로 opencv 예제들을 풀어보긴 했지만, 어떤 모델을 임포트해서 기능을 구현해본 적이 없어서 기초 개념부터 제대로 학습하고 싶었다. 이 교육의 목표는 실무에 바로 투입할 수 있는 AI 개발자를 양성하는 것이다. 따라서 이 교육을 통해 모델을 실제로 어떻게 활용할 수 있는지 내 스스로 많은 고민을 해보고(모르면 질문하고), 프로젝트를 진행할 수 있을 만큼의 실력을 갖출 수 있기를 바란다. 어떤 것을 배우기 전에 막막함이 앞설 때가 있고 설렘이 앞설 때도 있는데, 이번 교육은 설렘이 앞서는 경우 같다. OT를 들으면서 앞으로 배울 것들과 이것을 어..