기계학습 (13) 썸네일형 리스트형 [ML 개괄] 1. 머신러닝 매커니즘 : 분류/회귀 모델링을 중심으로 AI 및 ML 개요 (1) AI : 인간의 지능을 컴퓨터를 이용해 인공적으로 구현(2) 머신러닝 : 인공지능을 구현하는 대표적인 방법기계를 인간처럼 학습시켜서 기계가 새로운 패턴을 얻어내는 방식으로 진행머신러닝 알고리즘을 이용해서 데이터를 분석하고, 분석 결과를 기계에게 학습한 후에, 어떤 판단이나 예측을 할 수 있게 하는 것이에, 머신러닝에서는 데이터의 양과 질에 따라 높은 성능을 이끌어낼 수 있게 된다.따라서 많은 양의 데이터를 핸들링할 수 있는 역량이 필요도메인 특성 이해 및 분석 방향성 설정이 중요 scikit-learnscikit-learn은 파이썬 프로그래밍 언어용 자유 소프트웨어 기계 학습 라이브러리이다. 다양한 분류, 회귀, 그리고 서포트 벡터 머신, 랜덤 포레스트, 그라디언트 부스팅, k.. [기계학습 11~12] 5. Convolutional Neural Networks (CNNs) - 작성 중 #1 Intro1) DeepLearning on Large Inputs - 예를 들어 1,000 x 1,000 pixel 및 3개 채널의 고양이 사진을 분류하기 위해서 우측 하단처럼 3,000,000 x 1 차원의 input vector와 3,000,000 x 100(single layer perceptron의 개수, 추후(p.9) 상술) 차원의 W Matix가 필요2) 'Convolutional' Neural Networks 3) A Bit of History - Neocognitrion (1980)- RBM (2006)- AlexNet (2012) #2 What is Convolution?1) ConvNet- ConvNet is a sequence of layers, and every layer .. [기계학습 8~10] 4. Neural Network and Backpropagation (2) - 작성 중 #3 Update the Parameter 3) Computation Graph and Backpropagation (이어서) - 위에서 function은 activation function뿐만아니라 multiplication과 add들의 다른 함수들도 들어갈 수 있다.- 또한, 미분을 해야하므로 function 및 model은 'differential' 해야한다.- 여기서 우리는 순간순간의 function에만 집중하면 된다. (Back-up) 벡터 미분 참고) p.38까지 자코비안 행렬의 차수 관련해서 강의노트가 오타로 추정되어 위와같이 변경 (기존 : nxm차원 → mxn차원) - Local Gradients : Jacobian 행렬- Upstream/Downstream Gradients : 스칼.. [기계학습 7] 4. Neural Network and Backpropagation (1) # 1 딥러닝의 시작과 Perceptron1) Image Classification- Image Classification is a core task in Computer Vision→ 조금 더 챌린징한 분류 문제를 풀기 위해 라지 모델 등장- 이미지의 경우 각각의 적합한 클래스로 분류하는 mapping func.이 너무 복잡함 2) Deep Learning for Image Classification - 2012 : 딥러닝의 실질적 시작- IMAGENET : 데이터셋으로, 규모가 매우 크면서 각각의 class가 달려있는 데이터셋 → 알렉스넷에 활용되어 좋은 성능을 냄- 사람보다 낮은 이미지 분류 error rate을 기록하기 시작 3) Perceptron : 딥뉴럴네트워크의 시작- Frank Rosen.. [기계학습 4] Classification(Logistic Regression) - 작성중 - 본 게시물에서는 지금까지 다뤄왔던 Regression과 아예 별개의 알고리즘인 Classification에 대해 상술한다.# 1 Classification1) Classification 개요- input variable과 output variable의 상관관계가 가장 높은 Mapping Function을 modeling한다는 점은 같으나, y 값이 discrete value 즉, categorical variable이라는 점이 다름- 더불어, Mapping Function 역시 회귀와 다른데, Classification은 Mapping Function을 Normalize(값 자체는 상관이 없으나 통상적으로 0에서 1사이의 범위로 설계하며, 가장 대표적인 Classification Mapping Fun.. [기계학습 3] Optimization, Multivariate Linear Regression(다변량 선형 회귀) - 본 게시물에서는 [기계학습 1~2] 게시물에서 지속적으로 언급됐던 Mapping Function Fw(Xn)의 파라미터 벡터 w 중 최적의 값을 찾아나가는 Optimazation 과정에 대해 상술 # Optimization Cost Function L(w)에 대해 아래와 같은 최적의 w벡터를 찾고자 함 # Grid Search : Optimazation 방식 1 - brute-force한 방식이지만 가장 간단한 방식으로, grid 내의 모든 w 값에 대한 cost를 연산한 후 가장 최적의 w 값을 선택한다.- 그러나, 'foor loops'가 너무 많으며, 이에따라 exponential computational complexity를 초래한다. # Gradient Descent(경사 하강법) : O.. [기계학습 1~2] AI/ML/DL 및 Linear Regression 개요, Cost Function - 본 게시물에서는 간단하고, 이해하기 쉬우며, 가장 널리쓰이고, 비선형 모델에 쉽게 일반화될수 있으며, ML/DL의 근간이 되는 Linear Regression에 대해 알아본다.- 사실 딥러닝도 Linear Regression만 제대로 이해하면 쉽게 이해할 수 있다고 하며, 의외로 AI 실무진들 중에서 Linear Regression에 대해 완벽히 설명할 수 있는 사람이 적다고 한다. #1 AI/ML/DL 개요 AI/ML/DL 분류- 시작된 시기와 각 분야별 커버하는 범위에 따라 분류 1) AI (Artificial Intelligence, 1950's ~)- "A science like mathematics or biology."- "It studies ways to build intellige.. [UDEMY-Deep Learning A to Z] 2-5. ANN Intuition - 경사하강법 (Gradient Descent) 본 게시물은 UDEMY 강좌 '딥러닝의 모든 것 with Python, Tensorflow, Pytorch'를 학습하고 요약한 게시물입니다. - 강좌 URL : https://www.udemy.com/course/best-artificial-neural-networks/ > 2-4단원까지의 내용 wrap - up - 신경망이 학습하려면 역전파가 일어나야 함 - 역전파 : ŷ와 y의 오차 또는 제곱 차이의 합이 신경망을 통해 역전파되고 그에 따라 가중치가 조정 - 본 게시물에서 다룰 내용 : 가중치가 어떻게 조정되는지 > 비용함수를 최소화시키는 방법 ① - 무차별 접근 방식 - 단순하게 대량의 가중치를 가져다가 비교해서 가장 근사한 값을 찾는 것 - 천 개의 가중치가 있다고 했을 때, 천개 가중치에 대한 .. [UDEMY-Deep Learning A to Z] 2-4. ANN Intuition - 신경망의 학습 방식 (How do NNs Learn?) 본 게시물은 UDEMY 강좌 '딥러닝의 모든 것 with Python, Tensorflow, Pytorch'를 학습하고 요약한 게시물입니다. - 강좌 URL : https://www.udemy.com/course/best-artificial-neural-networks/ > 프로그램 수행 방식 1) 하드코딩 - 프로그램에 구체적으로 규칙을 정해주고 원하는 결과를 알려주는 것으로, 프로그램이 처리해야 할 가능성이 있는 모든 옵션들을 설명해주는 것 2) 신경망 - 프로그램이 스스로 무슨 일을 하고 있는지 이해할 수 있는 기반을 만드는 것 → 우리의 목표는 스스로 학습하는 네트워크를 만드는 것으로, 규칙을 추가하는 일은 최대한 피할 것이다. > 예시 : 단층 피드포워드 신경망 (퍼셉트론) - 출력값과 실제값을.. [UDEMY-Deep Learning A to Z] 2-3. ANN Intuition - 신경망의 작동 방식 (How do NNs Work?) 본 게시물은 UDEMY 강좌 '딥러닝의 모든 것 with Python, Tensorflow, Pytorch'를 학습하고 요약한 게시물입니다. - 강좌 URL : https://www.udemy.com/course/best-artificial-neural-networks/ ※ 본 레슨에서는 훈련은 이미 되었다는 가정하에 실제 애플리케이션에만 집중할 것임 > 은닉층이 없는 간단한 신경망 예시 (예시 : 집 값 예측) - 입력변수에 시냅스에 의해 가중치가 부여되어서 출력층이 계산됨 - 출력값을 얻을 때, 지금 사용하고 있는 함수를 쓸 수도 있고, 활성화 함수를 쓸 수도 있고, 로지스틱회귀 공식 또는 제곱함수 등을 쓸 수도 있음. 요점은 출력값을 얻는다는 것 - 위의 상태만으로는 이미 대부분의 머신러닝 알고리즘.. 이전 1 2 다음