Tag: ML

0

RNN, LSTM

RNN & LSTMRNN 일반적인 neural network는 위 그림 맨 왼쪽처럼 input이 있고 그에 따른 hidden layer, output이 있어서 one to one 관계로 표시될 수 있다. 맨 왼쪽을 제외한 나머지를 RNN의 형태라고 볼 수 있는데 one to many : Image captioning , 즉 이미지를 설명하기 위한

0

Machine Learing - Coursera(week7)

Large Margin ClassificationOptimization ObjectiveSVM에대해 배워볼것이다. Logistic regression의 hypothesis는 위와 같이 sigmoid 로 나타냈었다. m = 1, 데이터가 하나인 경우에 cost function을 살펴보면 아래와 같다. first term은 왼쪽 그래프와 같이 그려지고,

0

Machine Learing - Coursera(week6)

Evaluating a Learning AlgorithmDeciding What to Try Next여러가지 문제로 당신의 머신러닝 시스템이 예측을 제대로 못할수가 있다. 앞으로는 여러분들의 삽질(?)을 줄일 수 있는 테크닉들에 대해서 알아볼 것이다. 위 그림의 아래에 적은 리스트 처럼, get more training example을 할수도 있다. 그

0

Machine Learing - Coursera(week4)

Non-linear Hypothesis 왼쪽 위 그래프처럼 나타난 비선형 문제의 cost function을 이전에는 n차 다항식의 sigmoid 표현해 봤다. 그런데 몇차까지 가야 잘 표현할 수 있을지, feature 의 개수가 100개정도로 많을때 차수가 많아짐에따라서, feature간의 곱으로 표현함(위처럼)에 따라서 굉장히 많은 식들이 나올 수가 있고

0

Machine Learing - Coursera(week3)

logistic regression에 관련한 h(x), cost function , multiclass Classification, Gradient Descent 외에 다른 알고리즘을 쓰는 부분은 다음 링크 or “모두의 딥러닝” 정리 노트로 대신한다. https://1ambda.github.io/data-analysis/machine-learning-w

0

Machine Learing - Coursera(week2)

multivariate Linear regression지금까지 feature가 하나인 linear regression문제를 풀었고, 이제 feature가 여러개일때에 linear regression 문제를 풀어보도록 한다. 가설함수 h(x)는 위와 같이 나타낼 수 있고, 이때 x0 = 1이라고 정하면 벡터 X와 벡터 세타는 위와 같이 정의할 수 있고,

0

Machine Learing - Coursera(week1)

위와 같이 집가격을 예측하는 문제가 있다고 하자. 이것은 “right answer” data 가 주어지는 supervised learning 이고, 또한, continuous value output을 예측하는 regression problem이다. cost function 설계 m : training example cost function “J”

0

모두를 위한 딥러닝(1)

모두를 위한 딥러닝 정리노트 #1김성훈 교수님의 유투브강좌를 듣고 정리한 내용입니다.https://www.youtube.com/watch?v=BS6O0zOGX4E&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm Machine LearningLimitation of explicit programming spam filter :