Archive: 2018
Machine Learing - Coursera(week7)
Large Margin ClassificationOptimization ObjectiveSVM에대해 배워볼것이다. Logistic regression의 hypothesis는 위와 같이 sigmoid 로 나타냈었다. m = 1, 데이터가 하나인 경우에 cost function을 살펴보면 아래와 같다. first term은 왼쪽 그래프와 같이 그려지고,
Machine Learing - Coursera(week6)
Evaluating a Learning AlgorithmDeciding What to Try Next여러가지 문제로 당신의 머신러닝 시스템이 예측을 제대로 못할수가 있다. 앞으로는 여러분들의 삽질(?)을 줄일 수 있는 테크닉들에 대해서 알아볼 것이다. 위 그림의 아래에 적은 리스트 처럼, get more training example을 할수도 있다. 그
Machine Learing - Coursera(week4)
Non-linear Hypothesis 왼쪽 위 그래프처럼 나타난 비선형 문제의 cost function을 이전에는 n차 다항식의 sigmoid 표현해 봤다. 그런데 몇차까지 가야 잘 표현할 수 있을지, feature 의 개수가 100개정도로 많을때 차수가 많아짐에따라서, feature간의 곱으로 표현함(위처럼)에 따라서 굉장히 많은 식들이 나올 수가 있고
Machine Learing - Coursera(week3)
logistic regression에 관련한 h(x), cost function , multiclass Classification, Gradient Descent 외에 다른 알고리즘을 쓰는 부분은 다음 링크 or “모두의 딥러닝” 정리 노트로 대신한다. https://1ambda.github.io/data-analysis/machine-learning-w
Machine Learing - Coursera(week2)
multivariate Linear regression지금까지 feature가 하나인 linear regression문제를 풀었고, 이제 feature가 여러개일때에 linear regression 문제를 풀어보도록 한다. 가설함수 h(x)는 위와 같이 나타낼 수 있고, 이때 x0 = 1이라고 정하면 벡터 X와 벡터 세타는 위와 같이 정의할 수 있고,
Machine Learing - Coursera(week1)
위와 같이 집가격을 예측하는 문제가 있다고 하자. 이것은 “right answer” data 가 주어지는 supervised learning 이고, 또한, continuous value output을 예측하는 regression problem이다. cost function 설계 m : training example cost function “J”
모두를 위한 딥러닝(1)
모두를 위한 딥러닝 정리노트 #1김성훈 교수님의 유투브강좌를 듣고 정리한 내용입니다.https://www.youtube.com/watch?v=BS6O0zOGX4E&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm Machine LearningLimitation of explicit programming spam filter :
JPA vs Mybatis (1)
첫 포스트로 논란거리로 자주 오르락내리는 JPA 와 MyBatis에 대해 얘기하고자 한다. 관계형 데이터베이스(RDB)와 아키텍쳐두개를 비교하기 전에 아키텍쳐 얘기를 먼저 해야할 것 같다. 엔터프라이즈 시스템에서 주요 데이터들은 장기적, 안정적으로 사용되어야 하므로 주로 RDB에 저장되었다. 이렇게 RDB를 데이터 저장소로 쓰면서 서비스의 대부분은 SQL