본문 바로가기

기계학습3

3. Linear Regression multiple variable (2) - gradient descent 1. Feature Scaling 다수의 feature가 있을때에 Linear Regression이 어떻게 적용되는지 지난 포스팅에서 다뤘다. 여기서는 Gradient descent를 어떻게 잘 활용할 수 있을지 알아 볼 것이다. Feature scaling이란 먼저, 각각의 피쳐들을 비슷한 스케일로 변형시키는 것이다. 이것이 왜 필요한 지 직관적으로 그래프로 살펴보도록 하자. 왼쪽의 그래프는 Feature Scaling 전이고 오른쪽은 후이다. 왼쪽은 피쳐들의 크기가 차이가 많이 나서 Gradient descent를 하는 cost function의 그래프가 타원형으로 찌그러져서 만들어지게 된다. 즉, 오른쪽 그래프 보다 더 많은 Gradient descent를 해야만 Global optima를 찾을 수.. 2021. 10. 17.
2. Linear Regression with multiple variable (1) 1. Multiple features 지난 번 포스팅에서는 x라는 feature 하나에 대해서만 Linear Regression을 적용해 보았다. 하지만, feature 하나로 예측하기란 사실상 어려운 경우가 많다. 때문에, 이번 포스팅에서는 여러 개의 feature를 사용하는 Linear Regression을 살펴보려고 한다. 저번부터 다루었던 집값 예측 문제를 살펴보도록 하자. 저번에는 단순히 집의 크기(size)만 가지고 예측을 했었다. 하지만, 집값에는 화장실 개수, 건축년도, 위치 등등 다양한 요소가 반영이 될 수 있다. 여기서 용어를 좀 확실히 정리하고 가도록 하자. 가장 오른쪽에 보이는 m은 Training data의 개수이다. 47이라는 소리는 data가 47개 있다는 뜻이다. x1, x2.. 2021. 10. 17.
1. 선형 회귀 ( Linear Regression) 1. 선형 회귀란? 아래와 같이 X를 입력하면 Y값이 나오는 시스템이 있다고 가정하자. X : [ 2015, 2016, 2017] Y : [ 2020, 2021, 2022] 우리는 직관적으로 보면 5가 더해진다고 생각이 가능하고, Y = X + 5라고 알 수 있다. 하지만, 데이터가 많아지고 식이 더 복잡해지면 사람의 두뇌로는 불가능하다. 그래서 우리는 컴퓨터에게 이런 문제를 대신 시켜야 한다. 그러면 컴퓨터는 어떻게 X + 5 라는 식을 유추해낼 수 있을까? 바로 선형회귀를 사용해서 풀 수 있다. 이걸 가능하게 하려면 먼저 가설을 세워야 한다. 간단하게 가설을 아래처럼 세워 보도록 하자. 이때, 앞의 예제랑 비교하면 θ1은 1, θ0은 5이다. 우리 컴퓨터는 이 θ들을 '어떻게든' 찾아내는게 목표다. .. 2021. 9. 8.