관리 메뉴

Storage Gonie

모두를 위한 딥러닝 제8강 ML lec 04 - multi-variable linear regression (*new) 본문

데이터 사이언스/모두를 위한 딥러닝

모두를 위한 딥러닝 제8강 ML lec 04 - multi-variable linear regression (*new)

Storage Gonie 2018. 9. 8. 02:42
반응형

# Linear Regression을 구현하기 위해 필요한 요소 3가지

- Gradient descent는 convex인 cost function에서 경사면을 따라 최소점으로 따라 내려가는 알고리즘임

# Multi-Variable Linear Regression 에서의 Hypothesis &  Cost function

# 행렬을 이용한 Multi-Variable Linear Regression의 Hypothesis 식 표현

- bias를 제거한 심플한 hypothesis


# H(X) = WX vs H(X) = XW 순서

- 이론에서는 WX 순서로 표현하지만 실제 multi-variable 모델을 구현하게되면 행렬을 사용하게 되는데 WX순서로는 바로 곱을 실행할 수 없다.

- 왜냐하면 [2, a] x [a, 4] = [2, 4] 이때 a가 같은 값이어야 하기 때문이다. 따라서 프로그래밍으로 행렬연산을 구현할 땐 XW순서로 해줘야 한다.


# 기타 numpy와 tensorflow에서 사용되는 행렬크기 표현

- numpy에서는 행렬에 원하는 만큼 들어올 수 있다는 크기 표현을 [-1, 숫자] 이런식으로 해주며

- tensorflow에서는 행렬에 원하는 만큼 들어올 수 있다는 크기 표현을 [None, 숫자] 이런식으로 해준다.


그림참고: https://youtu.be/kPxpJY6fRkY

반응형
Comments