728x90

Linear Regression에서 gradient descent의 계산을 '벡터화'시켜서 행렬연산으로 만들자.

 

 

보통 저 시그마 연산을 for문으로 처리를 많이 한다.

 

그렇게 안하고 행렬연산으로 깔끔하게 할 수 있다.

 

 

먼저

 

 

 

이제 결과는 m X 1 의 행렬(열벡터)가 될 것이다.

 

결과행렬의 각 행에는 X의 j번째열의 i행을 곱한 뒤 모든 행을 더해주어야 한다.

 

그래서 X의 j번째열만을 추출한 행렬을 

이라 하자.

 

이제 

와 

의 각 행을 곱한 뒤 모두 더하면 된다.

 

두 행렬은 같은 m X 1의 행렬이므로 한 행렬의 전치 행렬을 취하여 행렬곱셈을 하면

 

각 행이 곱해진 뒤 모두 더해진다. 따라서

 

 

 

728x90

'Machine Learning > coursera' 카테고리의 다른 글

Neural Networks Representation 및 XOR 문제  (2) 2019.01.08
Classification  (0) 2016.02.29
Gradient Descent  (1) 2016.02.08
Cost Function - Intuition  (2) 2016.02.08
Linear Regression with one variable - Cost Function  (0) 2016.01.25

+ Recent posts