728x90
Linear Regression에서 gradient descent의 계산을 '벡터화'시켜서 행렬연산으로 만들자.
보통 저 시그마 연산을 for문으로 처리를 많이 한다.
그렇게 안하고 행렬연산으로 깔끔하게 할 수 있다.
먼저
이제 결과는 m X 1 의 행렬(열벡터)가 될 것이다.
결과행렬의 각 행에는 X의 j번째열의 i행을 곱한 뒤 모든 행을 더해주어야 한다.
그래서 X의 j번째열만을 추출한 행렬을
이라 하자.
이제
와
의 각 행을 곱한 뒤 모두 더하면 된다.
두 행렬은 같은 m X 1의 행렬이므로 한 행렬의 전치 행렬을 취하여 행렬곱셈을 하면
각 행이 곱해진 뒤 모두 더해진다. 따라서
728x90
'Machine Learning > coursera' 카테고리의 다른 글
Neural Networks Representation 및 XOR 문제 (2) | 2019.01.08 |
---|---|
Classification (0) | 2016.02.29 |
Gradient Descent (1) | 2016.02.08 |
Cost Function - Intuition (2) | 2016.02.08 |
Linear Regression with one variable - Cost Function (0) | 2016.01.25 |