Machine Learning/coursera
Vectorization
고귀양이
2016. 2. 22. 14:13
728x90
Linear Regression에서 gradient descent의 계산을 '벡터화'시켜서 행렬연산으로 만들자.
보통 저 시그마 연산을 for문으로 처리를 많이 한다.
그렇게 안하고 행렬연산으로 깔끔하게 할 수 있다.
먼저
이제 결과는 m X 1 의 행렬(열벡터)가 될 것이다.
결과행렬의 각 행에는 X의 j번째열의 i행을 곱한 뒤 모든 행을 더해주어야 한다.
그래서 X의 j번째열만을 추출한 행렬을
이라 하자.
이제
와
의 각 행을 곱한 뒤 모두 더하면 된다.
두 행렬은 같은 m X 1의 행렬이므로 한 행렬의 전치 행렬을 취하여 행렬곱셈을 하면
각 행이 곱해진 뒤 모두 더해진다. 따라서
728x90