반응형
www.edwith.org/ai251/joinLectures/195088
주재걸 교수님의 <인공지능을 위한 선형대수> 강의를 듣고 개인적으로 정리한 글입니다. 공부하면서 지속적으로 업데이트 될 예정입니다. 잘못된 내용에 대한 지적은 댓글로 부탁드립니다. :)
Linear system
: Linear equations (혹은 Linear system)의 집합
Matrix → Vector
① Column combination
② Row combination
- 행렬과 벡터의 곱은 두 Column 벡터의 선형결합으로 이해할 수 있다.
- 선형방정식 (Ax = b)에 대해 b가 A의 Column space 내에 존재할 때만 해가 존재한다.
Span / Subspace / Basis
Linearly independent / dependent
Linear transformation
- 입출력 매커니즘 (=함수)
- input 벡터가 output 벡터로 어떻게 이동하는지? (basis 벡터가 어떻게 변하는지 관찰)
- 격자가 휘거나 원점의 위치가 변경되는 변환은 비선형변환
ONTO & ONE-TO-ONE
ONTO : 전체에 사영한다, 전사함수, 공역과 치역이 같은 함수
ONE-TO-ONE : 일대일 함수
이를 우리가 사용하는 Neural network와 엮어 생각해보면...
반응형
'컴린이 탈출기 > Mathematics' 카테고리의 다른 글
[선형대수] Ch4. 고유값 분해 (5) | 2021.04.25 |
---|---|
[선형대수] Ch3. Least Square (0) | 2021.04.21 |
[수리통계학] Properties of Point estimator and Methods of Estimation - MVUE 계산 흐름 정리 (4) | 2020.12.17 |
선형대수로 알아보는 PCA(주성분 분석) (0) | 2020.06.13 |