※기본적으로 벡터는 컬럼 벡터로 여긴다는 것을 유의한다.
단위행렬 (Identity Matrix)
대각행렬 (Diagonal Matrix)
꼭 정사각형 아니고 직각 대각행렬도 존재한다.
행렬과 벡터의 곱
위의 연산은 A행렬의 행벡터와 x벡터를 곱한 값을 나열한 꼴로 표현하였고,
아래 연산은 열벡터와 스칼라값의 선형결합 형태로 표현되었다.
같은 연산도 다양한 관점으로 해석될 수 있음을 유의. 이를 파악하여 이해할 수 있는게 중요함.
행렬과 행렬간의 곱도 마찬가지이다.
대각행렬과의 연산
대각행렬과의 곱은 기존 행렬과 스칼라의 곱인 선형결합 형태를 띤다.
자주 쓰이기 때문에 빠르게 적용할 줄 알면 좋다.
내적(inner product)과 외적(outer product)
대칭행렬(Symmetric Matrix)
주 대각선을 기준으로 대칭되는 두 원소가 같은 행렬
거리 행렬, 공분산 행렬 등에서 잘 활용됨.
편리하기 때문에 정사각행렬이 아닌 직각 행렬의 경우, Transpose 시켜주어 기존행렬에 곱하면 대칭행렬이 된다.
이를 그램행렬(Gram Matrix)라고 한다.
Trace(주 대각선 원소들의 합)
trABC = trACB = trCBA -> trace의 성질 중 하나
선형결합(Linear Combination)은 각 항에 상수를 곱하고 결과를 추가함으로써 일련의 항으로 구성된 표현식이다.
ex) v1,...,vn이 벡터이고, a1,...,an이 스칼라인 경우에 -> 해당 스칼라와 계수의 선형 결합은 a1v1 + a2v2 + ... +anvn
선형독립(Linear Independence)은 이미 알고 있는 벡터들간의 선형결합으로 만들 수 없으면 선형독립이라 한다.
Span은 주어진 n개의 벡터의 선형결합으로 만들 수 있는 모든 벡터(점)들의 집합 공간을 의미한다.
n개의 선형독립인 벡터의 개수로 span된 공간의 차원이 결정된다.
'데이터사이언스 > 머신러닝' 카테고리의 다른 글
전이학습(Transfer learning)과 Fine-tuning (0) | 2021.11.21 |
---|---|
선형대수 개념 정리 (4) (0) | 2021.09.17 |
선형대수 개념 정리 (3) (0) | 2021.09.14 |
선형대수 개념 정리 (2) (0) | 2021.09.14 |
기계학습 정의 (0) | 2021.09.12 |