데이터사이언스/머신러닝

선형대수 개념 정리 (1)

누군가의 이야기 2021. 9. 12. 13:29
728x90

※기본적으로 벡터는 컬럼 벡터로 여긴다는 것을 유의한다.

 

단위행렬 (Identity Matrix)

 

대각행렬 (Diagonal Matrix)

꼭 정사각형 아니고 직각 대각행렬도 존재한다.

 

행렬과 벡터의 곱

위의 연산은 A행렬의 행벡터와 x벡터를 곱한 값을 나열한 꼴로 표현하였고,

아래 연산은 열벡터와 스칼라값의 선형결합 형태로 표현되었다.

같은 연산도 다양한 관점으로 해석될 수 있음을 유의. 이를 파악하여 이해할 수 있는게 중요함.

행렬과 행렬간의 곱도 마찬가지이다.

 

대각행렬과의 연산

대각행렬과의 곱은 기존 행렬과 스칼라의 곱인 선형결합 형태를 띤다.

자주 쓰이기 때문에 빠르게 적용할 줄 알면 좋다.

 

내적(inner product)과 외적(outer product)

 

대칭행렬(Symmetric Matrix)

주 대각선을 기준으로 대칭되는 두 원소가 같은 행렬

거리 행렬, 공분산 행렬 등에서 잘 활용됨.

편리하기 때문에 정사각행렬이 아닌 직각 행렬의 경우, Transpose 시켜주어 기존행렬에 곱하면 대칭행렬이 된다.

이를 그램행렬(Gram Matrix)라고 한다. 

 

Trace(주 대각선 원소들의 합)

trABC = trACB = trCBA -> trace의 성질 중 하나

 

 

선형결합(Linear Combination) 각 항에 상수를 곱하고 결과를 추가함으로써 일련의 항으로 구성된 표현식이다.

ex) v1,...,vn이 벡터이고, a1,...,an이 스칼라인 경우에 -> 해당 스칼라와 계수의 선형 결합은 a1v1 + a2v2 + ... +anvn

 

선형독립(Linear Independence)은 이미 알고 있는 벡터들간의 선형결합으로 만들 수 없으면 선형독립이라 한다.

 

Span주어진 n개의 벡터의 선형결합으로 만들 수 있는 모든 벡터(점)들의 집합 공간을 의미한다.
n개의 선형독립인 벡터의 개수로 span된 공간의 차원이 결정된다.

728x90

'데이터사이언스 > 머신러닝' 카테고리의 다른 글

전이학습(Transfer learning)과 Fine-tuning  (0) 2021.11.21
선형대수 개념 정리 (4)  (0) 2021.09.17
선형대수 개념 정리 (3)  (0) 2021.09.14
선형대수 개념 정리 (2)  (0) 2021.09.14
기계학습 정의  (0) 2021.09.12