데이터사이언스/머신러닝

선형대수 개념 정리 (2)

누군가의 이야기 2021. 9. 14. 04:47
728x90

선형변환(Linear Transform) v = Ax

x -> Ax -> v

(m x n)행렬 A는 (m x 1)벡터 x와 (n x 1)벡터 v를 mapping해준다. 

아래 두 성질을 만족하면 선형:

A(x1 + x2) = A(x1) + A(x2) 

A(px1) = pA(x1)  

 

Range(image) & Null Space(kernel)

R(A) -> 모든 x를 A 선형변환에 대입했을 때 나올 수 있는 공간. 치역이라고 생각하면 이해 쉬움.

A의 컬램 벡터들의 span과 같다.

N(A) -> x중에서 A로 선형변환 했을 때 0으로 만드는 집합.

 

Rank

한 행렬 안에서 서로 독립인 컬럼 벡터의 수는 column rank.

한 행렬 안에서 서로 독립인 열 벡터의 수는 row rank.

행렬A가 (m x n)차원일 때, rank(A) <= min(m,n)이고, rank(A) = min(m,n)이면 full rank라고 한다.

주요 성질:

rank(A) = rank(A(T))

rank(AB) <= min(rank(A), rank(AB))

rank(A+B) <= rank(A) + rank(B)

 

역행렬(Inverse)

  • 역행렬이 존재하면 invertible 혹은 non-singular
  • 역행렬이 존재하지 않으면 singular
  • 역행렬이 존재하려면 null space가 0이다. -> 0벡터가 아닌 이상 0이 되지 않는다는 의미.
  • 정사각행렬 A가 역행렬이 존재한다면 A는 무조건 full rank
  • (A(-1))(T) = (A(T))(-1)

 

Norm (벡터의 길이)

p-norms

위 형태를 띠는 것이 p-norm인데, p값에 따라 l2 norm, l1 norm, l norm이 있다.

l2 norm (Euclidean norm) -> 일반적인 거리 공식

l1 norm (Manhattan norm) -> 수직 거리의 합

 

l norm (Max norm) -> 최대값

 

Frobenius Norm (행렬의 norm)

모든 원소들의 제곱의 합 = 그램행렬의 trace와 같다. 기억해두면 좋은 성질.

Frobenius Norm은 정규화 하는데 쓰인다.

 

 

Angle(벡터 사이의 각) 

l2 norm을 기준이다. 

내적 = norm x cosine 형태를 띠고 이를 기반으로 각도를 찾는다.

-> cosine은 방향의 유사도 척도, θ는 각도의 차이를 나타내는 척도

 

Orthogonal Vectors

-> 두 벡터의 내적이 0하면(직교한다는 의미) Orthogonal 하다고 표현한다.

 

Orthonomal vectors

-> 두 벡터가 Orthogonal하고 각각의 길이도 1이면 Orthonomal 하다고 표현한다.

 

Orthogonal Matrices

-> 행렬의 모든 컬럼 벡터가 서로 Orthonomal 하면 Orthogonal Matrices라고 표현한다.

728x90

'데이터사이언스 > 머신러닝' 카테고리의 다른 글

전이학습(Transfer learning)과 Fine-tuning  (0) 2021.11.21
선형대수 개념 정리 (4)  (0) 2021.09.17
선형대수 개념 정리 (3)  (0) 2021.09.14
선형대수 개념 정리 (1)  (0) 2021.09.12
기계학습 정의  (0) 2021.09.12