1) Determinants & Trace
2) Eigenvalues & Eigenvectors
3) Cholesky Decomposition
4) Eigendecomposition & Diagonalization
5) Sigular Value Decomposition
📌 Derterminant (행렬식) : Motivation (1)
- 2*2 Matrix
A=(a11a12a21a22) , A−1=1a11a22−a12a21(a22−a12−a21a11)
2*2 Matrix & 역행렬
a11a22−a12a21 = determinant
▶ 해당 항이 0인지 아닌지에 따라 determinant 값이 존재하는지 아닌지가 정해짐
- 3*3 Matrix
Gaussian elimination 도구 등을 이용하면 Determinant 공식 구할 수 있음

3*3 Matrix Determinant 패턴 발견

▶ 2*2 Determinant의 Recursive formular 형태로 정의 (e.g. A1,1)
🔎 A1,1 이란?
3*3 Matrix의 첫 번째 Entry 1,1 (첫 번째 Column & 첫 번째 Row) 제외한 Matrix
e.g.
[a11a12a13a21a22a23a31a32a33]
中
(a22a23a32a33) 부분
A1,1 Entry(=a11)가 앞에 들어가고 (−1)1+1, determinant(A1,1) +
A1,2=(a12) 곱해지고 (−1)1+2 여기는 {1,2}이기 때문에 1+2가 되는 것 determinat(A1,2) (=첫 번째 열과 두 번째 행을 제외한 Matrix를 의미) +
....
이런 식으로 2*2 Determinant를 사용해 계산한 식과 Original 3*3 Determinat entry가 서로 동치
∴ 3*3 Matrix를 2*2 Matrix로 재정의할 수 있다
▶Laplace expansion
이 형태를 이용해서 Determinant 정의
Determinant : Formal Definition

column과 row에 entry Determinant를 따로 정의할 수 있으며, 결국은 같은 개념
Determinant 정의 시, Sub-matrix Determinant의 Recursive Formula 정의 가능
명제.
det(A)≠0⟺rk(A)=n⟺A
Determinat가 0인지 아닌지에 따라 Matrix A의 역행렬이 존재하는지 아닌지 구분
Determinant의 성질
- det(AB) = det(A) det(B)
▶ det 연산과 행렬의 곱셈 연산은 분리될 수 있음
- det(A) = det(AT)
▶ det(A)는 det(A)의 transpose와 같음
- det(A−1) = 1/det(A)
▶ det의 inversion의 det는 1/det 와 같음
- traingular matrix1T,det(T)=∏ni=1Tii
▶ 트라이앵글 매트릭스는 Tii (Diagonal Entry)를 곱하면 계산할 수 있음
🔎 traingular matrix 란?
대부분의 오른쪽 위 삼각형 entry가 0, 반대쪽 entry만 살아있는 형태
📌 Trace
Matrix의 Diagonal Entry를 다 더한 형태
tr(A):=∑ni=1aii

- determinant가 곱셈에 대해 분리되었다면 trace는 덧셈에 대해 분리
📌 Eigenvalue & Eigenvector
matrix A가 주어졌을 때, Ax=λx 이면
Scala value인 λ와 x Vector를 Eigenvalue & Eigenvector로 부름
➕ det(A-λIn)=0 조건과 일치
e.g.
2*2 matrix가 있을 때, Dignal Entry에 λ를 빼고 determinat를 구하면
(4−λ)(3−λ)−2·1 = λ2−7λ+10 = 0
▶λ=2orλ=5 => Matrix Eigenvalue
Eigenvector E5λ=5 일 때, E5=span[(21)] ${2 \choose 1} 에 어떤 c를 곱한 어떤 Vector도 다 Eigenvetor가 됨
E2=span[(1−1)]
▶ Eigenvector가 unique하지 않음
🔎 Eigenvalue/Eigenvector 와 Trace/Determinant 사이의 연관관계
Determinant. Eigenvalue 들의 곱셈
det(A) = ∏ni=1λi
Trace. Eigenvalue 들의 덧셈
tr(A) = ∑ni=1λi
📌 Matrix Decomposition : Cholesky Decomposition
주어진 행렬을 어떤 작은 행렬 두 개의 곱셈으로 나타낼 수 없을까 (=분해, Decompostition)
Theorem 명제.
Matrix A가 symmetric(대칭)이고 positive definite (모든 Eigenvalue 값 > 0)일 때,
A=LLT
L ▶ Lower-triangular Matrix
→ 대부분의 Upper Entry가 0 , 밑에 Entry만 살아있는 형태 & Positive Diagonal
→ L은 unique하며 A의 Cholesky factor라고 부름
Decomposition 이유
분해할 경우, Determinant 계산이 쉬워짐
▶ Determinant는 곱셈에 대해 분리가 가능, det(A)=det(L)det(LT)
▶det(LT)=det(L)이므로,det(L)2
▶det(L)은 Lower-Triangular Matrix 이므로, ∏ilii (=diagonal entry 곱셈)
∴ det(A) = ∏iL2ii
📌 Eigendecomposition & Diagonalization
🔎 Diagonal Matrix and Diagonalization
Diagonal Matrix
Matrix 인데 Diagonal Entry 만 살아있고 나머지 Entry는 0인 형태
▶ 다양한 연산들이 쉽게 되는 여러가지 성질들을 가지고 있음
D(d1⋯0⋮⋮0⋯dn)
- Diagonal Matrix의 지수승, 즉 Dk 가 쉽게 표현됨 ( =Diagonal Entry만 k번 곱하면 됨)
Dk=(dk1⋯0⋮⋮0⋯dkn)
- Diagonal Matrix 역행렬도 Diagonal Entry 역수만 구하면 됨
D−1=(1/d1⋯0⋮⋮0⋯1/dn)
- Determinant도 Diagonal Matrix에 곱셈하면됨
det(D) = d1d2⋯dn
Q. 일반적인 Matrix를 Diagonal Matrix와 유사한 형태로 표현할 수 없을까?
A. Matrix A가 diagonalizable
D는 Diagonal matrix, P는 일반적인 Invertible Matrix
D=P−1AP.
e.g.
D2=(P−1AP)2=P−1APP−1AP=P−1A2P
Ak=PDkP−1
A. A가 diagonalizable 하면서 P가 orthogonal Matirx인 경우 (=P−1=PT)
D=P−1AP=PTAP
일반적인 Matrix도 Diagonal Matrix 성질 이용해서 쉬운 계산 가능
- Ak=PDkP−1
- det(A) = det(P)det(D)det(P^{-1})=det(D)=\prod_i d_{ii}$
Q. 그렇다면 어떤 Matrix를 PDPT 형태로 Diagonal하게 표현할 수 있을까?
A. A가 symmetric Matrix 인 경우, 항상 Orthogonally diagonalizable
▶ P는 Eigenvector를 모아놓은 Matrix, D는 Eigenvalue들을 모아놓은 Diagonal Matrix
A가 Symmetric 한 경우, Spectral theorem(스펙트럼 정리)에 의해
1) 모든 eigenvalue 가 실수(Real number)
2) eigenvector 들은 서로 수직하게 됨 ▶ PT=P−1
Eigenvalue & Eigenvector 정의 활용 시, AP=PD 성질 확인 가능
Q. A가 Symmetric 하지않고, Square Matrix도 아닌 경우 Matrix Decomposition이 가능한가?
A. Singular Value Decomposition
Eigne Value Decomposition 은 Symmetric Matrix에만 적용 가능
Singular Value Decomposition 은 일반적인 Matrix에 다 적용 가능
e.g.
A∈Rm×n
▶ Matrix A가 Symmeric, square 가 아님
S:=ATA, S는 항상 Symmetric 하고, Positive Semidefinite (정치 행렬, 정부호 행렬)
🔎 Positive Semidefinite
모든 Eigenvalue들이 0보다 큰 것
https://sine-qua-none.tistory.com/69
행렬이 양수다? positive semidefinite
금융공학을 공부하다 보면 자산간의 상관계수와 그 상관계수로 이루어진 행렬의 성질들을 잘 알아야 합니다. 또한 2차 형식이라 불리는 수학의 한 분야도 공간 속의 곡면을 분석하거나 최대/최
sine-qua-none.tistory.com
S에 대한 Eigendecomposition을 Original Matrix인 A에 대한 Decomposition 으로 활용할 방법
📌 Singular Value Decomposition
어떤 Matrix A가 있을 때,
A=U∑VT
U와 V는 항상 Orthogonal Matrix, UUT=I,VVT=I
∑는 Diagonal Matrix (Diagonal entry만 남아있고 나머지는 0이 되는 형태)
✅ Eigendecomposition : A=PDPT
▶ P는 eigne vector, D는 Diagonal Matrix, 앞과 뒤가 거의 유사한 형태
✅ Singular Value Decomposition : A=U∑VT
▶U와 V가 서로 다른 형태
- Sigma의 Diagonal entry를 singular value라고 부름
- U를 구성하는 Vector들을 Singular Vector, V를 구성하는 Vector는 Right Singular Vector
Q. 어떤 Matrix든 간에 U, ∑, V를 어떻게 구할 수 있는가?
A. 핵심은 Eigendecomposition
어떤 Matrix A라도 ATA를 하면 항상 Symmetric & Positive definite
▶ ATA=VDVT Eigendecomposition 적용 가능
V는 ATA의 Eigenvector들, D는 Eigenvalue 모아놓은 것
ATA가 Positive definite이기 때문에 D를 이루는 Entry들은 항상 0보다 크다
▶ λ1≥⋯≥λr≥λr+1=⋯λn=0
U의 vector들은
ui=Avi√λi,1≤i≤r
U∑=AV
🔔 EVD(Eigen Value Decomposition) vs. SVD (Singular Value Decomposition)
Eigen Value Decomposition
A=PDP−1
- Symmetric Matrix 나 Squrare Matrix에 한해서만 존재
Singular Value Decomposition
EVD의 확장형, U∑VT
- 항상 존재, Data 다룰 때 SVD가 더 유용하게 쓰이는 경우가 많음
- SVD가 EVD에서 왔기 때문에 항상 기억해야 함
- Matrix A AAT의 Eigenvalue Decomposition 과 동치
- 만약 A가 Symmetric 하면 EVD=SVD
'WorkOut > LG Aimers' 카테고리의 다른 글
LG Aimers | LLM (Large Language Models; 초거대 언어모델) (0) | 2024.07.24 |
---|---|
LG Aimers | Overfitting & Underfitting (머신러닝 과대적합 & 과소적합) (2) | 2024.07.23 |
LG Aimers | Machine Learning 개론 (9) | 2024.07.22 |
LG Aimers | Convex Optimization (볼록 최적화) (6) | 2024.07.22 |
LG Aimers | AI Essential Course & AI Ethics (0) | 2024.07.15 |