Processing math: 100%

호주 대학원 생존기/Mathematics

[Computational Statistics] Linear algebra for the linear models (선형모델해석을 위한 선형대수)

Bright_Ocean 2021. 7. 27. 14:55
반응형

 


왜 선형대수를 공부하는 것이  Linear model 들을 이해하는 데 도움이 될까?

이는 Confidence Interval을 구하기 위해서 평균(expectation) 혹은 분산(Variance) 또는 확률들을 구하여야 하는데,

데이터는 vector 혹은 matrices의 형태로 저장이 되기 때문에 이들의 연산을 수행하는 것이 필수적이다.

이번 포스팅은 이러한 Linear model들을 이해하기 위한 기본적인 선형대수들을 복습하는 포스팅이다.

너무 기초적인 내용들은 생략하였다.


1. Basics

▶ Dot product (설명 생략)

 

▶ Transposition

(XT)T=X

(XY)T=YTXT

XT=X이면 X는 symmetric 하다

 

▶ Inverse

X 가 Inverse matrix가 존재하는 경우 X는 nonsingular 하다

 (X1)1=X

(XY)1=Y1X1

(XT)1=(X1)T

 

이때 X,Y,XY,X1,XT모두 nonsingular 하다

 

 

2. Orthogonality

 

▶ Orthonomal set

Set of vectors {x1,x2,,xk}

모든 두 벡터가 서로 orthogonal 하고

각각의 벡터가 unit length를 가지면

Orthonormal set이라고 한다

 

 

▶ Orthogonal Matrices

Columns 혹은 rows가 orthonormal set을 가지면 orthogonal matrix라고 한다.

Square matrix X가 아래와 같은 성질을 가지면 orthogonal 하다.

XTX=I

따라서 X가 orthogonal 하면

X1=XT

 

3. Eigenvalues and eigenvectors

 

▶ eigenvalues, eigenvectors 구하는 법 (생략)

 

A 가 symmetric 하면 eigenvalue 들은 모두 실수이고, eigenvector들은 orthogonal 하다

 

A와 같은 사이즈를 가진 orthogonal matrix P 에 관하여 

PTAPA의 eigenvalues는 같다

 

▶ Diagonalization

ARk×k 이면, orthogonal matrix P가 존재하며

다음과 같은 성질을 가진다.

 

PTAP=[λ1000λ2000λk]

 

4. Rank

 

▶ Linear independent (설명 생략)

 

▶ Rank of X (r(X))는 Column space of X 의 가장 큰 linearly independent 한 vector의 수를 의미한다

 

 

▶ Rank Properties

r(X)=r(XT)=r(XtX)

XRk×k 인 경우 full rank 이면 (r(X)),
X는 nonsingular 하다
diagonal matrix의 rank는 nonzero diagonal entries의 수 이다.

 

 

5. Idempotence

A2=A

 

6. Trace

 

▶ Trace 정의 (생략)

 

▶ Trace properties 

cR,tr(cX)=ctr(X)

tr(X±Y)=tr(X)±tr(Y)

tr(XY)=tr(YX)

 

7. Quadratic forms

 

▶ Quadratic forms

ARk×k,yRk,qR

q=yTAy

 

▶ Positive definiteness

yTAy>0,y0

 

▶ eigenvalues 가 모두 양수이면 하면 symmetric matrix A는 positive definite하다.

 

▶Vector differentiation

z=aTy,  zy=a

z=yTy,  zy=2y

z=yTAy,  zy=Ay+ATy 

반응형