Linear Transformation and Matrices
Dimensions, Change of Basis, Linear transformation, Null spaces, Range spaces, Matrix representations and linear transformations
- 1. Dimensions
- 2. Change of basis
- 3. Linear transformations, null spaces, and range spaces
- 4. Matrix representations and linear transformations
1. Dimensions
\((X,F) : \text{vector space} \\ V=\{v_1, v_2, ... v_n\} \subset X\) 라고 하자
이때 $X$의 원소들이 $V$의 원소들의 선형결합으로 유일하게 표현되면 $V$를 $X$의 basis라고 한다. 또한 이 역도 성립한다.
\[V \text{ is the basis of X } \\ \leftrightarrow x \in X \text{는 } V\text{ 원소들의 선형결합으로 유일하게 표현된다}\]proof
1) $\rightarrow$
- 가정 : 만일 $V$가 $X$의 basis라면, \(X=span(V) \rightarrow x=\alpha_1 v_1 + .. +\alpha_n v_n\)
- 만일 유일하지 않다면,
\(x = \alpha_1 v_1 + ... +\alpha_n v_n = \beta_1 v_1 + ... \beta_n v_n \\ x-x = 0 = (\alpha_1 \beta_1)v_1 + .... + (\alpha_n - \beta_n)v_n\) - $ \because V = basis(X) \rightarrow v_i, v_j \text{ : linear independent} $
$\therefore a_k - b_k = 0 \rightarrow a_k = b_k $
1) $\leftarrow$
- 가정 : $X$ 라는 vector space에서 임의의 $x$를 끌어냈더니, 다음과 같이 표현된다.
\(x = \alpha_1 v_1 + \alpha_2 v_2 + ... +\alpha_n v_n\) - 이는 $span(V) = X$ 라는 뜻
$x = \alpha_1 v_1 + \alpha_2 v_2 + … + \alpha_n v_n$으로 유일하게 표현되므로 basis를 알고 있다면 그 계수($\alpha_k$)만으로 vector $x$를 표현할 수 있을 것이다. x는 행렬일 수도, 다항식일 수도, 함수일 수도 있지만, 계수는 scalar로 정의되어 있으므로 계수들로 vector를 표현할 수 있다면 다루기 쉬워진다.
basis가 주어진다면, \(\begin{bmatrix} \alpha_1 \\ \alpha_2 \\ .\\ .\\ .\\ \alpha_n \\ \end{bmatrix}\) 처럼 column vector와 동일하게 임의의 vector를 표현할 수 있다.
Replacement Theorem
\[(X,F) : \text{vector space}\\ V = \{v_1, v_2, ... , v_n\} \subset X, V \text{ is a basis for X}\\\] \[U = \{u_1, u_2, ... , u_m\} \subset X, U \text{ is linearly independent} \rightarrow m \leq n\]Proof
$m>n$ 이고 U는 선형독립이라고 가정해보자
\(V_k := \{u_1, u_2, ... ,u_k,v_{k+1}, ... v_n\} (0 \leq k < n)\) 가정해보자
$ X = span(V_k) $ 라고 가정해보자
가정에 의해 $u_{k+1} \in X$는 나머지 $u_1, …, u_k,v_{k+1}, … ,v_n$의 선형조합으로 표현할 수 있다.
$a_1 u_1 + … + a_k u_k + a_{k+1} u_{k+1}+a_{k+2} v_{k+1} + … + a_{n+1} v_n = 0$에서 $u_{k+1}$ 때문에 위 식을 만족하려면 0이 아닌 $\alpha$들이 있을 것이다.
- 0이 아닌 계수는 어디에 있을 것인가?
- $a_{k+2} … a_{n+1}$ 사이에 있다.
- 만일 위 구간에 0이 아닌 계수가 없다면. 즉 모두 0이라면 0이 아닌 계수는 $\alpha_1, … , \alpha_{k+1}$ 사이에 있어야 한다.
- 즉 $\alpha_1 u_1 + … +\alpha_k u_k + \alpha_{k+1} u_{k+1} = 0$ 이다.
- $\because U$ 는 선형독립이므로, $\alpha_1 = … = \alpha_k = 0$ 이다.
- $\alpha_{k+1} = 0$ 이 된다. $\rightarrow$모든 계수가 0이 되어 가정에 모순된다.
- $\therefore$ 0이 아닌 계수는 $a_{k+2} … a_{n+1}$
- $a_{k+2} … a_{n+1}$ 사이에 있다.
- 0이 아닌 계수를 $\alpha_{k+2}$ 라고 해보자
- $\alpha_{k+2}v_{k+1} = -\alpha_1 u_1 - … - \alpha_{n+1} v_n$
- $\rightarrow v_{k+1} = \text{ linear combination of } {u_1, … ,u_{k+1},v_{k+2},…,v_n}$
- 즉 $u_{k+1}$을 이용해 $v_{k+1}$을 대체할 수 있다는 뜻
- \(V_{k+1}= \{ u_1, u_2, ... ,u_k,u_{k+1},v_{k+2}, ...., v_n\}\)이 되며
- $X = span(V_{k+1})$ 이 된다.
위 과정을 $k=1,…,n$까지 하게 되면 $V_n={u_1,…u_n}$이 되게 된다. 즉 $X=span(V) \rightarrow X=span(V_n)$
처음 시작할 때 가정에서 $m>n$이라고 했으니 $u_{n+1} \in U$이다. $u_{n+1} \in X$이고 $X=span(V_n)$이므로, $u_{n+1} \in U$는 $U$가 선형 독립이 아니라는 뜻이 된다. 이는 모순적이므로 $U$가 선형독립이기 위해서는 $m \leq n$ 이어야 한다.
Theorem 2
\[(X,F) : \text{vector space} \\ V = \{v_1, v_2, ... ,v_n\} \subset X, V \text{ is a basis for } X \\ U = \{u_1, u_2, ... ,u_n\} \subset X, U \text{ is a basis for } X \\ \rightarrow m=n\]Def. of Dimensions
\[basis\text{의 개수를 } dimension(=dim(X))\text{이라고 한다.}\]2. Change of basis
\[(X,F) : \text{vector space} \\ V = \{v_1, v_2, ... ,v_n\} \in X, V \text{ is a basis for } X \text{라고 하자}\\ W = \{w_1, w_2, ... ,w_n\} \in X, W \text{ is a basis for } X \text{이면, } \\ x (\in X )\text{를 계수 }\alpha \text{와 }V\text{의 선형조합으로 표현할 수도 있고}, \\ \text{또 다른 계수 }\beta \text{와 } W\text{의 선형조합으로 표현할 수 있다.}\]Change of Basis에서는 $\alpha \leftrightarrow \beta$와의 관계를 알아본다.
알아봅시다!
basis $V$의 i번째 column vector를 basis $W$의 선형결합으로 쓸 수 있다.
$P_{ij}$는 임의의 선형 결합 계수.
\(x \in X, \\
x = [v_1 ... v_n]\alpha = [w_1 ... w_n]\beta \\
v_i := \text{i 번째 column vector를 } \\
= [w_1 ... w_n]\begin{bmatrix} P_{1i} \\ P_{2i} \\ ... \\ P_{ni} \end{bmatrix} \\\)
이를 $i=1 … n$으로 확장하면 다음과 같다.
\[\rightarrow [v_1 ... v_n] = [w_1 ... w_n] \begin{bmatrix} P_{11} & ... & P_{1n} \\ P_{21} & ... & P_{2n} \\ ... &... &... \\ P_{n1} & ... & P_{nn} \end{bmatrix}\] \[x = [v_1 ... v_n] \alpha \\ = [w_1 ... w_n] \begin{bmatrix} P_{11} & ... & P_{1n} \\ P_{21} & ... & P_{2n} \\ ... &... &... \\ P_{n1} & ... & P_{nn} \end{bmatrix} \alpha \\ = [w_1 ... w_n] \beta\]위와 같은 사실로부터 아래의 결과를 도출할 수 있다.
\(\beta= \begin{bmatrix} P_{11} & ... & P_{1n} \\ P_{21} & ... & P_{2n} \\ ... &... &... \\ P_{n1} & ... & P_{nn} \end{bmatrix} \alpha\)
3. Linear transformations, null spaces, and range spaces
Linear transformations
줄여서 LT라고 부르기도 한다.
\[(X,F), (Y,F) : \text{vector space} \\\]$(X,F)$를 $(Y,F)$로 다음과 같이 transformation 하는 함수 L을 linear transformation이라고 부른다.
1) $L(\alpha x)= \alpha L(x), \forall x \in X, \forall \alpha \in F$
2) $L(x_1 + x_2) = L(x_1) + L(x_2), \forall x_1, x_2 \in X$
3) $L(0) = 0$
Range Space
The range space $R(L)$ of a linear transformation $L$ from $(X,F)$ into $(Y,F)$ is a subset of $(Y,F)$ defined by \(R(L) := \{y \in Y : y=L(x) \text{for some } x \in X \}\)
즉 입력($x$)에 대해서 선형 변환 후 나올 수 있는 모든 결과($y$)들의 집합
- $R(L)$은 $(Y,F)$의 subspace이다.
Null space
The null space $N(L)$ of a linear transformation $L$ from $(X,F)$ into $(Y,F)$ is a subset of $(Y,F)$ defined by \(N(L) := \{x \in X : L(x) = 0\}\)
선형변환하고 봤더니 결과($y$)가 0으로 나오는(맵핑되는) 모든 입력($x$)들의 집합
- $N(L)$은 $(X,F)$의 subspace이다.
Theorem
$ L : (X,F) \rightarrow (Y,F), \text{ linear transformatoin}$ 일 때 다음의 말은 모두 같은 말이다.
1) The mapping $L$ is one to one
2) $N(L)$ is trivial, that is $N(L)={0}$
3) $L$ maps linearly independent vectors in $X$ into a linearly independent vectos in $Y$
proof $2 \rightarrow 1$
- pick $x,v \in X$
- lets $L(x) = L(V)$
- $L(x) - L(v) = 0 = L(x-v)$
- $\because N(L) = {0} \rightarrow x-v=0 \rightarrow x=v$
proof $1 \rightarrow 2$
- lets $N(L) \neq {0}$
- $L(x) = 0, for x \in N(L), x\neq 0$
- $L(0) = 0 (\because L \text{ is linear transformation})$
- $x$는 0이 아닌데, 0으로 가는 입력값에 0이 있음
- one-to-one(1의 전제)가 깨진다.
- 2번이 아니면 1번이 아니다(대우)를 보였으니 1번이면 2번인 것
proof $2 \rightarrow 3$
- linearly independenent vectors $v_i \in X, i=1 … k$
- $ w_i = L(v_i), i=1 … k $
- lets $\alpha_1 w_1 + … + \alpha_k w_k = 0$
- $\alpha_1 w_1 + … + \alpha_k w_k = L(\alpha_1 v_1 + … +\alpha_k v_k) $
- $\because N(L)={0} \rightarrow \alpha_1 v_1 + … +\alpha_k v_k = 0 $
- $\because v_i \text{ is linearly independent} \rightarrow \alpha_1 = … =\alpha_k = 0$
- $\therefore w_i \text{ is also lineary independent} $
proof $3 \rightarrow 2$
- lets $N(L) \neq {0}$
- $N(L) \subset X$
- nullspace에 속하는 원소$x(\neq 0)$로 만든 집합 \(\{x\}\)은 linearly independent
- 이 $x$를 $L$로 씌우면 \(\{L(x)\} = \{0\}\) 인데, \(\{0\}\)은 linearly dependent 임.
- 2번이 아니면 3번도 아님(대우)을 보였으므로 2번이면 3번인 것.
Nullity and Rank
- nullity : $N(L)$의 dimension
- rank : $R(L)$의 dimension
Dimension Theorem
\[dim(X) = nullity(L) + rank(L) = dim(N(L)) + dim(R(L))\]4. Matrix representations and linear transformations
선형 변환은 행렬 곱으로 나타날 수 있다!!
$X,Y : \text{vector space}$라고 할 때 $x\in X$는 $X$의 basis vector들의 선형 결합, $y \in Y$는 $Y$의 basis vector들의 선형 결합이고, $L$은 이 선형 결합 계수를 적당히 잘 변환해주는 장치인 셈이다.
basis가 정해지면 계수로 vector space 내 임의의 vector를 특정할 수 있으므로 $X$와 $Y$의 basis를 정의한 후에는 선형 변환 $L$을 행렬로 표현할 수 있다.
\[V := \text{ basis of X} \\ W := \text{ basis of Y} \\ A = [L]_{V,W} := \text{ basis } V \rightarrow \text{basis} W \text{ 로 가는 선형 변환 행렬}\]$A$는 어떻게 찾을까?
$X$의 basis를 $L$을 통해 $Y$로 보내고 해당 vector를 $Y$의 basis $W$의 선형결합으로 표현한다.
\[\begin{bmatrix} Lv_1 & ... & Lv_n\end{bmatrix} = \begin{bmatrix} w_1 & ... & w_n\end{bmatrix} \begin{bmatrix} \alpha_{11} & ... & \alpha_{1n} \\ ... & ... & ... \\ \alpha_{n1} & ... & \alpha_{nn} \\ \end{bmatrix} \\ \rightarrow \begin{bmatrix} \alpha_{11} & ... & \alpha_{1n} \\ ... & ... & ... \\ \alpha_{n1} & ... & \alpha_{nn} \\ \end{bmatrix} = A\]임의의 vector $x \in X$를 $R(L)$로 보낸다고 해보자
\[x = \gamma_1 v_1 + ... + \gamma_n v_n \\ L(X) = L(\gamma_1 v_1 + ... + \gamma_n v_n) \\ = \gamma_1 L(v_1) + ... + \gamma_n L(v_n) \\ = \begin{bmatrix} Lv_1 & ... & Lv_n \end{bmatrix} \begin{bmatrix} \gamma_1 \\ ... \\ \gamma_n \end{bmatrix} \\ = \begin{bmatrix} w_1 & ... & w_n\end{bmatrix} \begin{bmatrix} \alpha_{11} & ... & \alpha_{1n} \\ ... & ... & ... \\ \alpha_{n1} & ... & \alpha_{nn} \\ \end{bmatrix} \begin{bmatrix} \gamma_1 \\ ... \\ \gamma_n \end{bmatrix} \\ = \begin{bmatrix} w_1 & ... & w_n\end{bmatrix} A \gamma \\ = \begin{bmatrix} w_1 & ... & w_n\end{bmatrix} \beta \\ \rightarrow \beta = \begin{bmatrix} \beta_1 \\ ... \\ \beta_n \end{bmatrix} = A\gamma\]Examples
- 미분 $d \over ds$
Similarity Transformation
두 정방행렬(n by n) $A,B$가 있다. 두 행렬 사이에 $A=T^{-1}BT$로 표현할 수 있는 nonsingular matrix $T$가 있다면, $A,B$는 similar 라고 부른다.
그리고 이때의 $T$를 similarity transformation 이라고 부른다.
$A$ : $V$ basis에서 $L$을 나타내는 행렬
$B$ : $W$ basis에서 $L$을 나타내는 행렬
$P$ : $V \rightarrow W$로 가는 좌표변환 행렬
$P^{-1}$ : $W \rightarrow V$로 가는 좌표변환 행렬
$A = P^{-1}BP$