선형대수학, 그 열여덟 번째 이야기 | 역변환 ( Inverse Transformation )  By 위대한 멜론빵

Language :

이 글은 언어로 작성되어 있습니다.
사용하실 언어를 선택하십시오.

This post is written in Language.
Select the language you want to use.

この文は言語で作成されています。
使用する言語を選択してください。


선형 변환도 어디까지나 함수이기 때문에, 그 역함수를 생각할 수 있다.

 


     $V$ 와 $W$ 를 벡터 공간이라 하고, $T : V \rightarrow W$ 를 선형이라고 하자.

     이 때 함수 $U : W \rightarrow V$ 가 $T$ 의 inverse라고 불리려면 다음 조건을 만족해야 한다. $$TU = I_W\;\;\text{and}\;\;UT=I_V$$

 

이 때, $T$ 의 inverse 를 간단하게 $T^{-1}$ 이라 적는다.

 

그러나 모든 함수가 역함수가 존재하지는 않듯이, 모든 $T$ 의 inverse가 존재하는 것은 아니다. 그렇기 때문에 inverse가 존재하는 선형 변환 $T$ 를 특별히 invertible 하다고 한다. Invertible 할 조건은 역함수가 존재할 조건과 같이, one-to-one 이면서 onto 인 것이다.

 


     $V$ 와 $W$ 가 벡터 공간이고, $T : V \rightarrow W$ 가 선형이며 invertible 하다고 하자.

     이 때, $T^{-1} : W \rightarrow V$ 는 선형이다.

 

Proof

 

임의의 $y_1, y_2 \in W$ 와 $c \in F$ 를 생각하자. $T$ 는 one-to-one 이므로, 어떤 $x_1, x_2 \in V$ 가 유일하게 존재하여 $T(x_1) = y_1$ 이고 $T(x_2) = y_2$ 이다. 이는 곧 $x = T^{-1}(y_1)$ 이고 $x_2 = T^{-1}(y_2)$ 임을 의미한다. 따라서 $$\begin{align*} T^{-1} (cy_1 + y_2) &= T^{-1}[cT(x_1) + T(x_2)] = T^{-1}[T(cx_1 + x_2)] \\&= cx_1 + x_2 = cT^{-1}(y_1) + T^{-1}(y_2)\end{align*}$$ 이므로, $T^{-1}$ 은 선형이다.

 

또, 우리는 선형 변환에 대해 정의한 inverse 를 마찬가지로 행렬에 대해서도 정의할 수 있다.

 


     $A$ 가 $n \times n$ 행렬이라 하자. $A$ 가 invertible 하다고 부르기 위해서는

     어떤 $n \times n$ 행렬 $B$ 가 존재하여 $AB = BA = I_n$ 이어야 한다.

 

이 때 저러한 $B$ 를 $A$ 의 inverse라 한다. $B$ 가 유일함은 간단하게 보여질 수 있는데, 만약 $B, C$ 가 모두 $A$ 의 inverse 라면 $$C = CI = C(AB) = (CA)B = IB = B$$ 가 되어 $B = C$ 가 되기 때문이다. (위의 선형 변환에 대해서도 inverse가 유일함을 이와 같이 보일 수 있다.)

 

또, 선형 변환 $T$ 의 inverse 를 $T^{-1}$ 이라 적듯이 행렬 $A$ 의 inverse 도 $A^{-1}$ 이라 적는다.

 

 

그리고 항상 그렇듯이 선형 변환과 그에 해당하는 행렬은 invertible 에서도 어떠한 관계가 있다. 그를 알아보기 위해 보조정리 하나를 소개한다.

 


     $T : V \rightarrow W$ 가 선형이고, invertible 하다고 하자. $V$ 와 $W$ 가 유한 차원이라면,

     $\mathrm{dim}(V) = \mathrm{dim}(W)$ 이다.

 

Proof

 

$T$ 가 one-to-one 이고 onto 이므로, $\mathrm{nullity}(T) = 0$ 이고, $\mathrm{rank}(T) = \mathrm{dim}(R(T)) = \mathrm{dim}(W)$ 이다. 따라서 Dimension theorem 에 의해 $\mathrm{dim}(V) = \mathrm{dim}(W)$ 이다.

 

 

또, 이 글의 마지막 정리를 이용하면 $V$ 와 $W$ 중 한 쪽이 유한차원이면 다른 쪽도 유한차원임을 보장함을 쉽게 보일 수 있다. 이는 독자에게 맡긴다.

 

이제 선형 변환과 그에 해당하는 행렬이 invertible 에서 어떤 관련이 있는지 다음 정리를 통해 알아보자.

 


     $V$ 와 $W$ 가 유한 차원 벡터 공간이고, 순서기저로 각각 $\beta$ 와 $\gamma$ 를 가진다 하자.

     $T : V \rightarrow W$ 가 선형이라면, $$T \;\;\text{is invertible} \Leftrightarrow [T]_\beta^\gamma \;\;\text{is invertible}$$     게다가, $[T^{-1}]_\beta^\gamma = ([T]_\beta^\gamma)^{-1}$ 이다.

 

Proof

 

$T$ 가 invertible 하다고 가정하자. 위의 보조정리에 의해, $\mathrm{dim}(V) = \mathrm{dim}(W)$ 이다. 이 때 $\mathrm{dim}(V) = n$ 이라 놓으면 $[T]_\beta^\gamma$ 는 $n \times n$ 행렬이다. 또, $T^{-1} : W \rightarrow V$ 는 $TT^{-1} = I_W$ 와 $T^{-1} T = I_V$ 를 만족하므로, $$I_n = [I_V]_\beta = [T^{-1} T]_\beta = [T^{-1}]_\gamma^\beta [T]_\beta^\gamma$$ 이다. 같은 방법으로, $[T]_\beta^\gamma [T^{-1}]_\gamma^\beta = I_n$ 이다. 따라서 $[T]_\beta^\gamma$ 는 invertible 하고, $([T]_\beta^\gamma)^{-1} = [T^{-1}]_\gamma^\beta$ 이다.

 

이제, $A = [T]_\beta^\gamma$ 가 역행렬이 존재한다고 하자. 그렇다면 $n \times n$ 행렬 $B$ 가 존재해 $AB = BA = I_n$ 이다. 이 때, 이 글의 마지막 정리에 의해 $U \in \mathcal{L}(W, V)$ 가 존재하여 $$U(w_j) = \sum_{i=1}^{n} B_{ij}v_i$$ 이다. ($\gamma = \{w_1, w_2, \cdots, w_n \}$ 이고 $\beta = \{ v_1, v_2, \cdots, v_n \}$ 이다) 이는 곧 $[U]_\gamma^\beta = B$ 임을 의미한다.

 

이제 $U = T^{-1}$ 임을 보이자. 다음 식을 보면, $$[UT]_\beta = [U]_\gamma^\beta [T]_\beta^\gamma = BA = I_n = [I_V]_\beta$$ 자명하게 $UT = I_V$ 이고, 같은 방법으로 $TU = I_W$ 가 되어 $U = T^{-1}$ 이다.

 

 

위 정리는 우리에게 두 개의 자명한 따름정리를 준다.

 


     $V$ 가 유한 차원 벡터 공간이고 $\beta$ 를 순서 기저로 갖는다 하자.

     만약 $T \in \mathcal{L}(V)$ 가 선형이라면, $$T \;\;\text{is invertible} \Leftrightarrow [T]_\beta \;\;\text{is invertible}$$     이고, $[T^{-1}]_\beta = ([T]_\beta)^{-1}$ 이다.

 


     $A$ 가 $n \times n$ 행렬이라 하자. $A$ 가 invertible 함과 $L_A$ 가 invertible 함은 동치다.

     또한, $(L_A)^{-1} = L_{A^{-1}}$ 이다.

 

증명은 위 정리에 대입하는 것으로 종료되므로 생략한다.

댓글()