일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 강화학습
- Class
- 딕셔너리
- 딥러닝
- 델
- 벡터 해석
- 회로이론
- 코드업
- 이진탐색트리
- 백트래킹
- 계단 오르기
- auto-encoder
- 자바
- dictionary
- 자료형
- 벡터해석
- Python
- cURL
- java
- 미분 방정식
- 피보나치 수열
- 선적분
- 신경망
- 소행성
- 파이썬
- 2P1L
- Asteroid RL
- 함수
- BST
- 최단 경로
- Today
- Total
Zeta Oph's Study
[벡터 해석학] Jacobian Matrix 본문
오랜만에 수학 글
이 글에서는 Jacobian Matrix에 대해 다루어 보도록 하겠습니다.
Gradient 글에서 gradient는 다변수 스칼라 함수의 일차 도함수를 의미한다고 했습니다.
https://crane206265.tistory.com/25
[벡터 해석] 델 연산자 (Del Operator) - (2) 그래디언트 (Gradient)
델 연산자 두 번째 글, 그래디언트(gradient)에 대해 다루어 보도록 하겠습니다. Gradient $$\nabla f=\frac{\partial f}{\partial x}\mathbf{\hat{i}}+\frac{\partial f}{\partial y}\mathbf{\hat{j}}+\frac{\partial f}{\partial z}\mathbf{\hat
crane206265.tistory.com
이와 비슷하게, Jacobian Matrix는 다변수 벡터 함수, 즉 입력이 벡터이고 출력 또한 벡터인 함수의 일차 도함수라고 할 수 있습니다.
우선, 벡터 함수 $\mathbf{F}(\mathbf{x})=(F_1(\mathbf{x}), F_2(\mathbf{x}), \cdots, F_n(\mathbf{x}))$ (이때, $\mathbf{x}=(x_1, x_2, \cdots, x_m)$)의 Jacobian Matrix $J(\mathbf{F})$는 아래와 같이 정의됩니다.
$$J(\mathbf{F})= \begin{bmatrix} \frac{\partial F_1}{\partial x_1} & \frac{\partial F_1}{\partial x_2} & \cdots & \frac{\partial F_1}{\partial x_m} \\ \frac{\partial F_2}{\partial x_1} & \frac{\partial F_2}{\partial x_2} & \cdots & \frac{\partial F_2}{\partial x_m} \\ \vdots & \vdots & \ddots & \vdots \\ \frac{\partial F_n}{\partial x_1} & \frac{\partial F_n}{\partial x_2} & \cdots & \frac{\partial F_n}{\partial x_m} \end{bmatrix} = \begin{bmatrix} \mathbf{\nabla}F_1(\mathbf{x}) \\ \mathbf{\nabla}F_2(\mathbf{x}) \\ \vdots \\ \mathbf{\nabla}F_n(\mathbf{x}) \end{bmatrix} $$
왜 Jacobian Matrix가 다변수 벡터 함수의 일차 도함수의 의미를 가지는지 눈치 채셨나요?
다변수 스칼라 함수의 일차 도함수가 gradient입니다. 한편 벡터 함수는 각 성분별로는 스칼라 함수로 생각할 수 있습니다. 즉, 스칼라 함수를 묶어놓은 벡터 내지는 순서쌍을 벡터 함수로 생각할 수 있습니다. 그렇다면, 그 각각의 스칼라 함수에 대해 일차 도함수를 구한다면, 그것이 벡터 함수의 일차 도함수라고 말할 수 있겠죠.
그런데 다변수 벡터 함수의 경우에는, 그 각각의 스칼라 함수들의 입력이 벡터입니다. 입력이 벡터인 스칼라 함수의 일차 도함수는 gradient이기 때문에, Jacobian Matrix의 의미가 다변수 벡터 함수의 일차 도함수가 되는 것입니다.
수식을 이용하여 써보면, 벡터 함수 $\mathbf{F}=(F_1, F_2, \cdots, F_n)$가 있고, 이 벡터 함수의 도함수는 벡터 각각 성분의 도함수를 성분으로 하는 벡터입니다. 그런데 $F_1, F_2, \cdots, F_n$이 다변수 스칼라 함수이므로, 이들의 도함수는 gradient를 사용하여 구해야 하죠. 따라서 $\mathbf{F}$의 도함수는
$$(\nabla F_1, \nabla F_2, \cdots, \nabla F_n)$$
이 되는 것이죠. 이를 열벡터로 바꾸고, gradient의 정의에 따라 풀어 써주기만 하면 위의 Jacobian Matrix가 되는 것입니다.
지금까지 Jacobian Matrix의 의미에 대해 알아보았습니다. 하지만, Jacobian Matrix에는 이것 말고도 기하학적인 의미도 숨어있습니다. 이에 대해서는 다른 글에서 나중에 따로 다루도록 하겠습니다.
'수학 > 벡터 해석학' 카테고리의 다른 글
[벡터 해석학] 선적분 Line Integral (2) | 2023.10.07 |
---|---|
[벡터 해석학] Hessian Matrix (1) | 2023.09.15 |
[벡터 해석학] 델 연산자 (Del Operator) - (4) 회전 (Curl) (1) | 2023.08.06 |
[벡터 해석학] 델 연산자 (Del Operator) - (3) 발산 (Divergence) (2) | 2023.08.06 |
[벡터 해석학] 델 연산자 (Del Operator) - (2) 그래디언트 (Gradient) (1) | 2023.08.04 |