일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 자바
- 미분 방정식
- 벡터해석
- 자료형
- 델
- BST
- 백트래킹
- 최단 경로
- dictionary
- 선적분
- Asteroid RL
- 신경망
- 피보나치 수열
- 딥러닝
- 파이썬
- 딕셔너리
- 코드업
- Class
- 계단 오르기
- cURL
- 회로이론
- java
- 2P1L
- 소행성
- 이진탐색트리
- 벡터 해석
- Python
- 함수
- 강화학습
- auto-encoder
- Today
- Total
목록수학/벡터 해석학 (8)
Zeta Oph's Study

오랜만에 돌아온 글쓰기.면접 준비 겸, 이 글에서는 그린 정리에 대해 알아보도록 하겠습니다.지난번 글에서 선적분에 대해 다루었습니다.https://crane206265.tistory.com/48 [벡터 해석학] 선적분 Line Integral이번 글에서는 선적분에 대해 알아보겠습니다. 선적분(line integral)은 직선 위의 정적분을 곡선으로 일반화한 것입니다. 즉, 곡선을 따라가며 적분하는 것이죠. 아래와 같은 간단한 정적분을 생각crane206265.tistory.com그린 정리는 선적분 계산을 (2차원) Curl 연산으로 바꾸어주는 역할을 하는 정리입니다.먼저 어떤 것인지부터 살펴보도록 하죠.그린 정리 Green Theorem벡터장 $\mathbf{F}(x, y)=F_1(x, y)\mathbf..

이번 글에서는 선적분에 대해 알아보겠습니다. 선적분(line integral)은 직선 위의 정적분을 곡선으로 일반화한 것입니다. 즉, 곡선을 따라가며 적분하는 것이죠. 아래와 같은 간단한 정적분을 생각해봅시다. $$\int_{a}^{b}{f(x)dx}$$ 위 적분은, $a$부터 $b$까지 $x$축 수직선을 따라 적분한 것으로 생각할 수 있습니다. 하지만, 어떤 상황에서는 직선을 따라 적분하는 것이 아니라, 곡선을 따라 적분하는 것이 필요합니다. (자세한 예시는 아래서 설명하겠습니다.) 그래서 등장한 것이 선적분입니다. 선적분에는 스칼라장의 선적분과 벡터장의 선적분 2가지가 있는데, 하나씩 살펴봅시다. 스칼라장의 선적분 스칼라장의 선적분의 대표적인 예시는 줄의 질량을 구하는 문제입니다. 평면에서 한 점의 ..

다시 돌아온 벡터 해석. 이번에는 Hessian Matrix에 대해 다루어보도록 하겠습니다. 저번에는 다변수 벡터 함수의 일차 도함수를 의미하는 Jacobian Matrix에 대해 알아보았습니다. https://crane206265.tistory.com/33 [벡터 해석학] Jacobian Matrix 오랜만에 수학 글 이 글에서는 Jacobian Matrix에 대해 다루어 보도록 하겠습니다. Gradient 글에서 gradient는 다변수 스칼라 함수의 일차 도함수를 의미한다고 했습니다. https://crane206265.tistory.com/25 [벡 crane206265.tistory.com Hessian Matrix는 다변수 스칼라 함수의 이차도함수를 의미하는 행렬입니다. 다변수 스칼라 함수 $..

오랜만에 수학 글 이 글에서는 Jacobian Matrix에 대해 다루어 보도록 하겠습니다. Gradient 글에서 gradient는 다변수 스칼라 함수의 일차 도함수를 의미한다고 했습니다. https://crane206265.tistory.com/25 [벡터 해석] 델 연산자 (Del Operator) - (2) 그래디언트 (Gradient) 델 연산자 두 번째 글, 그래디언트(gradient)에 대해 다루어 보도록 하겠습니다. Gradient $$\nabla f=\frac{\partial f}{\partial x}\mathbf{\hat{i}}+\frac{\partial f}{\partial y}\mathbf{\hat{j}}+\frac{\partial f}{\partial z}\mathbf{\hat c..

드디어 델 연산자 4번째 글, 회전(Curl)입니다...! 그래디언트, 발산, 회전 중 가장 어려워 보이고, 복잡하지만, 그만큼 재미있으니 무서워 보인다고 도망가지 말고, 한번 읽어보세요 Curl $$\nabla\times\mathbf{F}=\begin{vmatrix} \mathbf{\hat{i}} & \mathbf{\hat{j}} & \mathbf{\hat{k}} \\ \frac{\partial}{\partial x} & \frac{\partial}{\partial y} & \frac{\partial}{\partial z} \\ F_1 & F_2 & F_3 \end{vmatrix}\\=(\frac{\partial F_3}{\partial y}-\frac{\partial F_2}{\partial z})\..

델 연산자 세 번째 글, 발산(divergence)에 대해 다루어 보도록 하겠습니다. 여기부터 조금 낯설 수 있는데, 이 글이랑 다음글 회전(Curl)을 잘 이해해본다면 앞으로 굉장히 재밌어 질거에요 Divergence $$\nabla\cdot\mathbf{F}=\frac{\partial F_1}{\partial x}+\frac{\partial F_2}{\partial y}+\frac{\partial F_3}{\partial z}$$ ( $\mathbf{F}(x, y, z)=F_1(x, y, z)\mathbf{\hat{i}}+F_2(x, y, z)\mathbf{\hat{j}}+F_3(x, y, z)\mathbf{\hat{k}}$ ) 발산은 델 연산자와 벡터 함수를 내적하는 연산입니다. 이때 중요한 것은 ..

델 연산자 두 번째 글, 그래디언트(gradient)에 대해 다루어 보도록 하겠습니다. Gradient $$\nabla f=\frac{\partial f}{\partial x}\mathbf{\hat{i}}+\frac{\partial f}{\partial y}\mathbf{\hat{j}}+\frac{\partial f}{\partial z}\mathbf{\hat{k}}$$ 그래디언트는 쉽게 말하면 3차원 상의 기울기를 나타내는 벡터입니다. 2차원 좌표평면에서 직선의 기울기는 $\frac{\Delta y}{\Delta x}$로 나타내죠.그것을 3차원으로 확장하여, 평면 위 어떤 점에서 기울기를 나타내는 것입니다. 이때 그 기울기는 가장 가파른 것을 택하게 됩니다. 그렇기 때문에, 기울기벡터는 항상 등고선에 ..
좀 어렵지만, 올림피아드 공부 회피도 할 겸 재미있는 걸 해봅시다. 앞으로 델 연산자에 대해 다룰 것인데, 이 글에서는 델 연산자가 무엇인지 간단하게 소개해보도록 하겠습니다. 수학이나 물리에 관심이 있으신 분이라면, 책에서 한 번쯤은 델 연산자를 보신적이 있으실 것 같습니다. $$\nabla$$ 그리스 대문자 $\Delta$를 뒤집어 놓은 것과 같이 생긴 이 기호는, 아주 흥미로운 친구입니다. 델 연산자 (Del Operator) 또는 나블라 (nabla) 라고 부르기도 합니다. 델 연산자의 쓰임은 아래와 같이 4가지가 있습니다. 이때 $f=f(x, y, z)$는 스칼라 함수, $\mathbf{F}(x, y, z)=F_1(x, y, z)\mathbf{\hat{i}}+F_2(x, y, z)\mathbf{\..