반응형
딥러닝을 위한 수학 시리즈 (2편)
선형대수학: 딥러닝의 뼈대
딥러닝에서 데이터를 표현하고 계산하는 기본 도구는 벡터와 행렬입니다. 이 둘을 다루는 학문이 바로 선형대수학입니다.
1. 벡터(Vector)
- 정의: 크기와 방향을 가진 값.
- 예시: 오른쪽으로 3, 위로 4
- 딥러닝에서: 하나의 벡터 = 하나의 데이터 (예: 사진 한 장의 픽셀 값, 사람의 키·몸무게·나이).
👉 벡터는 데이터를 담는 그릇입니다.
2. 행렬(Matrix)
- 정의: 벡터를 여러 개 모아 놓은 것.
- 예시:
- 딥러닝에서: 수많은 데이터(훈련 샘플)를 한 번에 저장하는 구조.
👉 행렬은 데이터 전체를 담는 큰 상자입니다.
3. 행렬 곱셈
- 벡터와 행렬의 진짜 힘은 곱셈에서 나옵니다.
- 행렬 곱은 “입력을 다른 차원으로 바꾸는 변환”을 의미합니다.
예:
👉 딥러닝에서 가중치(W) × 입력(x) = 출력(y) 라는 계산이 바로 행렬 곱입니다.
4. 선형 변환(Linear Transformation)
- 행렬 곱은 단순한 계산이 아니라, 공간을 늘리고, 줄이고, 돌리고 바꾸는 역할을 합니다.
- 예:
- 확대/축소 (스케일링)
- 회전 (로테이션)
- 기울이기 (쉬어링)
👉 신경망은 이 변환을 여러 번 겹쳐서 데이터를 새로운 공간으로 표현합니다.
5. 고유값과 고유벡터
- 고유벡터: 행렬이 벡터를 변환할 때, 방향이 변하지 않는 특별한 벡터.
- 고유값: 그 벡터가 늘어나는 비율.
딥러닝에서 고유값·고유벡터는 차원 축소(PCA), 데이터 압축, 패턴 분석에 활용됩니다.
오늘의 정리
- 벡터 = 하나의 데이터
- 행렬 = 데이터 집합
- 행렬 곱 = 입력을 출력으로 바꾸는 변환
- 선형 변환 = 데이터를 다른 공간으로 표현
- 고유값·고유벡터 = 데이터의 본질적인 방향 찾기
👉 딥러닝은 결국 “데이터(행렬)를 선형변환으로 바꾸어 가며 학습하는 과정”입니다.
'수학 이야기' 카테고리의 다른 글
딥러닝을 위한 수학 시리즈 (1편) (1) | 2025.09.20 |
---|---|
딥러닝을 이해하고 활용하기 위해 필요한 수학 (0) | 2025.09.19 |
복소수를 다루는 다양한 방법 (2) | 2025.04.21 |
대수(代數, Algebra)란? (1) | 2025.02.20 |
구골플렉스(googolplex) (1) | 2024.12.09 |