Math Foundations
벡터, 행렬, 미분, 확률을 식 암기용이 아니라 모델을 이해하기 위한 언어로 다시 잡는다.
- 벡터와 행렬
- 미분 직관
- 확률 기초
- 기댓값과 분산
생성형 비전 중심 학습 제품
확률과 선형대수의 직관부터 시작해서 딥러닝, CNN, U-Net, Transformer, Diffusion, 그리고 최신 생성형 비전 모델을 읽고 개선하는 사고방식까지 연결한다.
Learning Path
각 단계는 무엇을 배우는지뿐 아니라, 그 개념이 실제 비전 모델을 만들고 개선할 때 왜 중요한지도 같이 설명한다.
벡터, 행렬, 미분, 확률을 식 암기용이 아니라 모델을 이해하기 위한 언어로 다시 잡는다.
신경망, loss, backprop, regularization을 “모델이 어떻게 좋아지는가” 관점에서 본다.
이미지가 어떻게 tensor로 표현되고 convolution이 어떤 inductive bias를 제공하는지 이해한다.
encoder-decoder와 skip connection이 왜 강력한지 이해하고, U-Net이 diffusion 계열 모델과 어떻게 이어지는지 배운다.
self-attention, cross-attention, tokenization을 통해 Transformer가 이미지를 다루는 방식을 배운다.
denoising, latent diffusion, guidance를 중심으로 현대 생성형 비전의 핵심 아이디어를 이해한다.
논문을 구조적으로 읽고, ablation과 error analysis를 통해 개선 루프를 만드는 법을 배운다.
Design Principles
식부터 밀어붙이지 않고 왜 이 개념이 필요한지부터 이해하게 만든다.
모든 개념을 학습, 디버깅, 평가, 모델 개선과 연결한다.
U-Net, Transformer, Diffusion을 축으로 현대 비전 모델을 이해하게 만든다.
Engineer Mindset
출력 사례와 edge case를 보고 문제가 어디서 생기는지 확인한다.
데이터, 구조, 목적함수, 학습 설정 중 어디가 원인인지 추정한다.
중요한 변수 하나씩 바꾸며 비교 가능한 실험을 만든다.
정량 지표와 정성 검토를 함께 보고 다음 수정으로 이어간다.
Start Here
아직 전부 채워지지 않았으니, 지금은 수학 기초 → U-Net → Transformer 순서로 먼저 읽는 걸 추천한다.