no image
10. Deep Learning
고차원의 정보를 효과적으로 이해하는 방법이다. The Perceptron Single Layer Neural Network Activation Function Non-linearity boundary 생성을 가능하게 해준다. Forward Propagation Perceptron의 전파과정과 같다. Backpropagation The problem of Overfitting Layer와 Node의 수가 많아질수록 생기는 문제이다. Regularization을 통해서 해결할 수 있다. 가장 쉬운 방법으로는 Dropout 방법이 있다. 그냥 Layer의 node를 일부 지우는 방법이다.
2023.05.10
no image
9. Camera Calibration
3D object를 2D에 적절한 size, position, orientation 표현하기 위해서는 Intrinsic/Extrinsic parameter를 알아야 한다. Calibration은 해당 parameter를 구하는 과정이다. Camera lens system 1. Pinhole camera 2. Modified camera Focal length Distance between lens and image plane Principal point Where optical axis meets image plane Camera paramter 1. Intrinsic 2. Extrinsic 카메라의 position과 orientation을 말한다. Parameter는 항상 일정하지 않기 때문에 cali..
2023.05.10
no image
8. Homogeneous Transformation Matrix
Camera Calibration 실제 상황과 이론적 parameter 사이 간극을 줄이기 위해 수정하는 과정을 말한다. Intrinsic parameter Extrinsic parameter Focal length, Principal Point, Distortion parameter Position, Orientation Parameter는 3D to 2D mapping에 사용된다. Mathmetics for calibration Coordinate system Homogeneous Transformation Matrix Rotation & Translation HTM chain multiplication HTM R: 3x3 rotation matrix t: 3x1 translation vector W..
2023.05.10
no image
7. Fourier Descriptor
Template Matching Kernel을 통해서 pattern이 있는지 찾는 방법이다. Filter와 Image가 유사할수록 큰 값을 가진다. $c(x,y) = \sum_{s} \sum_{t} \omega(s,t) f(x+s, y+t)$ Normalization할 수 있다. $c(x,y) = {\sum_{s} \sum_{t} [\omega(s,t) - \omega_{mean}] [f(x+s, y+t)-f_{mean}] \over \sum_{s} \sum_{t} [\omega(s,t) - \omega_{mean}]^{2} [f(x+s, y+t)-f_{mean}]^{2}}$ size와 rotation의 normalization은 복잡해서 다른 방법이 필요하다. *2D rotation Linear Int..
2023.05.10
6. Bayes Classifier
Problem of MDC is False Positive. 그렇다고 기준 거리를 줄이게 되면 False Negative가 많아지게 된다. 그렇기에 새로운 분류 기준이 필요해지고, Error 분류시 페널티를 기준으로 분류하는 것이 Bayes classifier이다. Bayes classifier Lowest probability of committing error $x$가 $\omega_{j}$일 확률 $P(\omega_{j}|x)$와 $\omega_{i}$인데 $\omega_{j}$로 분류했을 경우의 loss인 $L_{ij}$를 사용한다. Conditional average risk(loss) $r_{j}(x) = \sum_{k=1} L_{kj} P(\omega_{k}|x)$ Use $P(A)P(B|A..
2023.05.10
5. Object Recognition
Descriptor로 Object를 인식하는 방법에 대해 다룬다. 일반적으로 object의 feature를 descriptor로 사용한다. Input pattern에 대해서 pre-defined pattern으로 분류하는 것이 목표이다. Pattern Arrangement Data의 common properties를 표현하는 방법이다. Vector : 제일 많이 사용하는 방식이다. String : primitive의 connectivity를 이용한 방법이다. Structual relationship : ridge properties를 이용한 방법이다. Hierarchical Ordering Decision Theoretic Method Decision function을 이용해 인식하는 방법이다. $d_{..
2023.05.10
no image
4. Segmentation
Image processing에서 segmentation 과정은 매우 중요한 과정이다. Segmentation accuracy가 높을수록 할 수 있는 일이 많아지기 때문이다. Segmentation Method Intensity의 discontinuity와 similarity가 중요하다. 1) Intensity based Threshold-based Edge-based Region-based 2) Information based 3) Data&Learning based 4) Automatic, Semi-automatic, Manual Threshold-based segmentation Region-based와 유사하다. specific intensity value로 thresholding 한다. Post..
2023.05.10
no image
3. Filtering in Frequency Domain
Background - Fourier Trasnform use of sinusoids to represent temperature distribution Any continuous periodic signal can be expressed as the weighted sum of sine and cosine waves. Fourier Transform Time domain과 Frequency domain의 전환은 위와 같다. Background의 설명처럼, 어떤 신호도 주기성을 가지는 함수의 조합으로 나타낼 수 있는 점을 이용해, 우리는 신호를 분해할 수 있다. 그림처럼, 어떤 신호가 동일한 주기성을 가지는 sin함수와의 곱을 적분하면, 0이 아닌 값을 가지게 된다. 다른 한편, cosine의 역할은 주..
2023.05.10
no image
2. Image Filtering
Filter(mask)를 만들어 Image 좌표마다 적용해, 계산된 결과값을 새로운 Intensity 값으로 교체하는 방법이다. Correlation Image의 모든 지점마다 filter를 적용해, 새로운 이미지를 얻는 과정이다. 가운데가 1이고 나머지가 0인 이미지에 필터를 correlation하면, 180도 뒤집힌 결과를 얻을 수 있다. Convolution Correlation과 같은 과정이지만, filter를 뒤집어서 적용시킨다는 차이가 있다. pre-rotate filter를 사용해 원하는 값을 얻게 된다. 위 결과를 통해, 만약 filter가 symmetric이면 Correlation=Convolution임을 알 수 있다. Correlation과 Convolution f는 symmetric이..
2023.05.10