ML & DL/CV

    [CS231n] lecture 03. Loss Functions and Optimization - 2

    Stanford University의 CS231n (spring 2017)을 들으며 정리했습니다. 0. SVM loss 이어서.. 위 loss function에서 W는 loss 0을 얻을 수 있는 유일한 값일까? 아니다. W에 2를 곱한 2W도 loss 0을 얻을 수 있다. 이미 정답 예측 점수가 오답 예측 점수보다 1(safety margin)이상 크다면, W가 두배가 되어도 loss 0을 얻을 수 있기 때문이다. 이처럼 우리는 학습 데이터(training data) 안에서 loss 가 0이 되는 W 값을 찾았기 때문에, W를 두배를 하는 등의 변형된 W여도 loss 가 0이 될 수 있다. 과연 이 방식이 옳은 학습이라고 할 수 있을까? 1. 과적합 (Overfitting) 우리는 전체 데이터를 학습,..

    [CS231n] lecture 03. Loss Functions and Optimization - 1

    Stanford University의 CS231n (spring 2017) 을 들으며 정리했습니다. 0. 지난 강의(lecture 02) 복습 linear classification : neural network 의 기본 templates of linear classifier : 클래스를 결정하는데 중요한 역할을 하는 픽셀 1. linear classifier and W 이전 강의에서는 W값을 임의로 지정했다. → [3-8] score를 보면 성능이 좋지 않아 보임 (고양이 사진에 대해 개라는 정답을 8.02로 예측했다.) 이처럼 임의로 지정하는 W는 항상 좋지만은 않다. best 행렬 W를 구해야 한다. W를 입력으로 받아서 스코어를 확인하고, 그 성능을 정량적으로 말해주는 것 ⇒ loss functi..

    MaxPooling VS GlobalMaxPooling 차이점

    본 게시물은 2021.02.11. 에 작성되었으며, 블로그를 이전하며 현재 날짜로 등록되었습니다. pooling이란? Convolution Neural Network에서 사용 모델의 layer를 구성할 때, parameter의 수를 줄이기 위해 pooling layer를 사용 Convolution layer를 거쳐 연산된 feature map을 pooling해 input size를 축소 과한 정보를 중요한 정보로 축소함으로써 overfitting을 방지 pooling은 max, average 등이 있으며, 본 게시글에서 다루고자하는 maxpooling은 최대값을 추출한다. MaxPooling 출처 : computerscience wiki 정해진 filter 크기 안에서 최대값을 추출한다. GlobalMa..

    [CS231n] lecture 02. Image Classification

    본 게시물은 2021.01.08. 에 작성되었으며, 블로그를 이전하며 현재 날짜로 등록되었습니다. 0. 이번 강의에서 다루는 개념 Image Classification이 무엇인가. 어려운 점 (Challenges) Image Classifier의 알고리즘 NN : Neareset Neighbor Distance Metric K-NN : K-Nearest Neighbors Hyperparameters Curse of dimensionality : 차원의 저주 Linear Classification Parametric Approach 강의를 들으며 중요한 부분에 대해 정리하고, 개인적으로 부족한 개념에 대해 다른 자료들을 찾아보며 정리했습니다. 1. Image Classification Image Class..