CS231n

    [CS231n] lecture 03. Loss Functions and Optimization - 2

    Stanford University의 CS231n (spring 2017)을 들으며 정리했습니다. 0. SVM loss 이어서.. 위 loss function에서 W는 loss 0을 얻을 수 있는 유일한 값일까? 아니다. W에 2를 곱한 2W도 loss 0을 얻을 수 있다. 이미 정답 예측 점수가 오답 예측 점수보다 1(safety margin)이상 크다면, W가 두배가 되어도 loss 0을 얻을 수 있기 때문이다. 이처럼 우리는 학습 데이터(training data) 안에서 loss 가 0이 되는 W 값을 찾았기 때문에, W를 두배를 하는 등의 변형된 W여도 loss 가 0이 될 수 있다. 과연 이 방식이 옳은 학습이라고 할 수 있을까? 1. 과적합 (Overfitting) 우리는 전체 데이터를 학습,..

    [CS231n] lecture 02. Image Classification

    본 게시물은 2021.01.08. 에 작성되었으며, 블로그를 이전하며 현재 날짜로 등록되었습니다. 0. 이번 강의에서 다루는 개념 Image Classification이 무엇인가. 어려운 점 (Challenges) Image Classifier의 알고리즘 NN : Neareset Neighbor Distance Metric K-NN : K-Nearest Neighbors Hyperparameters Curse of dimensionality : 차원의 저주 Linear Classification Parametric Approach 강의를 들으며 중요한 부분에 대해 정리하고, 개인적으로 부족한 개념에 대해 다른 자료들을 찾아보며 정리했습니다. 1. Image Classification Image Class..