전체 글

전체 글

    규칙기반 머신러닝

    본 게시물은 2021.03.31. 에 작성되었으며, 블로그를 이전하며 현재 날짜로 등록되었습니다. 본 게시물은 문일철 교수님의 인공지능 및 기계학습 개론 강의를 보고 정리한 내용입니다. 머신러닝의 정의 많은 경험(E)을 학습해 특정 task(T)에 대한 수행 성과가 높아진다. 경험, 데이터, 사전 지식이 많아질수록 수행 성과가 높아진다. 규칙 기반의 task를 통해 머신러닝 알아보기 완벽한 세상(perfect world)이란? 완벽한 세상 : 관측의 에러가 없다, 모든 관측이 일관적이다, random effect가 없다, 결과를 설명할 수 있는 모든 요인에 대한 경험이 있다. 야외활동 가능 여부를 위한 요인들 우리는 야외활동(EnjoySport)이 가능한가에 대한 결과(Yes/No)를 얻기 위해 어떤 요..

    확률변수, 이산확률변수, 연속확률변수

    본 게시물은 2021.03.21. 에 작성되었으며, 블로그를 이전하며 현재 날짜로 등록되었습니다. 확률변수(Random Value) 무작위 실험의 각각의 outcome을 실수(real number)에 대응시킨 변수 예시 : 동전 2개 던지기 동전 던지기 (1개) H(앞면)=1, T(뒷면)=0 이라고 할 때, $P(H)=P(1)=\frac1 2$와 $P(T)=P(0)=\frac1 2$이 성립한다. RV(확률변수) : 동전 앞면의 갯수라면, RV가 0, 1, 2일 때의 값을 구해보자. 1) $RV=0$, {TT} = 동전 앞면의 개수가 0이니까 동전 2개를 던졌을 때, 두 동전 모두 뒷면이 나와야 한다.(outcome) $RV=0, P({TT})=\frac1 4$ 2) $RV=1$, {TH, HT} = 동전..

    조건부확률, 전체 확률의 법칙, 베이즈 정리

    본 게시물은 2021.03.09. 에 작성되었으며, 블로그를 이전하며 현재 날짜로 등록되었습니다. 조건부확률 (Conditional Probability) \begin{equation}\label{eq1} P(B|A) \end{equation} - 사건 $A$ 가 일어났다는 가정 하에 사건 $B$ 가 일어날 확률 \begin{equation}\label{eq2} P(B|A) = \frac {P(B\cap A)} {P(A)} \end{equation} - $A$ 와 $B$ 가 동시에 일어날 확률(교집합) \begin{equation}\label{eq3} P(B|A) = \frac {P(B\cap A)} {P(A)} = \frac {P(B\cap A|S)} {P(A|S)} \end{equation} - 조건..

    MaxPooling VS GlobalMaxPooling 차이점

    본 게시물은 2021.02.11. 에 작성되었으며, 블로그를 이전하며 현재 날짜로 등록되었습니다. pooling이란? Convolution Neural Network에서 사용 모델의 layer를 구성할 때, parameter의 수를 줄이기 위해 pooling layer를 사용 Convolution layer를 거쳐 연산된 feature map을 pooling해 input size를 축소 과한 정보를 중요한 정보로 축소함으로써 overfitting을 방지 pooling은 max, average 등이 있으며, 본 게시글에서 다루고자하는 maxpooling은 최대값을 추출한다. MaxPooling 출처 : computerscience wiki 정해진 filter 크기 안에서 최대값을 추출한다. GlobalMa..

    [CS231n] lecture 02. Image Classification

    본 게시물은 2021.01.08. 에 작성되었으며, 블로그를 이전하며 현재 날짜로 등록되었습니다. 0. 이번 강의에서 다루는 개념 Image Classification이 무엇인가. 어려운 점 (Challenges) Image Classifier의 알고리즘 NN : Neareset Neighbor Distance Metric K-NN : K-Nearest Neighbors Hyperparameters Curse of dimensionality : 차원의 저주 Linear Classification Parametric Approach 강의를 들으며 중요한 부분에 대해 정리하고, 개인적으로 부족한 개념에 대해 다른 자료들을 찾아보며 정리했습니다. 1. Image Classification Image Class..

    빅오 표기법(big-O notation)

    본 게시물은 2021.01.15. 에 작성되었으며, 블로그를 이전하며 현재 날짜로 등록되었습니다. "'파이썬 알고리즘 인터뷰 4장'을 참고해 빅오 표기법을 정리했습니다." 01. 빅오 표기법(big-O notation)란? 점근적 실행 시간 : 입력값 n이 무한대로 향할 때, 함수의 실행 시간 추이 점근적 실행 시간(asymptotic running time)을 달리 말하면 시간 복잡도 빅 오 표기법 = 시간 복잡도를 표기하는 대표적인 방법 02. rule of big-O notation 최고차항만을 표기하며, 상수항은 무시한다. $4n^2+3n+4$ 라면 이 함수의 시간 복잡도는 최고차항인 $4n^2$ 이다. 03. big O의 종류 $$O(1)$$ - 입력값에 관계 없이 실행 시간이 상수로 일정하다...