본문 바로가기

데이터사이언스

머신러닝/딥러닝의 역사

  • 확률적 모델링
    • 통계학 이론을 데이터 분석에 응용하였음
    • 나이브 베이즈 알고리즘
    • 로지스틱 회귀
  • 커널 방법
    • 입력 데이터를 새로운 고차원 표현으로 매핑하여 분류하는 방법
    • 서포트 벡터 머신(SVM)
  • 초창기 신경망
    • 1950년대 시작했으나 대규모 신경망을 훈련시킬 수 없었음
    • 신경망 구조
      • Input layer: 입력 데이터를 받아들이며, 하나의 node가 하나의 속성을 표현
      • Output layer: 분류된 클래스 정보를 표현하며, 회귀모델의 계수 값과 같이 학습을 통해 알아내고자 하는 목적 속성을 도출
      • Hidden layer: Input layer에서 받은 정보를 처리하기 위한 nodes로 이루어져 있으며, 2개 이상의 layer로 구성될 수 있음
      • Learning: 입력 데이터가 어떻게 처리되고 어떤 모델을 도출할 것인지를 결정하는 과정

 

  • 결정트리, 랜덤 포레스트, 그래디언트 부스팅 머신
    • 랜덤 포레스트: 서로 다른 결정 트리를 많이 만들고, 그 출력을 앙상블하는 방법
    • 그래디언트 부스팅 머신: 결정 트리를 앙상블하는 것을 기반으로 이전 트리의 오차를 보완하는 방식으로 순차적으로 트리 생성
  • Shallow 알고리즘
    • 여러 층의 hidden layer를 갖는 deep learning과 상반되는 개념으로 다층 구조를 갖고 1~2개의 hidden layer를 갖는 기존의 학습 알고리즘들을 일컬음

  • Deep Learning의 발전
    • DL의 기본 개념은 Artificial neural network(ANN)와 동일
    • Hidden layer를 많이 갖는 DL의 컨셉은 1980년대에 Multilayer perception에서 이미 개발됨
    • 1980년 당시에는 DL이 성공하지 못한 이유
      • Back propacation 방법은 hidden layer가 2개만 되고 네트워크를 잘 학습시키지 못했음
      • DL의 non-convex한 목적식 때문에 최적해를 구하기 어려움
      • 국소 최적해들이 많아서 그것에 빠지기 쉬움
    • 2006년 토론토 대학의 Geoffrey Hinton이 Deep network를 깊은 층까지 학습시킬 수 있는 Deep belief network(DBN) 발표
      • upsupervised learning을 통해 데이터 집합에서 비슷한 것들은 묶고 특이한 것들을 제거하는 pre-training 과정을 거쳐 네트워크를 학습 -> 국소 최적해에 훨씬 적게 빠지고 Deep network도 잘 학습시킴
      • DL은 기존의 기계학습 알고리즘들 보다 월등히 뛰어난 모델링 능력을 가지고 있음이 실험을 통해 밝혀짐
  • 심층신경망
    • 2011년 IDSIA의 댄 크리슨이 GPU로 훈련된 심층신경망으로 학술 이미지 분류 대회에서 우승
    • 2012년 대규모 이미지 분류 대회인 ImageNet에서 힌튼 팀이 심층 합성곱 신경망으로 우승