데분데싸

  • 홈

Glove 1

워드 임베딩

단어 임베딩¶ 같은 데이터를 표현할 때 가능한 낮은 차원으로 표현할수록 쉽게 모델링하고 학습할 수 있으므로, 희소벡터보다는 Dense한 벡터로 표현하는게 좋음 1. 차원 축소¶ 더 작은 차원으로 효율적으로 정보를 표현하는 차원 축소의 이유와 방법에 대해 알아보기 PCA(주성분 분석)¶pass 매니폴드 가설¶ 높은 차원에 존재하는 데이터들의 경우, 실제로는 해당 데이터들을 아우르는 낮은 차원의 다양체 역시 존재한다는 가설 저차원의 각 공간의 차원 축은 고차원에서 비선형적으로 표현될 것이며, 데이터의 특징을 각각 표현함 딥러닝이 잘 동작한 이유¶ 대부분의 딥러닝이 문제를 풀기 위해 차원 축소를 수행하는 과정은, 데이터가 존재하는 고차원상에서 매니폴드를 찾는 과정 PCA 등과 달리 선형적인 방식에 비해 딥러닝..

자연어, 비전 2020.11.10
1
더보기
프로필사진

  • 분류 전체보기 (67)
    • 기계학습 (30)
      • 인공지능및기계학습개론정리 (9)
      • 밑바닥딥러닝3 오독오독 씹기 (8)
      • 베이지안 (5)
      • 수리통계학 (3)
    • 강화학습 (8)
    • 자연어, 비전 (6)
    • 교육자료 (3)
    • 논문 (1)
    • 빅데이터분석기사정리 (2)
    • 끄적끄적 (16)

최근글과 인기글

  • 최근글
  • 인기글

Tag

머신러닝, 자연어, 몬테카를로, pymc3, MCMC, Bayesian, 앙상블, 밑바닥부터시작하는딥러닝3, HMM, Monte-Carlo, 빅데이터 분석기사, 빅데이터, 분석기사, forward, 역전파, reinforcement, NLP, 베이지안, Modeling, 강화학습,

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바