본문 바로가기
반응형

딥러닝20

위치 측도와 산포 측도 통계학의 분류 ① 기술통계학(descriptive statistics): 통계자료를 적절하게 그림, 도표 또는 수치로 요약하고 그 특성을 기술하는 방법론 ② 추론통계학(inferential statistics): 모집단에서 뽑은 표본을 통하여 모집단의 특성을 예측 또는 추측하는 방법론 - 확률의 역할: 확률은 기술통계학(descriptive statistics)과 통계적 추론(inferential statistics)을 연결하는 가교 역할을 함 - 표본크기(sample size): 단순히 표본 내 요소의 수 (2) 표본추출: 자료의 수집 -표본오차(sampling error): 모집단의 일부를 선택하여 모수를 추정하기 때문에 생기는 오차 : 모수와 통계량이 불일치한 정도를 의미, 우연적인 요인에 의해 통.. 2021. 2. 4.
퍼지 신경망 퍼지 신경망에 대해서 정리해봤다. ----------- 퍼지화 : 퍼지화부는 명확한 입력 영역으로 부터 이에 상응하는 전체 집합 상의 퍼지 집합으로 대응시킨다. 퍼지 변수의 전체 집합 영역은 데이타베이스 설정시에 결정된다. 퍼지 규칙 : 퍼지 시스템의 특성은 전문가의 제어 지식을 언어적인 형태로 나타낸 규칙에 의해 결정되는데, 다음과 같은 퍼지 조건문들로 이루어진다. IF (만족해야할 일련의 조건) then (추론된 일련의 결론) IF 다음을 조건부라 하고 then 다음을 결론부라 하고 정성적인 언어로 표현된다. 조건부와 결론부에는 각각 여러 개의 퍼지 변수들이 도입 될 수 있으며, 전체 규칙은 여러 개의 퍼지 조건문들로 구성될 수 있다. x 와 y는 입력, z는 출력 변수이고 Ai, Bi 그리고 Ci .. 2021. 1. 12.
A Robust Predictive Model for Stock Price Prediction Using Deep Learning and Natural Language Processing 감성분석을 이용한 주가 예측 감성분석을 이용한 주가 예측에 관련된 논문이 있어서 혼자 리뷰해 보았다. 비정형데이터는 과거의 주가나 재무에서 가져 올 수 없는 시장상황에 대한 패턴을 제공하는것에 의의가 있는데 이 논문에서는 기존의 머신러닝 기반 주가 예측 + 트위터 데이터를 감성 분석을 이용하여 인도 지수를 예측해 본 것이다. 기존의 비정형 데이터를 이용해서 쉽게 접근 할 수 있는 이벤트 드리븐 전략과는 사뭇 다른 접근이지만 인간의 감성을 퍼지 신경망에 입각해 정량화하는 아이디어가 재밌다. --------------- 본 논문에서는 8개의 회귀 분석과 8개의 분류 방법을 이용하여 주간 예측 수평선에서 주가와 이동 예측했다. 이러한 모델은 기계 학습 및 심층 학습 접근법을 기반으로 한다. 목표 : 2015년 1월 2일부터 2019년 6.. 2021. 1. 12.
l1 l2 tv loss 정리 junklee.tistory.com/29 2020. 12. 7.
Granger causality Granger는 이 논문를 비롯한 다른 시계열 데이터 모델링에 대한 공헌을 바탕으로 2003년에 노벨 경제학상을 수상했다. 데이터 분석을 할 때, 어떤게 종속변수 어떤게 독립변수인지 알기 어렵다는 점입니다. 인과관계를 구할 수 있는 통계적인 방법이 있어, 소개합니다. 바로 Granger Causality가 그것입니다. Granger는 경제통계를 자신의 과거만으로 설명할 때와 다른 변수의 과거와 같이 설명할 때를 비교하고 두 변수의 인과관계를 분석하는 방법을 제시했습니다. 실증분석에서 두 변수 X와 Y의 인과관계를 분석하려면, X와 Y를 각각 상수항과 시차(p)항을 두고 인과관계의 존재여부를 판단합니다. 2020. 12. 7.
코사인 유사도 (Cosine Similarity) 문서를 유사도를 기준으로 분류 혹은 그룹핑을 할 때 유용하게 사용할 수 있는 코사인 거리(Cosine Distance) 입니다. 코사인 유사도(Cosine Similarity)는 특징 벡터 X, Y 에 대해서 벡터의 곱(X*Y)을 두 벡터의 L2 norm (즉, 유클리드 거리) 의 곱으로 나눈 값입니다. 벡터의 곱(X*Y) ------------------- 벡터의 L2 norm (즉, 유클리드 거리) Cosine Similarity (d1, d2) = Dot product(d1, d2) / ||d1|| * ||d2|| Dot product (d1,d2) = d1[0] * d2[0] + d1[1] * d2[1] * … * d1[n] * d2[n] ||d1|| = square root(d1[0]2 + d1.. 2020. 12. 1.
반응형