참고글 :[Statistics] 중심극한정리(표본과 모집단)[Statistics] 표본 정규 분포 모집단 : 통계적인 관찰의 대상이 되는 집단 전체 (출처 : 두산백과)모수 : 모집단의 특성을 나타내는 정보 - 모평균(μ:mu): 모집단의 평균 - 모분산(σ2) : 모집단의 분산 - 모표준편차(σ:sigma): 모집단의 표준편차 = s x √n (n=sample size) 표본 : 모집단에서 선택된 모집단 구성단위의 일부 (출처 : 두산백과) - 모집단 전체를 모두 조사할 수 없으므로, 모집단으로부터 random sampling 된 하위 집단통계량 : 표본의 특성통계치 : 통계량에 표본으로부터 관찰된 정보를 대입하여 구한 실측값 - 표본평균(X-bar) : 표본의 평균 - 표본분산(s2) : 표본의 분산..
참고글 : [Statistics] 확률 기초 용어 정리(확률분포, 이항분포, 정규분포) #. 이항분포 in Rdbinom(x = 이산형 확률변수, size = 수행횟수, prob = 성공확률) # 동전을 10회 반복하여 던질 때, 앞 면이 나오는 사건, 각 확률변수가 취하는 분포 확인 n choose(10,1) * (0.5)^1 * (0.5)^9 # P(X=1) [1] 0.009765625 # 1번 성공할 경우의 수 {앞뒤뒤뒤뒤뒤뒤뒤뒤뒤}, {뒤앞뒤뒤뒤뒤뒤뒤뒤뒤}, {뒤뒤앞뒤뒤뒤뒤뒤뒤뒤}, .. > choose(10,2) * (0.5)^2 * (0.5)^8 # P(X=2) [1] 0.04394531 ... > choose(10,10) * (0.5)^10 * (0.5)^0 # P(X=10) [1] 0.00..
#. 확률실험(=확률 시행) : E다음을 만족할 때, - 어떠한 실험에 대한 결과를 알지 못 할 경우 - 결과는 모르지만, 결과로 나타날 수 있는 가능한 사건(경우)를 아는 경우 - 동일한 실험을 계속 반복할 수 있는 경우 ex) 동전를 2번 던져서 어떤 면이 나오는지 실험 #. 표본공간 : Ω예상 가능한 모든 결과(모든 경우의 수)표본공간을 그래프로 그린 것이 확률 분포 ex) 동전를 2번 던져서(학률 실험) 나올 수 있는 모든 경우의 수 Ω = {앞, 뒤} Ω = {뒤, 앞} Ω = {앞, 앞} Ω = {뒤, 뒤} #. 사건 : A, B, ...발생 가능한 특정 사건 ex) 동전를 2번 던져서(학률 실험) + 첫 번째 동전이 앞면이 나올 경우(사건) 앞면이 1번 나오는 사건 : P(x=1) : {앞,..
계층적 군집 분석(hierarchical clustering) 참고글 : [R 분석] 계층 군집 분석(hierarchical clustering) [데이터 분석] K-NN 알고리즘 군집 분석은 기존 관측치의 Y값(Class)이 없는 데이터의 Clustering 알고리즘입니다. KNN 알고리즘과 동일한 거리 기반 모델로, 거리가 가까운 관측치들은 비슷한 특징을 가질 것이라는 전체하에 클러스터링을 수행하는 기법입니다. 차이점이라면, 설명변수를 통한 예측 목적이 아닌 데이터 축소 목적을 가지고 있습니다. 군집 분석에는 계층적인 방법(hierarchical clustering)과 비계층적인 방법(k-means)이 있는데, 순차적으로 그룹을 할당하는지의 여부에 따라 나뉩니다.계층적인 방법은 가까운 대상끼리 순차적..
KNN (K-Nearest Neighbors) 알고리즘 참고글 : [R 분석] K-NN 알고리즘 적용 및 매개변수 튜닝 KNN 알고리즘은 거리기반 분류분석 모델입니다.'기존 데이터와 특성이 비슷하면 새로운 데이터도 저들과 비슷하지 않을까?' 라는 고안으로 나온 알고리즘이라고 합니다. 예측을 하고자하는 새로운 관측치(데이터)와 이미 정답이 있는 기존 관측치(데이터) 사이의 거리를 계산하여,가장 가까운 K개 관측치들의 Class(범주, 그룹)를 확인하여 예측하게 됩니다. 여기서 기존 관측치의 Y값(Class)이 존재한다면 KNN 알고리즘으로, 기존 관측치의 Y값(Class)이 존재하지 않는다면 군집분석 Clustering 알고리즘으로 구분됩니다. 위 그림을 예로 들면, 중앙에 새..
Random Forest 알고리즘 참고글 : [R 분석] Random Forest 알고리즘 [R 분석] Random Forest 매개변수 튜닝 출처 : https://medium.com/@williamkoehrsen/random-forest-simple-explanation-377895a60d2d Random Forest 는 굉장히 중요한 !!! 알고리즘입니다. 먼저 Random Forest 알고리즘은 Decision Tree의 분류보다 정확도를 개선시키기 위해, 여러개의 나무를 생성하여 각각 나무의 예측을 총 조합하여 결론을 내리는 구조입니다. 현업에서도 현재까지 가장 많이 사용하고 있고, 분류 분석에서 이 알고리즘만 사용해도 될 정도로 쉽고, 성능이 매우 우수한 알고리즘이기 때문이죠 !!! Rando..
분석의 단계 1. 목적 - 분석을 하려는 목적 - 얻고싶은 정보 2. 데이터 수집 - 종속변수가 포함된 데이터가 필요(지도학습일 경우) - 종속변수에 영향을 미칠만한 발생 가능한 모든 데이터의 수집(생각지도 못했던 종속변수가 중요한 변수일 경우가 있음) 3. 기본적인 데이터 전처리 - NA, NULL의 처리 (삭제 or 치환) - 일부 필요 데이터의 추출 및 치환 - 불필요 데이터 삭제 - 구간 분할 : 연속형 변수의 Factor화 ex) 성적을 상,중,하 그룹으로 분류해서 모델에 적용 - upsampling or downsampling > library(caret) (참고)> cancer library(randomForest) (참고)> forest_m forest_m$importance 5. 모델 선..
Decision Tree 알고리즘 참고글 : [R] Decision Tree(의사결정 나무) 알고리즘 - rpart [R 분석] Decision Tree 매개변수 튜닝 1. Decision Tree (출처 : 위키백과) Decision tree(의사결정나무)는 분류 모델 중 tree기반 모델의 기본이 되는 모델입니다. - 모델 학습 시 각 설명변수마다 feature importance(중요도)를 계산 => 불순도 측정 => 단순한 트리를 생성하기 위해 불순도가 가장 낮은(feature importance가 가장 높은) 설명변수를 상위 노드에 고정 (만약 비슷한 불순도를 갖는 설명변수가 있다면 더 많은 level(자식 노드)을 갖는 변수가 우선순위를 갖는 특징) -> Why? 자식 노드가 많을 수록 불순도..