#. Problem https://www.acmicpc.net/problem/20647 * The copyright in this matter is in acmicpc #. Resolution Process Read and understand problem Redefine the problem + abstract Create solution plan (select Algorithm, Data structure) Prove the plan (check performance time and usage memory) Carry out the plan Look back on the plan and find a way to improve it #. Solve 농장 : 1 ~ N^5 길 : 1 ~ N-1 이벤트 1..
#. Problem https://www.acmicpc.net/problem/11725* The copyright in this matter is in BAEKJOON 루트 없는 트리가 주어진다. 이때, 트리의 루트를 1이라고 정했을 때, 각 노드의 부모를 구하는 프로그램을 작성하시오. 첫째 줄에 노드의 개수 N (2 ≤ N ≤ 100,000)이 주어진다. 둘째 줄부터 N-1개의 줄에 트리 상에서 연결된 두 정점이 주어진다. 첫째 줄부터 N-1개의 줄에 각 노드의 부모 노드 번호를 2번 노드부터 순서대로 출력한다. #. Resolution Process 1. Read and understand problem 2. Redefine the problem + abstract 3. Create solution ..
조건부 추론 나무 조건부 추론 나무란 의사결정 나무(Decision Tree) + 통계적 유의성 확인(변수의 유의성) 가능한 수치를 제공해주는 Tree 입니다. Decision Tree(의사결정 나무) 알고리즘이란?(이동) 의사결정 나무 알고리즘에서 발생하는 두 가지 단점을 극복한 건강한(?) 나무입니다. - 통계적 유의성에 대한 판단 없이 노드를 분할하면서 생기는 과적합 문제 극복 - 다양한 값으로 분할 가능한 변수가 다른 변수에 비해 선호되는 문제 조건부 추론 나무를 통해, 통계적으로 컬럼별 중요도를 파악하고, 중요도가 큰 변수를 트리의 상위에 배치하여 인과관계를 조금 더 정확하게 판별할 수 있습니다. 1. 조건부 추론 나무 생성 및 시각화 ### 1. data sampling : train data..
Decision Tree 알고리즘 참고글 : [R] Decision Tree(의사결정 나무) 알고리즘 - rpart [R 분석] Decision Tree 매개변수 튜닝 1. Decision Tree (출처 : 위키백과) Decision tree(의사결정나무)는 분류 모델 중 tree기반 모델의 기본이 되는 모델입니다. - 모델 학습 시 각 설명변수마다 feature importance(중요도)를 계산 => 불순도 측정 => 단순한 트리를 생성하기 위해 불순도가 가장 낮은(feature importance가 가장 높은) 설명변수를 상위 노드에 고정 (만약 비슷한 불순도를 갖는 설명변수가 있다면 더 많은 level(자식 노드)을 갖는 변수가 우선순위를 갖는 특징) -> Why? 자식 노드가 많을 수록 불순도..