

big_2_2_1
Presentation
•
Professional Development
•
Professional Development
•
Hard
KS K
FREE Resource
0 Slides • 50 Questions
1
Multiple Choice
다음 중 분석 모형 평가에 대한 설명으로 가장 적절하지 않은 것은?
구축한 분석모형의 유용성을 판단하고 서로 다른 모형들을 비교 평가하는 과정이다.
구축한 분석모형이 실무에서 사용이 가능할 수 있을지를 판단하기 위해서는 주관적 평가 지표를 통한 평가가 필요하다.
분석모형은 구축하는 것으로 끝나는 것이 아니라 기존 운영시스템과의 연계 및 통합을 통해서 지속적으로 모형을 개선해 나가야 한다.
일반화 가능성, 효율성, 예측과 분류의 정확성으로 구분한다.
2
Multiple Choice
데이터 분석 모형의 성능을 평가하기 위한 기준 선택 시 고려 사항이 아닌 것은?
데이터 분석결과의 일반화 가능성
성능 평가 기준의 적합성
수행 중인 데이터 분석 모형의 타당성
사용된 학습 및 훈련 데이터의 정확성
3
Multiple Choice
다음 특징을 가지는 성능 평가지표로 옳은 것은?
=======================================
· 분류 목적의 머신러닝 모형 성능 평가 시 활용
· 분류 정확도의 평가지표로 사용
· 분류의 예측 범주와 데이터의 실제 분류 범주 활용
· 교차표 형태로 표현
교차 행렬
혼합 행렬
회귀 행렬
혼동 행렬
4
Multiple Choice
다음 중 혼동 행렬(Confusion Matrix)에 대한 설명으로 올바르지 않은 것은?
혼동 행렬은 참과 거짓으로 분류하는 규칙을 가진 모델에 대해 만들 수 있으며, 2가지 이상 되는 분류 문제에도 적용될 수 있다.
혼동 행렬은 분석 결과를 교차표(Cross Table)형태로 정리한 일종의 정오 분류표로 오차 행렬이라고도 한다.
혼동 행렬에서 True/False는 예측한 값, Positive/Negative는 예측한 값과 실제값의 비교 결과이다.
혼동 행렬에서 FP(False Positive)는 통계상 거짓긍정(1종 오류), FN(False Negative)는 거짓부정(2종 오류)을 말한다.
5
Multiple Choice
다음 중 혼동 행렬(Confusion Matrix)에서 산출 가능한 평가지표가 아닌 것은?
정분류율
특이도
지지도
재현율
6
Multiple Choice
다음은 혼동 행렬을 나타내는 표이다. ⓐ와 ⓑ에 들어갈 분류 값으로 가장 올바른 것은?
ⓐ: TP(True Positive), ⓑ: TN(True Negative)
ⓐ: TP(True Positive), ⓑ: FP(False Positive)
ⓐ: FN(False Negative), ⓑ: TN(True Negative)
ⓐ: FN(False Negative), ⓑ: FP(False Positive)
7
Multiple Choice
트위터 데이터로 감성 분석을 수행하여 메시지의 긍정과 부정을 분류하는 모델을 수립하였다. 분석을 수행한 결과가 아래의 표와 같이 주어졌을 때 모델의 정확성을 평가하는 정밀도(precision)와 모델의 완전성을 평가하는 재현율(recall)을 올바르게 계산한 것은? (소수 세번째 자리에서 반올림)
Precision: 0.83 / Recall: 0.15
Precision: 0.92 / Recall: 0.86
Precision: 0.83 / Recall: 0.92
Precision: 0.15 / Recall: 0.83
8
Multiple Choice
아래의 혼동 행렬에서 모델의 완전성을 평가하는 재현율(recall)과 모델의 정확성을 평가하는 정밀도(precision)을 올바르게 계산한 것은?
재현율 = 53
정밀도 = 31
재현율 = 53
정밀도 = 73
재현율 = 74
정밀도 = 32
재현율 = 54
정밀도 = 52
9
Multiple Choice
다음의 혼동 행렬를 이용하여 구한 F1 값은 얼마인가?
4/10
18/57
6/19
7/11
10
Multiple Choice
다음 특징을 가지는 모형의 성능 평가지표는?
===================================
● 정밀도와 재현율(민감도)를 하나로 통합한 지표
● 정밀도와 재현율(민감도)의 조화평균
● 0~1의 값을 가짐
● 정밀도와 재현율(민감도)가 모두 큰 값을 가지는 경우, 이 값도 큰 값을 가짐
정확도(Accuracy)
카파 통계량(Kappa Statistic)
Fl-Score
특이도(Specificity)
11
Multiple Choice
ROC(Receiver Operating Characteristic) 그래프에서 이상적으로 완벽히 분류한 모형의 X축과 Y축 값으로 옳은 것은? (X값, Y값)
(0, 0)
(0, 1)
(1, 0)
(1, 1)
12
Multiple Choice
분류 모형의 성능을 평가할 때 사용되는 방법론 중 사후확률과 각 분류기준 값에 의해 혼동 행렬을 만든 다음 민감도와 1-특이도를 산출하여 도표에 도식화하여 평가하는 방식은 무엇인가?
ROC 도표
이익도표
AUROC
예측률
13
Multiple Choice
다음은 ROC(Receiver Operating Characteristic) 곡선에 대한 설명이다. 가장 올바르지 않은 것은?
가로 X축을 혼동 행렬의 1-특이도(거짓긍정률)로 두고 세로 Y축을 민감도(참긍정률)로 두어 그 관계를 시각화한 그래프이다.
ROC 곡선이 왼쪽 상단(북서쪽 코너)에 가깝게 그려질수록 분류 모델의 성능이 우수함을 의미한다.
ROC 곡선이 45도 각도의 직선에 가깝게 그려질수록 분류 모델의 성능이 우수함을 의미한다.
여러 분류 모델의 성능을 비교하기 위해서 이를 단일 지표로 계량화한 성능분석 척도 AUC(Area Under the Curve)를 이용할 수 있다.
14
Multiple Choice
다음 특징을 가지는 성능 평가 방법은?
==============================
• 혼동 행렬의 값에서 거짓 긍정률(FP)와 참 긍정률(TP) 사이의 관계를 표현
• 목표변수 범주 값 분류 시 긍정과 부정 범주의 변화 판단
• 기준값의 변화에 따른 참긍정과 거짓긍정 비율의 변화 분석
최소제곱법(Least Square Method)
회귀곡선(Regression Curve)
최대우도법(Maximum Likelihood Estimation)
ROC(Receiver Operating Characteristic) 곡선
15
Multiple Choice
분류 모형을 평가하는 방법으로 랜덤 모델과 비교하여 해당 모델의 성과가 얼마나 향상되었는지를 각 등급별로 파악하는 그래프는 무엇인가?
향상도 곡선
AUC 도표
ROC 곡선
혼동 행렬
16
Multiple Choice
다음은 무엇에 관한 설명인가?
========================
• 여러 분류 모델의 성능을 비교하기 위해서 ROC 곡선을 단일 지표로 계량화한 성능분석 척도이다.
• ROC 곡선 아래의 면적을 의미하며, 분류 모델의 성능을 평가하기 위해 많이 사용된다.
AUC(Area Under the Curve)
ROC 도표
혼동 행렬
이익도표
17
Multiple Choice
이익도표(Lift Chart)를 작성함에 있어 평가도구 중 각 등급의 고객 중에서 해당 등급의 실제 구매자 수의 비율을 무엇이라 하는가?
Baseline Lift(기본 향상도)
% Captured Response(반응검출률)
% Response(반응률)
Lift(향상도)
18
Multiple Choice
다음 중 카파 통계량(Kappa Statistic)의 상관계수(K: Cohen's Kappa Coefficient)에 대한 설명으로 올바르지 않은 것은?
최초에 두 평가자가 일치하는지에 대한 척도로 개발
모델의 예측값과 실제값의 일치여부를 판정하는 통계량으로 사용
모형의 평가결과가 우연히 나온 결과가 아니며 그 평가의 유효성을 확보하는 지표로도 사용
-1에서 1사이의 범위를 가짐
19
Multiple Choice
다음 특징을 가지는 모형의 성능 평가지표는?
====================================
• 모형의 예측값과 실제값이 우연히 일치할 확률을 제외하여 반영
• 0~1의 값을 가짐
• 0에 가까울수록 모형의 예측값과 실제값이 불일치
• 1에 가까울수록 모형의 예측값과 실제값이 일치
정확도(Accuracy)
카파 통계량(Kappa Statistic)
민감도(Sensitivity)
특이도(Specificity)
20
Multiple Choice
다음 특징을 가지는 성능 평가 방법은?
==============================
• 전체 데이터셋를 모델 훈련용과 평가용으로 분할
• 전체 데이터를 K개로 분할, 차례로 검증용으로 사용
• 전체 데이터셋을 훈련 데이터와 검증 데이터로 나누어 모델링
• 성능 평가를 K회 반복 수행, 성능 평가들에 대한 평균값 활용
K-Fold 교차검증
ROC 곡선
AUC 면적
향상도 곡선
21
Multiple Choice
다음 중 회귀모형의 기본 평가지표에 대한 설명으로 가장 올바르지 않은 것은?
===============================================================
SSE는 예측값과 실제값의 차이(오차)의 제곱합이다.
MSE는 예측오차 제곱합들의 평균이다.
MAE는 예측한 결과값들의 평균 오류이다.
RMSE는 평균제곱오차(MSE)의 제곱근 값이다.
22
Multiple Choice
다음 중 회귀모형에 대한 평가지표의 계산식으로 올바르지 않은 것은?
오차제곱합(Error Sum of Square)은 i=1∑n(yi−y^i)2 이다
평균오차(Average Error)는 n1i=1∑n(yi−y^i) 이다.
평균제곱근오차(Root Mean Squared Error)은 n1i=1∑n(yi−y^i)2 이다.
평균절대백분율오차(Mean Absolute Percentage Error)는 n100i=1∑nyiyi−y^i 이다.
23
Multiple Choice
회귀모형에 대한 평가지표 중에서 단순히 오차의 크기를 비교하는 것이 아니라 오차 평균의 크기가 크게 차이나는 모델들도 비교할 수 있는 지표는?
RMSE(평균제곱근오차)
MAE(평균절대오차)
MAPE(평균절대백분율오차)
MSE(평균제곱오차)
24
Multiple Choice
다음은 지도학습 모델의 일반적인 평가 기준에 관한 설명이다. 가장 올바른 설명은?
일반화 가능성: 같은 모집단 내에서 다른 데이터를 적용하는 경우에도 결과가 안정적이라면 일반화 가능성이 높다고 할 수 있다.
효율성: 적은 데이터를 필요로 할수록 효율성이 높다고 할 수 있다.
정확성 : 정확성에 다소 떨어져도 안정적이고 효율적 모형이라면 의미가 있다.
해석력 : 입력 데이터와 출력 결과와의 관계를 잘 설명하면 해석력이 높다고 할 수 있다.
25
Multiple Choice
분류 모형을 평가하기 위한 기준 중 같은 모집단 내의 다른 데이터에 적용하는 경우에도 안정적인 결과를 제공하는지와 데이터를 확장하여 적용할 수 있는지를 평가하는 기준으로 적절한 것은?
예측과 분류의 정확성
효율성
일반화 가능성
해석 가능성
26
Multiple Choice
일반적으로 군집화 결과와 비교할 목푯값이 없는 군집 모델의 성능 평가지표로 가장 적합한 것은?
랜드지수(Rand Index)
던 지수(Dunn Index)
카파 상관계수(Kappa Coefficient)
상호정보량(Mutual Information)
27
Multiple Choice
다음 중 데이터의 정규성 검정 방법에 대한 설명 중 가장 적합한 것은?
R에서 데이터가 많은 경우는 shapiro.test()함수를 적은 경우는 ks.test() 함수를 이용한다.
K-S 검정은 주어진 데이터가 어떤 특정한 분포를 따르는가를 기준이 되는 정규분포와 비교한다.
샤피로-윌크 검정은 기하분포를 따르는 데이터의 정규성 검정에는 사용할 수 없다.
정규성 검정의 통계적 방법으로 샤피로-윌크 검정, K-S 검정, 더빈 왓슨 검정을 이용한다.
28
Multiple Choice
다음은 데이터 {x}"의 정규성을 검정하기 위한 샤피로-윌크 검정에 대한 설명이다. 가장 적합 하지 않은 것은?
귀무가설(H0)은 '데이터 {xi}i=1 n 는 정규분포를 따른다'이다.
R에서 shapiro.test() 함수를 이용할 수 있다.
귀무가설의 유의확률(p-value)이 유의수준(a=0.05)보다 작다면, 주어진 데이터 {xi}i=1 n 는 정규분포를 따른다고 할 수 있다.
일반적으로 데이터가 적을 경우(n < 2,000)는 샤피로-윌크 검정을 실시하고, 데이터가 많으면 콜모고로프-스미르노프 적합성 검정(K-S 검정)을 사용한다.
29
Multiple Choice
R 함수를 이용하여 데이터의 정규성 검정 결과를 다음과 같은 그래프로 표현할 수 있는 검정 방법은?
샤피로-윌크 검정
K-S 적합성 검정
Q-Q Plot
카이제곱 검정
30
Multiple Choice
아래의 잔차도를 통한 잔차분석의 설명으로 가장 올바르지 못한 것은?
선형 회귀분석에서 선형성 가정을 확인하기 위해 잔차분석을 한다.
가로축은 종속변수, 세로축은 독립변수에 따른 잔차를 통해 잔차의 분산이 일정하다는 등분산성의 가정이 위배된다는 사실을 알 수 있다.
잔차의 분포가 2차 함수 형태를 따르게 되므로 회귀식은 2차 함수를 적용한 회귀식을 추정해야한다.
잔차 대 적합치를 표현한 그래프는 잔차의 분산은 일정하다는 가정을 확인하는데 사용된다.
31
Multiple Choice
다음 특징을 가지는 모형의 안정성 평가 방법은?
======================================
• 회귀모형이 옳다는 전제하에 이루어지며 데이터의 변화가 모형의 추정에 어떠한 영향을 미치는 지를 알아보는 것이다.
• 데이터에서 관측값을 하나씩 제거하는 방법으로 진행하며 분석 결과의 주요 부분에 많은 변동이 있다면 모형의 안정성은 약하다고 판단한다.
• 평가 방법으로 Cook's distance, DFBETAS, DFFITS, Leverage H 등이 있다.
모형진단
영향력 진단
교차검증
자료진단
32
Multiple Choice
다음 중 교차검증(Cross-validation)에 대한 설명으로 가장 옳지 않은 것은?
교차검증은 모델의 일반화 오류에 대해 신뢰할 수 있는 추정치를 구하기 위해 훈련, 평가 데이터를 기반으로 하는 검증 기법이다.
LOOCV를 사용할 때 데이터셋에서 낭비되는 데이터는 없다.
LOOCV의 측정 · 평가 비용은 K-Fold, 랜덤 서브샘플링과 비교하여 가장 저렴하다.
랜덤 서브샘플링은 모집단으로부터 조사의 대상이 되는 표본을 무작위로 추출하는 기법이다.
33
Multiple Choice
다음 중에서 전체 데이터에서 평가 데이터만큼 학습에 사용할 수 없어서 데이터 손실이 발생하는 교차검증 기법은?
K-Fold Cross Validation
Holdout Cross Validation
Random Sub-Sampling
LOOCV
34
Multiple Choice
다음 중 홀드 아웃 교차검증 기법에 대한 설명으로 적합하지 않은 것은?
일반적으로 5:5, 7:3 등의 비율로 데이터를 나누어 학습과 평가에 사용한다.
훈련 데이터는 모델을 구축을 위한 데이터이므로 평가 데이터보다 더 많아야 한다.
각 샘플들이 학습과 평가에 얼마나 많이 사용할 것인지 횟수를 제한하지 않아 특정 데이터만 학습되는 경우가 발생할 수 있다.
계산량이 많지 않아 모형을 쉽게 평가할 수 있으나 전체 데이터에서 평가분 만큼 학습에 사용할 수 없으므로 데이터 손실이 발생한다.
35
Multiple Choice
다음 중 부트스트랩(Bootstrap)을 설명한 것으로 가장 적합하지 않은 것은?
부트스트랩을 통해 100개의 샘플을 추출하더라도 샘플에 한 번도 선택되지 않는 원시(raw) 데이터가 발생할 수 있는데 전체 샘플의 약 36.8%가 해당된다.
주어진 자료에서 단순 랜덤 복원추출 방법을 활용하여 동일한 크기의 표본을 여러 개 생성 하는 샘플링 방법이다.
선택적 복원추출 기법으로, 전체 데이터에서 중복을 허용하지 않고 데이터 크기만큼 샘플을 추출하고 이를 학습 데이터로 한다.
전체 데이터 샘플이 N개이고 부트스트랩으로 N개의 샘플을 추출하는 경우, 특정 샘플이 학습 데이터에 포함될 확률은 약 63.2%이다.
36
Multiple Choice
다음은 모평균에 대한 유의성 검정에 대한 설명이다. 가장 옳지 않은 것은?
모분산(σ²)을 알고 있느냐 유무에 따라 Z-검정 또는 t-검정을 사용한다.
모분산을 알지 못해도 검정통계량의 분포를 정규분포로 근사할 수 있으면 Z-검정을 실시한다.
모평균만 알고 있으면 모분산을 알지 못해도 Z-검정을 실시한다.
모평균을 알고 있을 때 Z-검정, t-검정을 사용하여 유의성을 검정한다.
37
Multiple Choice
두 집단 간의 평균을 비교하는 모수적 통계 방법으로서 표본이 정규성, 등분산성, 독립성 등을 만족할 경우 적용하는 검정 방법은?
F-검정
카이제곱 검정
t-검정
분산분석
38
Multiple Choice
다음 중 적합도 검정(Goodness of Fit test)에 대한 설명으로 가장 올바르지 않은 것은?
적합도 검정 기법으로 샤피로-월크 검정, K-S 검정, 카이제곱 검정, Q-Q Plot이 있다.
적합도 검정은 표본 집합의 분포가 주어진 특정 이론을 따르고 있는지를 검정하는 기법이다.
정규성 검정은 R에서 sharpirowilk.test() 함수를 이용하여 검정할 수 있으며, 이때 귀무 가설은 "표본은 정규분포를 따른다"이다.
카이제곱 검정에서는 R에서 chisq.test 함수를 이용하여 나온 결과의 p-value가 유의수준 0.05보다 클 경우 관측된 데이터가 가정된 확률을 따른다고 할 수 있다.
39
Multiple Choice
다음 중 데이터 분석 모형의 오류에 대한 설명으로 가장 적절하지 않은 것은?
일반화 오류는 분석 모형을 만들 때 주어진 데이터 집합의 특성을 지나치게 반영하여 발생하는 오류이다.
일반화 오류는 과소 적합되었다고 한다.
일반화 오류는 주어진 데이터 집합은 모집단의 일부분임에도 불구하고 그것이 가지고 있는 주변적인 특성, 단순 잡음 등을 모두 묘사하기 때문에 일반화 오류가 발생한다.
학습 오류는 주어진 데이터 집합에 부차적인 특성과 잡음이 있다는 점을 고려하여 그것의 특성을 덜 반영하도록 분석 모형을 만들어 생기는 오류이다.
40
Multiple Choice
모형을 개발하여 운영 상황에서 실제 테스트를 할 때 모형 개발 데이터를 통해서는 높은 적중률을 보이지만 테스트 데이터에서는 적중률이 떨어져 적중률을 유지하지 못하는 것을 무엇이라고 하는가?
일반화
과대적합
미적합
과소평가
41
Multiple Choice
다음 그림은 사용된 예측 모형 함수가 학습 데이터셋 상의 모든 데이터를 오차가 없이 추정하는 예이다. 이 경우 발생할 수 있는 현상은?
미적합
과소적합
일반화
과대적합
42
Multiple Choice
다음 중 과대적합(overfitting)의 발생 원인에 대한 설명으로 가장 부적절한 것은?
과대적합이 발생할 것으로 예상되면 학습을 종료하고 업데이트 하는 과정을 반복해 과적합을 방지할 수 있다.
과대적합은 분석 변수가 너무 많이 존재하고 분석 모델이 복잡할 때 발생한다.
분석 데이터가 모집단의 특성을 설명하지 못하면 발생한다.
생성된 모델은 분석 데이터에 최적화되었기 때문에 훈련 데이터의 작은 변화에 민감하게 반응하는 경우는 발생하지 않는다.
43
Multiple Choice
다음 중 과대적합(overfitting)에 대한 설명으로 가장 부적절한 것은?
과대적합은 제한된 학습 데이터셋에 너무 과하게 특화되어 새로운 데이터에 대한 오차가 매우 커지는 현상이다.
과대적합을 방지하기 위해 데이터셋 증가, 모델 복잡도 감소, 가중치 규제, 드롭아웃 방법을 적용한다.
가중치 규제는 개별 가중치 값을 제한하여 복잡한 모델을 좀 더 간단하게 하는 방법으로 종류는 P1 규제와 P2 규제가 있다.
드롭아웃은 학습 과정에서 신경망 일부를 사용하지 않는 방법이다.
44
Multiple Choice
다음은 드롭아웃 기법에 대한 설명이다. 가장 올바르지 않은 것은?
신경망 학습 시에만 사용하고, 예측 시에는 사용하지 않는다.
일반 신경망의 은닉층(Hidden Layer)의 뉴런을 무작위로 골라 삭제하며, 삭제된 뉴런은 신호를 전달하지 않는다.
뉴런을 임의로 삭제하여 적은 수의 뉴런만으로 지정된 레이블을 맞추도록 훈련하는 것이다.
적은 수의 뉴런만으로 학습을 하므로 학습 시간이 오래 걸리지 않는다는 장점이 있다.
45
Multiple Choice
다음 중 기울기 방향으로 힘을 받으면 물체가 가속된다는 물리 법칙을 적용한 알고리즘을 뜻하는 용어는 무엇인가?
AdaGrad(Adaptive Gradient Algorithm)
모멘텀(Momentum)
Adam(Adaptive Moment Estimation)
확률적 경사 하강법(Stochastic Gradient Descent)
46
Multiple Choice
다음 중 매개변수 최적화에 대한 설명으로 가장 올바르지 않은 것은?
매개변수 최적화는 학습 모델과 실제 레이블과의 차이를 손실함수로 표현하며, 학습의 목적은 오차, 손실함수의 값이 최대한 작도록 하는 매개변수(가중치, 편향)를 찾는 것이다.
매개변수 최적화에는 2차원(x축 가중치와 y축 손실 값) 손실함수 그래프를 이용한다.
매개변수의 종류에는 하나의 뉴런에 입력된 모든 값을 다 더한 가중값에 더해주는 상수인 가중치(Weight)와 각 입력값에 각기 다르게 곱해지는 수치인 편향(Bias)가 있다.
매개변수 최적화 기법에는 경사 하강법을 기반으로 한 방법들, 모멘텀 방식을 도입한 학습 방법, 그 외 AdaGrad, RMSProp, Adam 등이 있다.
47
Multiple Choice
다음에서 설명하는 매개변수 최적화 기법을 가장 잘 나타낸 것은 무엇인가?
============================================================
• 손실 함수의 기울기가 큰 첫 부분에서는 크게 학습하다가 최적점에 가까워질수록 학습률을 줄여 조금씩 적게 학습하는 방식이다.
• 학습을 진행하면서 학습률을 점차 줄여나가는 학습률 감소 기법을 적용한 최적화 알고리즘이다.
• 매개변수 전체의 학습률 값을 일괄적으로 낮추는 것이 아니라 각각의 매개변수에 맞는 학습률 값을 만들어주는 방식이다.
AdaGrad(Adaptive Gradient Algorithm)
모멘텀(Momentum)
Adam(Adaptive Moment Estimation)
확률적 경사하강법(Stochastic Gradient Descent)
48
Multiple Choice
다음 중 분석 모형 융합을 위한 방법으로 가장 올바르지 않은 설명은?
다수결(Majority Voting)은 여러 모형에서 출력된 결과를 종합하여 다수결로 나온 모형을 최종 모형으로 설정하는 방법이다.
에이다 부스팅(AdaBoosting) 모형은 분류/회귀 문제에 상관없이 개별 멤버 모형으로 회귀분석 모형을 사용한다.
부스팅(Boosting) 방법은 미리 정해진 개수의 모형 집합을 사용하는 것이 아니라 하나의 모형에서 시작하여 모형 집합에 포함할 개별 모형을 하나씩 추가하는 방식이다.
배깅(Bagging)은 학습 데이터의 중복을 허용하며 학습 데이터셋 분할 기법으로 복원추출 하는 방법이다.
49
Multiple Choice
음 의사결정트리의 특징인 분산이 크다는 점을 고려하여 더 많은 무작위성을 주어 여러 개의 약한 학습기(의사결정트리 모형)들을 생성한 후 이를 선형 결합하여 최종 학습기를 만드는 방법으로 가장 적합한 것은?
배깅(Bagging)
랜덤 포레스트(Random Forest)
부스팅(Boosting)
보팅(Voting)
50
Multiple Choice
다음 중 최종모형 선정 과정으로 올바른 것은?
최종모형 평가기준 선정 → 최종모형 분석결과 검토 → 분석알고리즘 결과 비교 → 챔피언 모델 등록
챔피언 모델 등록 → 최종모형 평가기준 선정 → 최종모형 분석결과 검토 → 분석알고리즘 결과 비교
최종모형 평가기준 선정 → 분석알고리즘 결과 비교 → 최종모형 분석결과 검토 → 챔피언 모델 등록
챔피언 모델 등록 → 최종모형 평가기준 선정 → 분석알고리즘 결과 비교 → 최종모형 분석 결과 검토
다음 중 분석 모형 평가에 대한 설명으로 가장 적절하지 않은 것은?
구축한 분석모형의 유용성을 판단하고 서로 다른 모형들을 비교 평가하는 과정이다.
구축한 분석모형이 실무에서 사용이 가능할 수 있을지를 판단하기 위해서는 주관적 평가 지표를 통한 평가가 필요하다.
분석모형은 구축하는 것으로 끝나는 것이 아니라 기존 운영시스템과의 연계 및 통합을 통해서 지속적으로 모형을 개선해 나가야 한다.
일반화 가능성, 효율성, 예측과 분류의 정확성으로 구분한다.
Show answer
Auto Play
Slide 1 / 50
MULTIPLE CHOICE
Similar Resources on Wayground
32 questions
2021 도전 골든벨
Presentation
•
University
33 questions
기초 3급 - 기말고사
Presentation
•
KG
36 questions
포천고1 7과 내신마스터 문풀
Presentation
•
12th Grade
50 questions
big_2_1_2
Presentation
•
Professional Development
52 questions
Silver the Shrew
Presentation
•
KG
36 questions
하늘 식당, 돌고래
Presentation
•
KG - 12th Grade
37 questions
2025 성북강북교육지원청 영어(담당)교사 전문성 신장 지원 연수
Presentation
•
Professional Development
33 questions
연습 12
Presentation
•
Professional Development
Popular Resources on Wayground
20 questions
STAAR Review Quiz #3
Quiz
•
8th Grade
20 questions
Equivalent Fractions
Quiz
•
3rd Grade
6 questions
Marshmallow Farm Quiz
Quiz
•
2nd - 5th Grade
20 questions
Main Idea and Details
Quiz
•
5th Grade
20 questions
Context Clues
Quiz
•
6th Grade
20 questions
Inferences
Quiz
•
4th Grade
19 questions
Classifying Quadrilaterals
Quiz
•
3rd Grade
12 questions
What makes Nebraska's government unique?
Quiz
•
4th - 5th Grade