DecTree Off A

DecTree Off A

University

10 Qs

quiz-placeholder

Similar activities

UTS-ML-24102022

UTS-ML-24102022

University

15 Qs

Evaluasi UTS Basis Data

Evaluasi UTS Basis Data

University

15 Qs

Intro to Deep Learning

Intro to Deep Learning

University

10 Qs

UAS - ADSI - SOAL A

UAS - ADSI - SOAL A

University

10 Qs

Network Fundamental

Network Fundamental

University

10 Qs

Hari 3 - Kuis Coding & Pengenalan AI

Hari 3 - Kuis Coding & Pengenalan AI

University

10 Qs

SBD_

SBD_

University

15 Qs

Week 3- lecture (DATA MODELS)

Week 3- lecture (DATA MODELS)

University

13 Qs

DecTree Off A

DecTree Off A

Assessment

Quiz

Computers

University

Easy

Created by

Utomo Pujianto

Used 3+ times

FREE Resource

10 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Apa yang dimaksud dengan Overfitting dalam Decision Tree-based Classifier?
Model yang gagal mengidentifikasi pola dalam data
Model yang belajar terlalu banyak dari data pelatihan dan gagal di data baru
Model yang terlalu sederhana
Model yang mengabaikan data kategorikal

Answer explanation

Overfitting terjadi ketika model terlalu kompleks dan belajar dengan sangat detail dari data pelatihan, sehingga gagal menggeneralisasi pada data baru.

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Apa kesalahan umum saat menggunakan Decision Tree dengan data yang sangat tidak seimbang?
Model akan lebih cepat mempelajari data
Pohon akan lebih kecil dan sederhana
Model akan cenderung memprediksi kelas mayoritas
Model akan menghasilkan akurasi yang lebih tinggi

Answer explanation

Decision Tree cenderung memprediksi kelas mayoritas jika data tidak seimbang, sehingga kelas minoritas tidak terwakili dengan baik.

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Apa perbedaan antara Gini Impurity dan Entropy dalam Decision Tree?
Keduanya menghasilkan hasil yang sama
Gini Impurity mengukur seberapa sering kelas dominan muncul, sementara Entropy mengukur ketidakteraturan
Entropy lebih efisien daripada Gini Impurity
Tidak ada perbedaan antara keduanya

Answer explanation

Gini Impurity mengukur ketidakteraturan dengan cara yang sedikit lebih cepat dan efisien dibandingkan Entropy, yang mengukur ketidakteraturan dengan rumus lebih kompleks.

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Apa yang salah jika kita tidak melakukan feature selection sebelum membangun Decision Tree?
Model akan lebih cepat belajar
Model akan menjadi lebih sederhana dan mudah dipahami
Model mungkin menggunakan fitur yang tidak relevan, memperburuk hasil klasifikasi
Tidak ada pengaruhnya

Answer explanation

Tanpa feature selection, Decision Tree mungkin akan menggunakan fitur yang tidak relevan atau berisik, yang dapat memperburuk akurasi model dan membuatnya lebih kompleks.

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Apa itu CART dalam konteks Decision Tree?
Algoritma untuk mengurangi jumlah node
Algoritma untuk klasifikasi dan regresi berbasis pohon keputusan
Teknik untuk mengukur Gini Impurity
Teknik untuk mempercepat pelatihan pohon keputusan

Answer explanation

CART (Classification and Regression Trees) adalah algoritma yang digunakan untuk membangun Decision Tree baik untuk masalah klasifikasi maupun regresi.

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Apa yang menjadi masalah utama saat menggunakan Decision Tree untuk dataset dengan banyak fitur kategorikal?
Model menjadi terlalu sederhana
Model kesulitan mengidentifikasi pola yang baik antara fitur numerik dan kategorikal
Model terlalu efisien
Fitur kategorikal tidak dapat digunakan dalam Decision Tree

Answer explanation

Decision Tree dapat kesulitan menangani banyak fitur kategorikal, terutama jika ada banyak level atau kategori, yang membuat pemisahan data menjadi lebih kompleks.

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Apa yang dimaksud dengan Overfitting pada Decision Tree?
Ketika pohon terlalu sederhana dan tidak mampu mempelajari pola dalam data
Ketika pohon belajar terlalu banyak dari data pelatihan dan gagal generalisasi ke data baru
Ketika model terlalu cepat dalam mengklasifikasikan data
Ketika pohon tidak dapat menangani data yang besar

Answer explanation

Overfitting terjadi ketika model belajar terlalu banyak dari data pelatihan, termasuk noise dan fluktuasi kecil, yang membuat model tidak dapat menggeneralisasi dengan baik ke data baru.

Create a free account and access millions of resources

Create resources
Host any resource
Get auto-graded reports
or continue with
Microsoft
Apple
Others
By signing up, you agree to our Terms of Service & Privacy Policy
Already have an account?