
Quiz KNN dan Evaluasi Model

Quiz
•
Engineering
•
University
•
Medium

Louis Anna
Used 1+ times
FREE Resource
25 questions
Show all answers
1.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
KNN sering disebut sebagai algoritma lazy learner karena tidak langsung membangun model selama proses pelatihan. Mengapa hal ini dapat menjadi tantangan saat menangani dataset yang sangat besar?
Karena model KNN tidak memerlukan tahap validasi ulang setelah pelatihan.
Karena KNN menyimpan seluruh data untuk setiap proses prediksi.
Karena KNN secara otomatis akan menghapus data outlier tanpa memengaruhi proses prediksi.
Karena KNN hanya bisa digunakan untuk data kategorik, bukan data numerik.
Karena model KNN menyesuaikan bobot fitur secara dinamis setiap kali proses pelatihan.
2.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Menurut konsep KNN, pemilihan nilai k dapat sangat memengaruhi hasil klasifikasi. Bagaimana nilai kkk memengaruhi bentuk decision boundary?
Makin kecil k, decision boundary cenderung menjadi lebih halus dan bebas dari noise.
Makin besar k, decision boundary hanya akan terbentuk di sekitar satu titik pusat data.
Makin besar k, decision boundary cenderung menjadi lebih sederhana dan smooth.
Nilai k tidak memengaruhi bentuk decision boundary karena jarak sudah ditentukan.
Makin kecil k, makin sedikit data yang disimpan sehingga memudahkan proses klasifikasi.
3.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Anda memiliki dataset pelanggan (fitur: demografi dan riwayat pembelian) untuk memprediksi "Berpotensi Membeli" atau "Tidak Membeli." Anda sedang memilih metrik jarak (misalnya Euclidean vs. Manhattan). Manakah pernyataan paling tepat terkait pengaruh pemilihan metrik jarak terhadap kinerja KNN?
Memilih Euclidean distance akan selalu meningkatkan akurasi KNN tanpa pengecualian.
Manhattan distance lebih stabil pada dataset berdimensi tinggi daripada Euclidean distance.
Jika skala fitur sangat bervariasi, semua metrik jarak akan menghasilkan kinerja serupa.
Perbedaan metrik jarak dapat memengaruhi hasil, terutama jika fitur memiliki skala atau distribusi yang berbeda.
Euclidean distance hanya cocok untuk fitur kategorik, sedangkan Manhattan distance untuk fitur numerik.
4.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Bandingkan dua pendekatan evaluasi model KNN: (1) menggunakan pembagian data 70% untuk pelatihan dan 30% untuk validasi, dan (2) menggunakan cross-validation dengan 5 folds. Manakah pernyataan yang paling tepat?
Pendekatan (1) cenderung lebih akurat daripada (2) karena lebih banyak data untuk validasi.
Pendekatan (1) mengurangi bias, sedangkan (2) lebih rentan overfitting.
Pendekatan (2) cenderung menghasilkan estimasi kinerja yang lebih stabil karena memanfaatkan beberapa fold validasi.
Pendekatan (1) dan (2) sama-sama tidak relevan untuk KNN, karena KNN merupakan lazy learner.
Pendekatan (1) umumnya memerlukan lebih sedikit waktu komputasi dibandingkan (2), tetapi hasilnya lebih stabil.
5.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Mengapa feature scaling (misalnya normalisasi atau standardisasi) penting dalam penerapan KNN?
Untuk mengurangi jumlah neighbors yang dibutuhkan.
Karena KNN tidak membutuhkan data kontinu, sehingga perlu diskritisasi.
Agar fitur dengan rentang nilai besar tidak mendominasi perhitungan jarak.
Karena KNN tidak bisa berjalan tanpa feature scaling.
Untuk menggabungkan fitur kategorik dan numerik agar menjadi satu skala.
6.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Sebuah dataset memiliki variabel Age (0-100) dan Income (dalam ribuan rupiah, rentang 1.000-10.000). Anda akan memakai KNN untuk memprediksi keanggotaan kelas "Berlangganan" vs. "Tidak Berlangganan." Manakah tindakan terbaik sebelum menghitung jarak pada data tersebut?
Menghapus variabel Income karena rentangnya terlalu besar.
Melakukan feature scaling pada semua fitur.
Menggunakan k=1 supaya jarak lebih mudah dihitung.
Tidak perlu melakukan apa-apa karena KNN menyesuaikan skala secara otomatis.
Mengonversi semua data numerik menjadi data kategorik.
7.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Dalam penerapan KNN, Anda mengamati bahwa ketika k=1, akurasi pada data pelatihan mencapai 100%, tetapi akurasi pada data uji justru sangat rendah. Ketika nilai kkk meningkat, akurasi pada data uji meningkat. Fenomena apa yang terjadi pada k=1?
Underfitting
Overfitting
Regularisasi yang berlebihan
Penggunaan metrik jarak yang keliru
Model tidak terpengaruh sama sekali
Create a free account and access millions of resources
Similar Resources on Wayground
20 questions
Post Test-12

Quiz
•
University
20 questions
Post Test Topik-3

Quiz
•
University
20 questions
Post Test-11

Quiz
•
University
30 questions
Ujian SDLC X RPL 2

Quiz
•
1st Grade - University
20 questions
Pretest Short Course MS Excel

Quiz
•
University
20 questions
Post Test-14

Quiz
•
University
20 questions
Post Test-9

Quiz
•
University
20 questions
QUIZ - KONSENTRASI TEGANGAN

Quiz
•
University
Popular Resources on Wayground
18 questions
Writing Launch Day 1

Lesson
•
3rd Grade
11 questions
Hallway & Bathroom Expectations

Quiz
•
6th - 8th Grade
11 questions
Standard Response Protocol

Quiz
•
6th - 8th Grade
40 questions
Algebra Review Topics

Quiz
•
9th - 12th Grade
4 questions
Exit Ticket 7/29

Quiz
•
8th Grade
10 questions
Lab Safety Procedures and Guidelines

Interactive video
•
6th - 10th Grade
19 questions
Handbook Overview

Lesson
•
9th - 12th Grade
20 questions
Subject-Verb Agreement

Quiz
•
9th Grade