KNN sering disebut sebagai algoritma lazy learner karena tidak langsung membangun model selama proses pelatihan. Mengapa hal ini dapat menjadi tantangan saat menangani dataset yang sangat besar?

Quiz KNN dan Evaluasi Model

Quiz
•
Engineering
•
University
•
Medium

Louis Anna
Used 1+ times
FREE Resource
25 questions
Show all answers
1.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Karena model KNN tidak memerlukan tahap validasi ulang setelah pelatihan.
Karena KNN menyimpan seluruh data untuk setiap proses prediksi.
Karena KNN secara otomatis akan menghapus data outlier tanpa memengaruhi proses prediksi.
Karena KNN hanya bisa digunakan untuk data kategorik, bukan data numerik.
Karena model KNN menyesuaikan bobot fitur secara dinamis setiap kali proses pelatihan.
2.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Menurut konsep KNN, pemilihan nilai k dapat sangat memengaruhi hasil klasifikasi. Bagaimana nilai kkk memengaruhi bentuk decision boundary?
Makin kecil k, decision boundary cenderung menjadi lebih halus dan bebas dari noise.
Makin besar k, decision boundary hanya akan terbentuk di sekitar satu titik pusat data.
Makin besar k, decision boundary cenderung menjadi lebih sederhana dan smooth.
Nilai k tidak memengaruhi bentuk decision boundary karena jarak sudah ditentukan.
Makin kecil k, makin sedikit data yang disimpan sehingga memudahkan proses klasifikasi.
3.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Anda memiliki dataset pelanggan (fitur: demografi dan riwayat pembelian) untuk memprediksi "Berpotensi Membeli" atau "Tidak Membeli." Anda sedang memilih metrik jarak (misalnya Euclidean vs. Manhattan). Manakah pernyataan paling tepat terkait pengaruh pemilihan metrik jarak terhadap kinerja KNN?
Memilih Euclidean distance akan selalu meningkatkan akurasi KNN tanpa pengecualian.
Manhattan distance lebih stabil pada dataset berdimensi tinggi daripada Euclidean distance.
Jika skala fitur sangat bervariasi, semua metrik jarak akan menghasilkan kinerja serupa.
Perbedaan metrik jarak dapat memengaruhi hasil, terutama jika fitur memiliki skala atau distribusi yang berbeda.
Euclidean distance hanya cocok untuk fitur kategorik, sedangkan Manhattan distance untuk fitur numerik.
4.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Bandingkan dua pendekatan evaluasi model KNN: (1) menggunakan pembagian data 70% untuk pelatihan dan 30% untuk validasi, dan (2) menggunakan cross-validation dengan 5 folds. Manakah pernyataan yang paling tepat?
Pendekatan (1) cenderung lebih akurat daripada (2) karena lebih banyak data untuk validasi.
Pendekatan (1) mengurangi bias, sedangkan (2) lebih rentan overfitting.
Pendekatan (2) cenderung menghasilkan estimasi kinerja yang lebih stabil karena memanfaatkan beberapa fold validasi.
Pendekatan (1) dan (2) sama-sama tidak relevan untuk KNN, karena KNN merupakan lazy learner.
Pendekatan (1) umumnya memerlukan lebih sedikit waktu komputasi dibandingkan (2), tetapi hasilnya lebih stabil.
5.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Mengapa feature scaling (misalnya normalisasi atau standardisasi) penting dalam penerapan KNN?
Untuk mengurangi jumlah neighbors yang dibutuhkan.
Karena KNN tidak membutuhkan data kontinu, sehingga perlu diskritisasi.
Agar fitur dengan rentang nilai besar tidak mendominasi perhitungan jarak.
Karena KNN tidak bisa berjalan tanpa feature scaling.
Untuk menggabungkan fitur kategorik dan numerik agar menjadi satu skala.
6.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Sebuah dataset memiliki variabel Age (0-100) dan Income (dalam ribuan rupiah, rentang 1.000-10.000). Anda akan memakai KNN untuk memprediksi keanggotaan kelas "Berlangganan" vs. "Tidak Berlangganan." Manakah tindakan terbaik sebelum menghitung jarak pada data tersebut?
Menghapus variabel Income karena rentangnya terlalu besar.
Melakukan feature scaling pada semua fitur.
Menggunakan k=1 supaya jarak lebih mudah dihitung.
Tidak perlu melakukan apa-apa karena KNN menyesuaikan skala secara otomatis.
Mengonversi semua data numerik menjadi data kategorik.
7.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Dalam penerapan KNN, Anda mengamati bahwa ketika k=1, akurasi pada data pelatihan mencapai 100%, tetapi akurasi pada data uji justru sangat rendah. Ketika nilai kkk meningkat, akurasi pada data uji meningkat. Fenomena apa yang terjadi pada k=1?
Underfitting
Overfitting
Regularisasi yang berlebihan
Penggunaan metrik jarak yang keliru
Model tidak terpengaruh sama sekali
Create a free account and access millions of resources
Similar Resources on Quizizz
25 questions
PTS XI KK TKJ Semester Genap 2024/2025

Quiz
•
11th Grade - University
20 questions
QUIZ - KONSENTRASI TEGANGAN

Quiz
•
University
20 questions
Post Test-12

Quiz
•
University
20 questions
Post Test Topik-3

Quiz
•
University
20 questions
Pre Test Buku Manual

Quiz
•
10th Grade - University
20 questions
Post Test-9

Quiz
•
University
20 questions
KL3271 - Kuis #8: Manajemen dan Estimasi Biaya

Quiz
•
University
20 questions
Kalibrasi dan Validasi Alat Ukur

Quiz
•
University
Popular Resources on Quizizz
15 questions
Character Analysis

Quiz
•
4th Grade
17 questions
Chapter 12 - Doing the Right Thing

Quiz
•
9th - 12th Grade
10 questions
American Flag

Quiz
•
1st - 2nd Grade
20 questions
Reading Comprehension

Quiz
•
5th Grade
30 questions
Linear Inequalities

Quiz
•
9th - 12th Grade
20 questions
Types of Credit

Quiz
•
9th - 12th Grade
18 questions
Full S.T.E.A.M. Ahead Summer Academy Pre-Test 24-25

Quiz
•
5th Grade
14 questions
Misplaced and Dangling Modifiers

Quiz
•
6th - 8th Grade