Search Header Logo

Day 16 - Serius bat gaboong

Authored by PO Bootcamp

Computers

Professional Development

Day 16 - Serius bat gaboong
AI

AI Actions

Add similar questions

Adjust reading levels

Convert to real-world scenario

Translate activity

More...

    Content View

    Student View

10 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

20 sec • 10 pts

Dalam konteks pembelajaran mesin, ensemble learning adalah teknik yang menggabungkan prediksi dari beberapa model untuk menghasilkan prediksi yang lebih akurat dibandingkan dengan model tunggal. Dalam kasus regresi, tujuan utamanya adalah untuk:

Mengklasifikasikan data ke dalam kategori yang berbeda.

Mengurangi varians tanpa meningkatkan bias secara signifikan.

Meningkatkan kecepatan pelatihan model.

Mengurangi dimensi dari dataset.

2.

MULTIPLE CHOICE QUESTION

20 sec • 10 pts

Ensemble Learning adalah teknik yang menggabungkan prediksi dari beberapa model untuk menghasilkan prediksi yang lebih baik dibandingkan dengan menggunakan model tunggal. Pendekatan ini sangat berguna dalam kasus-kasus tertentu. Manakah dari opsi berikut ini yang bukan alasan mengapa Ensemble Learning sering kali menghasilkan performa yang lebih baik dalam tugas regresi?

Meningkatkan keakuratan prediksi dengan menggabungkan kekuatan masing-masing model individu.

Mengurangi varians dari prediksi dengan menggunakan rata-rata atau voting mayoritas, sehingga menghasilkan model yang lebih stabil.

Mempercepat waktu pelatihan model karena menggunakan algoritma yang lebih sederhana dibandingkan dengan model tunggal.

Mengurangi risiko overfitting dengan menggabungkan prediksi dari model yang dilatih pada dataset yang berbeda atau dengan parameter yang berbeda.

3.

MULTIPLE CHOICE QUESTION

20 sec • 10 pts

Bagging, singkatan dari Bootstrap Aggregating, adalah teknik ensemble learning yang meningkatkan stabilitas dan akurasi dari algoritma machine learning. Ini dilakukan dengan cara:

Melatih model secara berurutan dengan memberikan bobot lebih pada sampel yang salah diklasifikasikan.

Menggabungkan prediksi dari berbagai model dengan memilih kelas yang paling sering.

Membuat beberapa subset dari dataset asli dengan pengambilan sampel ulang dengan penggantian dan melatih model pada setiap subset tersebut.

Menggunakan sebuah meta-model untuk menggabungkan prediksi dari model-model dasar.

4.

MULTIPLE CHOICE QUESTION

20 sec • 10 pts

Dalam Bagging (Bootstrap Aggregating), setiap model dalam ensemble dilatih secara independen pada sampel data yang diambil dengan penggantian dari dataset asli. Teknik ini efektif dalam mengurangi varians model. Apakah pernyataan berikut ini benar mengenai Bagging?

Bagging secara khusus meningkatkan bias model dan mengurangi varians.

Setiap model dalam Bagging harus berbeda secara algoritma untuk efektivitas maksimal.

Bagging dapat menggunakan jenis model yang sama atau berbeda asalkan dilatih pada sampel data yang berbeda.

Bagging tidak efektif untuk model yang sudah memiliki bias yang rendah dan varians yang tinggi.

5.

MULTIPLE CHOICE QUESTION

20 sec • 10 pts

Adaptive Boosting (AdaBoost) adalah metode boosting yang bertujuan untuk meningkatkan kinerja model regresi dengan

Membuat dan menggabungkan ratusan model kecil yang lemah untuk membentuk model yang kuat.

Memberikan bobot yang sama pada setiap prediksi dari model yang berbeda.

Secara iteratif menyesuaikan bobot dari sampel yang salah diklasifikasikan sehingga model berikutnya dapat fokus pada kasus yang lebih sulit.

Memilih secara acak fitur-fitur dari dataset untuk mengurangi dimensi.

6.

MULTIPLE CHOICE QUESTION

20 sec • 10 pts

Dalam teknik Boosting seperti Adaptive Boosting (AdaBoost), proses pelatihan model dilakukan secara berurutan dengan setiap model berikutnya berusaha memperbaiki kesalahan dari model sebelumnya. Bagaimana cara Adaptive Boosting mengurangi kesalahan pada model ensemble?

Dengan memberikan bobot yang lebih tinggi pada observasi yang salah diprediksi oleh model sebelumnya, sehingga model berikutnya dapat fokus pada kasus sulit tersebut.

Dengan menggabungkan model secara acak tanpa memperhatikan performa model individu.

Dengan menggunakan setiap model untuk memprediksi variabel target yang berbeda dalam dataset.

Dengan melatih setiap model pada dataset lengkap tanpa sampling atau penggantian.

7.

MULTIPLE CHOICE QUESTION

20 sec • 10 pts

Stacking (stacked generalization) adalah metode untuk menggabungkan berbagai model pembelajaran mesin dengan:

Membagi dataset menjadi beberapa subset dan melatih setiap model pada satu subset.

Memilih satu model berdasarkan kinerja validasi silang terbaik dan mengabaikan model lainnya.

Melatih model-model dasar pada dataset yang sama, kemudian menggunakan prediksi dari model-model tersebut sebagai input untuk meta-model yang membuat prediksi akhir.

Memberikan bobot yang sama untuk prediksi dari setiap model dasar.

Access all questions and much more by creating a free account

Create resources

Host any resource

Get auto-graded reports

Google

Continue with Google

Email

Continue with Email

Classlink

Continue with Classlink

Clever

Continue with Clever

or continue with

Microsoft

Microsoft

Apple

Apple

Others

Others

Already have an account?