Search Header Logo

Optimization For Deep Learning

Authored by Fajar Astuti

Computers

University

Optimization For Deep Learning
AI

AI Actions

Add similar questions

Adjust reading levels

Convert to real-world scenario

Translate activity

More...

    Content View

    Student View

10 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Notasi mana yang akan Anda gunakan untuk menunjukkan aktivasi lapisan ke-3 jika masukannya adalah contoh ke-7 dari minibatch ke-8?

Answer explanation

superskrip [i]{j}(k) berarti lapisan ke-i, minibatch ke-j, contoh ke-k

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Manakah dari pernyataan tentang mini-batch gradient descent berikut yang Anda setujui?

Anda harus mengimplementasikan penurunan gradien batch-mini tanpa perulangan-for eksplisit pada batch-mini yang berbeda, sehingga algoritma memproses semua batch-mini pada waktu yang sama (vektorisasi).

Melatih satu epoch (satu melewati set pelatihan) menggunakan penurunan gradien batch mini lebih cepat daripada melatih satu epoch menggunakan penurunan gradien batch.

Satu iterasi penurunan gradien mini-batch (komputasi pada satu batch mini) lebih cepat daripada satu iterasi penurunan gradien batch.

Answer explanation

Vektorisasi bukan untuk menghitung beberapa batch mini dalam waktu yang bersamaan

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Mengapa ukuran mini-batch terbaik biasanya bukan 1 dan bukan m, melainkan sesuatu di antaranya?

Jika ukuran mini-batch adalah 1, kita kehilangan manfaat dari vektorisasi di seluruh contoh dalam mini-batch.

Jika ukuran mini-batch adalah m, kita berakhir dengan penurunan gradien batch, dimana kita tidak perlu memproses seluruh rangkaian pelatihan sebelum membuat kemajuan.

Jika ukuran mini-batch adalah m, kita berakhir dengan penurunan stochastic gradien batch, yang biasanya lebih lambat dibandingkan minibatch gradient.

Jika ukuran mini-batch adalah 1, kita mengakhiri seluruh set training sebelum membuat kemajuan

Answer explanation

Jika ukuran mini-batch adalah m, kita berakhir dengan penurunan gradien batch, yang harus memproses seluruh rangkaian pelatihan sebelum membuat kemajuan.

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Media Image

Misalkan biaya algoritme pembelajaran J, diplot sebagai fungsi dari jumlah iterasi, terlihat seperti ini:

Jika menggunakan penurunan gradien mini-batch, ini terlihat dapat diterima. Tetapi jika menggunakan penurunan gradien batch, ada yang salah.

Baik menggunakan penurunan gradien mini-batch atau penurunan gradien batch, ada yang salah.

Baik menggunakan penurunan gradien mini-batch atau penurunan gradien batch, dapat diterima.

Jika menggunakan penurunan gradien mini-batch, ada yang salah. Tetapi jika menggunakan penurunan gradien batch, ini terlihat dapat diterima.

Answer explanation

Akan ada beberapa osilasi saat menggunakan mini-batch gradient descent karena mungkin ada beberapa contoh data yang noise dalam batch. Namun penurunan gradien batch selalu menjamin J yang lebih rendah sebelum mencapai yang optimal.

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Misalkan suhu di Casablanca selama tiga hari pertama bulan Januari adalah sama:

Jan 1st: θ1 = 10

Jan 2nd: θ2 = 10

Misalkan exponentially weighted average dengan β = 0,5 untuk melacak suhu: v0 = 0, vt = βvt−1 + (1 − β)θt. Jika v2 adalah nilai yang dihitung setelah hari ke-2 tanpa koreksi bias, dan v2corrected adalah nilai yang dihitung dengan koreksi bias. Manakah nilai yang paling tepat?

v2=7.5 dan v2corrected = 10

v2=10 dan v2corrected = 7.5

v2=7.5 dan v2corrected = 7.5

v2=10 dan v2corrected = 10

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Manakah dari berikut ini yang BUKAN merupakan skema peluruhan (decay scheme) laju pembelajaran yang baik? Di sini, t adalah jumlah epoch.

7.

MULTIPLE SELECT QUESTION

45 sec • 1 pt

Media Image

Anda menggunakan exponentially weighted average pada kumpulan data suhu London. Anda menggunakan yang berikut untuk melacak suhu: vt = βvt−1 + (1 − β)θt. Garis merah di bawah dihitung menggunakan β = 0,9. Apa yang akan terjadi pada kurva merah saat Anda memvariasikan β? (Centang dua yang sesuai)

penurunan β akan menggeser garis merah sedikit ke kanan.

peningkatan β akan menggeser garis merah sedikit ke kanan.

Penurunan β akan menghasilkan lebih banyak osilasi di dalam garis merah.

peningkatan β akan menghasilkan lebih banyak osilasi di dalam garis merah.

Access all questions and much more by creating a free account

Create resources

Host any resource

Get auto-graded reports

Google

Continue with Google

Email

Continue with Email

Classlink

Continue with Classlink

Clever

Continue with Clever

or continue with

Microsoft

Microsoft

Apple

Apple

Others

Others

Already have an account?

Discover more resources for Computers