Search Header Logo

Model Transformer

Authored by hajiar yuliana

Other

University

Used 1+ times

Model Transformer
AI

AI Actions

Add similar questions

Adjust reading levels

Convert to real-world scenario

Translate activity

More...

    Content View

    Student View

15 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Apa yang dimaksud dengan model Transformer dalam pemrosesan bahasa alami (NLP)?

Model yang menggunakan arsitektur berbasis jaringan saraf tiruan untuk menerjemahkan bahasa manusia menjadi kode komputer.

Model yang hanya mengandalkan mekanisme perhatian (attention) tanpa menggunakan RNN atau CNN

Model yang hanya digunakan untuk menghasilkan gambar dari teks.

Model yang hanya menggunakan CNN untuk memproses data teks.

2.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Mekanisme attention dalam model Transformer berguna untuk....

Menghasilkan gambar dari teks.

Mempercepat pelatihan model dengan mengurangi jumlah parameter.

Menggantikan seluruh proses encoding-decoding.

Menentukan bagian mana dari input yang harus diperhatikan lebih banyak.

3.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Apa nama teknik attention yang digunakan dalam model Transformer?

Global Attention

Cross-Attention

Self-Attention

Local Attention

4.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Pada model Transformer, apa fungsi dari positional encoding?

Memberikan informasi tentang urutan token dalam input.

Menggantikan mekanisme attention.

Mengurangi kompleksitas komputasi.

Menghasilkan output dalam bentuk vektor numerik.

5.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Dalam model Transformer, apa yang dimaksud dengan multi-head attention?

Penggunaan beberapa lapisan attention secara paralel untuk menangkap hubungan yang berbeda.

Penggunaan attention untuk menghasilkan gambar.

Penggunaan attention untuk menggantikan fungsi pooling.

Penggunaan satu lapisan attention yang diulang berkali-kali.

6.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Apa yang dimaksud dengan encoder-decoder architecture dalam model Transformer?

Encoder dan decoder bekerja secara independen tanpa saling berhubungan.

Encoder mengubah input menjadi representasi vektor, sedangkan decoder menghasilkan output dari representasi tersebut.

Encoder hanya digunakan untuk gambar, sedangkan decoder untuk teks.

Encoder-decoder tidak digunakan dalam model Transformer.

7.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Apa keuntungan utama model Transformer dibandingkan dengan model berbasis RNN?

Transformer lebih mudah diimplementasikan.

Transformer hanya membutuhkan sedikit data untuk dilatih.

Transformer tidak memerlukan pengkodean posisi.

Transformer dapat memproses input secara paralel, sehingga lebih cepat.

Access all questions and much more by creating a free account

Create resources

Host any resource

Get auto-graded reports

Google

Continue with Google

Email

Continue with Email

Classlink

Continue with Classlink

Clever

Continue with Clever

or continue with

Microsoft

Microsoft

Apple

Apple

Others

Others

Already have an account?