NLP_PREPROCESSING

NLP_PREPROCESSING

University

8 Qs

quiz-placeholder

Similar activities

Mikołaju rusz głową

Mikołaju rusz głową

1st Grade - University

10 Qs

Juliusz Słowacki

Juliusz Słowacki

1st Grade - Professional Development

10 Qs

Lerntheorien

Lerntheorien

University

12 Qs

MODUL 4 "ANALISIS KORELASI DAN REGRESI"

MODUL 4 "ANALISIS KORELASI DAN REGRESI"

University

10 Qs

Granica ciągu - podaj granicę ciągu dla n --> oo

Granica ciągu - podaj granicę ciągu dla n --> oo

7th Grade - University

9 Qs

kalenarz i czas

kalenarz i czas

1st Grade - University

11 Qs

Patologia Układu oddechowego

Patologia Układu oddechowego

University

13 Qs

Konkurs matematyczny dla klas 6

Konkurs matematyczny dla klas 6

6th Grade - University

11 Qs

NLP_PREPROCESSING

NLP_PREPROCESSING

Assessment

Quiz

Mathematics, Science

University

Hard

Created by

Robert Benke

Used 7+ times

FREE Resource

AI

Enhance your content

Add similar questions
Adjust reading levels
Convert to real-world scenario
Translate activity
More...

8 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

3 mins • 1 pt

Media Image

Jaki napis został zakodowany poniżej?

5a 61 63 7a 79 6e 61 6d 79

Zaczynamy

Czytamy

ZnaczyMamy

Zamykamy

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Ile znaków można maksymalnie zakodować przy pomocy kodowania UTF-8?

2^8

2^32

2^21

984 226

3.

MULTIPLE CHOICE QUESTION

45 sec • 1 pt

Tokenizacja ...

..dzieli tekst na zdania.

..wybiera istotne statystycznie słowa z tekstu.

..dzieli tekst na krótsze fragmenty zwane tokenami.

..tworzy listę bigramów dla tekstu.

4.

MULTIPLE CHOICE QUESTION

45 sec • 1 pt

Token powstały w wyniku stemmingu ...

..jest zawsze poprawnym słowem

..nigdy nie jest poprawnym słowem.

..może być, ale nie musi poprawnym słowem

..musi być, ale nie jest poprawnym słowem.

5.

MULTIPLE CHOICE QUESTION

45 sec • 1 pt

Odległość Hamminga pomiędzy

"Quzizz jest fajny" i

"Quzizz jest NUDNY"

wynosi:

5

3

1/5

Nie istnieje

6.

MULTIPLE CHOICE QUESTION

45 sec • 1 pt

word2vec, glove, fastText są modelami które:

umożliwiają modelowanie tekstu o różnej długości.

tworzą wektorową reprezentację dowolnego tekstu.

zanurzają tokeny w euklidesowej przestrzeni R^n.

7.

MULTIPLE CHOICE QUESTION

45 sec • 1 pt

Przy tworzeniu modelu liniowego do klasyfikacji zbioru tekstów lepiej jest:

wykorzystać cechy bag-of-words

wykorzystać cechy tf-idf

tf-idf i bag-of-words pozwlą osiągnąć tę samą jakość modelu

sprawdzić obie reprezentacje

8.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Odległość Hamminga dwóch zmiennych tekstowych zawsze istanieje.

Prawda

Fałsz