
NLP_PREPROCESSING
Authored by Robert Benke
Mathematics, Science
University
Used 7+ times

AI Actions
Add similar questions
Adjust reading levels
Convert to real-world scenario
Translate activity
More...
Content View
Student View
8 questions
Show all answers
1.
MULTIPLE CHOICE QUESTION
3 mins • 1 pt
Jaki napis został zakodowany poniżej?
5a 61 63 7a 79 6e 61 6d 79
Zaczynamy
Czytamy
ZnaczyMamy
Zamykamy
2.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Ile znaków można maksymalnie zakodować przy pomocy kodowania UTF-8?
2^8
2^32
2^21
984 226
3.
MULTIPLE CHOICE QUESTION
45 sec • 1 pt
Tokenizacja ...
..dzieli tekst na zdania.
..wybiera istotne statystycznie słowa z tekstu.
..dzieli tekst na krótsze fragmenty zwane tokenami.
..tworzy listę bigramów dla tekstu.
4.
MULTIPLE CHOICE QUESTION
45 sec • 1 pt
Token powstały w wyniku stemmingu ...
..jest zawsze poprawnym słowem
..nigdy nie jest poprawnym słowem.
..może być, ale nie musi poprawnym słowem
..musi być, ale nie jest poprawnym słowem.
5.
MULTIPLE CHOICE QUESTION
45 sec • 1 pt
Odległość Hamminga pomiędzy
"Quzizz jest fajny" i
"Quzizz jest NUDNY"
wynosi:
5
3
1/5
Nie istnieje
6.
MULTIPLE CHOICE QUESTION
45 sec • 1 pt
word2vec, glove, fastText są modelami które:
umożliwiają modelowanie tekstu o różnej długości.
tworzą wektorową reprezentację dowolnego tekstu.
zanurzają tokeny w euklidesowej przestrzeni R^n.
7.
MULTIPLE CHOICE QUESTION
45 sec • 1 pt
Przy tworzeniu modelu liniowego do klasyfikacji zbioru tekstów lepiej jest:
wykorzystać cechy bag-of-words
wykorzystać cechy tf-idf
tf-idf i bag-of-words pozwlą osiągnąć tę samą jakość modelu
sprawdzić obie reprezentacje
Access all questions and much more by creating a free account
Create resources
Host any resource
Get auto-graded reports

Continue with Google

Continue with Email

Continue with Classlink

Continue with Clever
or continue with

Microsoft
%20(1).png)
Apple
Others
Already have an account?