人工智能倫理測試站二

人工智能倫理測試站二

Assessment

Flashcard

Computers

6th - 8th Grade

Hard

Created by

Leung Lun

FREE Resource

Student preview

quiz-placeholder

11 questions

Show all answers

1.

FLASHCARD QUESTION

Front

在自動駕駛車輛面臨的「電車難題」情境中,這種情況最直接突顯了哪一項人工智慧倫理原則的複雜性和挑戰?

Back

責任

2.

FLASHCARD QUESTION

Front

教科書提到某個圖像識別模型將一張「帶有彩色貼紙的香蕉」的圖像誤識別為「烤麵包機」。這個例子主要用來說明當前人工智慧缺乏的哪一個倫理原則?

Back

正義與公平

3.

FLASHCARD QUESTION

Front

根據教科書,Google 圖片曾將非裔美國人錯誤標記為「猩猩」。這種 AI 偏見問題的根本原因是什麼?

Back

用於訓練模型的數據集存在偏見

4.

FLASHCARD QUESTION

Front

在「道德困境實驗」中,操作員需要手動操作CUHK iCar,並長按學習按鈕,讓HuskyLens相機學習三個場景:'無物體'、'老年人'和'兒童'。這個過程在機器學習工作流程中被稱為什麼?

Back

數據收集與標記

5.

FLASHCARD QUESTION

Front

想一想,在訓練一個能分辨貓和狗的模型之前,你必須先做什麼?

Back

知識推理

6.

FLASHCARD QUESTION

Front

這種推理方法是最直接的,並且不涉及複雜的條件判斷或過去的經驗。在CUHK iCar道德困境實驗中,手冊建議「嘗試從不同的角度收集數據」。這樣做的主要目的是什麼?

Back

提高AI模型的準確性和泛化能力

7.

FLASHCARD QUESTION

Front

人工智慧的發展旨在「造福人類而不造成傷害」(做好事而不傷害)。這一概念對應於哪一項人工智慧倫理原則?

Back

裨益

Create a free account and access millions of resources

Create resources

Host any resource

Get auto-graded reports

Google

Continue with Google

Email

Continue with Email

Classlink

Continue with Classlink

Clever

Continue with Clever

or continue with

Microsoft

Microsoft

Apple

Apple

Others

Others

Already have an account?