biais algorithmique

biais algorithmique

University

5 Qs

quiz-placeholder

Similar activities

Quiz sur les Réseaux Informatiques

Quiz sur les Réseaux Informatiques

University

10 Qs

Principes de l'éthique de l'IA

Principes de l'éthique de l'IA

University

10 Qs

Quiz CG - Code V2

Quiz CG - Code V2

University

10 Qs

Chaînes d'énergie et d'information

Chaînes d'énergie et d'information

5th Grade - University

8 Qs

Quiz Algo-Chapitre 6

Quiz Algo-Chapitre 6

University

10 Qs

Quiz sur les prompts IA

Quiz sur les prompts IA

University

7 Qs

QCM2 R Matrices et Dataframes

QCM2 R Matrices et Dataframes

University

10 Qs

Première app Android

Première app Android

University

10 Qs

biais algorithmique

biais algorithmique

Assessment

Quiz

Information Technology (IT)

University

Hard

Created by

Said ANDALOUSSI

Used 1+ times

FREE Resource

5 questions

Show all answers

1.

MULTIPLE SELECT QUESTION

45 sec • 1 pt

Une étude du MIT (2018) a révélé que les systèmes de reconnaissance faciale font plus de 30 % d’erreurs pour les femmes à peau foncée, contre moins de 1 % pour les hommes blancs.
👉 À votre avis, pourquoi ce problème ne peut-il pas être résolu uniquement par la technologie ?

A. Biais dans les données

B. Manque de diversité

C. Problème uniquement technique

D. Besoin de règles éthiques

E. Approche combinée

2.

MULTIPLE SELECT QUESTION

45 sec • 1 pt

L’OCDE (2023) indique que les biais algorithmiques sont souvent dus à des données incomplètes ou non représentatives.

👉 À votre avis, pourquoi est-ce difficile à éviter ?

A. Données peu diversifiées

B. Manque d’accès aux données


C. IA neutre par défaut

D. Pas de cadre légal

E. Réalité sociale biaisée

3.

MULTIPLE SELECT QUESTION

45 sec • 1 pt

Selon l’OMS (2021), certains systèmes d’IA médicale entraînés sur des données limitées peuvent produire des diagnostics erronés.

👉 À votre avis, qui est le plus exposé à ces erreurs ?

A. Femmes

B. Populations marginalisées

C. Patients bien suivis

D. Enfants

E. Non-représentés

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Stanford (2020) révèle que des IA de recrutement ont exclu automatiquement des femmes ou minorités.

👉 À votre avis, qui doit agir contre ce type de discrimination ?

A. Développeurs

B. Employeurs

C. État

D. Candidats

E. Tous

5.

MULTIPLE SELECT QUESTION

45 sec • 1 pt

L’UE (2022) recommande des audits éthiques pour les IA à haut risque.

👉 À votre avis, pourquoi est-ce nécessaire ?

A. Transparence

B. Confiance du public

C. Progrès plus rapide

D. Contrôle indépendant

E. Risque social élevé

Discover more resources for Information Technology (IT)