Search Header Logo
big_2_1_4

big_2_1_4

Assessment

Presentation

Professional Development

Professional Development

Hard

Created by

KS K

FREE Resource

0 Slides • 22 Questions

1

Multiple Choice

다음 모형 중 최근 인공지능 기술의 발전과 함께 주목받고 있으며, 딥러닝의 기반이 되는 모형은?

1

유전자 알고리즘(genetic algorithm)

2

인공 신경망(artificial neural network) 모형

3

의사결정나무(decision tree) 모형

4

규칙기반(rule-based) 모형

2

Multiple Choice

다층 신경망 모형에서 은닉층(hidden layer)의 개수를 너무 많이 설정하게 되면 역전파 과정에서 앞쪽은닉층의 가중치 조정이 이루어지지 않아 신경망의 학습이 제대로 이루어지지 않는다. 이러한 현상을 나타내는 용어는?

1

기울기 소실 문제

2

지역 최적화 문제

3

XOR 문제

4

과적합 문제

3

Multiple Choice

다음 중 인공신경망 모형에서 역전파를 진행함에 따라 각 노드를 연결하는 가중치의 절대값이 커져 조정이 더 이상 이루어지지 않아 과소적합(underfitting)이 발생되는 문제는?

1

비선형 문제

2

전역최적화 문제

3

포화 문제

4

수용 영역 국소화 문제

4

Multiple Choice

인공신경망 모형에서 활성함수인 시그모이드(sigmoid)의 함수의 결과값으로 올바른 것은?

1

-1 또는 1

2

0 ≤ y ≤ 1

3

0 또는 1

4

-1 ≤ y ≤ 1

5

Multiple Choice

신경망 모형은 동물의 뇌신경계를 모방하여 분류를 위해 만들어진 모형이다. 신경망의 학습 및 기억 특성들은 인간의 학습과 기억 특성을 닮았고 특정 사건으로부터 일반화하는 능력도 갖고 있다. 다음 중 신경망 모형에 대한 설명으로 부적절한 것은?

1

은닉층(hidden layer)의 뉴런 수와 개수를 정하는 것은 신경망을 설계하는 사람의 직관과 경험에 의존한다. 뉴런수가 너무 많으면 과적합(overfitting)이 발생하고 뉴런 수가 너무 적으면 입력 데이터를 충분히 표현하지 못하는 경우가 발생한다.

2

신경망 모형에서 뉴런의 주요 기능은 입력과 입력 강도의 가중합을 구하는 것이며, 그 이외의 계산은 수행하지 않는다.

3

역전파(back propagation) 알고리즘은 신경망 모형의 목적함수를 최적화하기 위해 사용된다. 연결강도를 갱신하기 위해서 예측된 결과와 실제값의 차이인 에러 (error)를 통해 가중치를 조정하는 방법이다.

4

신경망 모형은 변수의 수가 많거나 입출력 변수 간에 복잡한 비선형관계가 존재할 때 유용하며, 잡음에 대해서도 민감하게 반응하지 않는다는 장점을 가지고 있다.

6

Multiple Choice

신경망 모형은 자신이 가진 데이터로부터 반복적인 학습과정을 거쳐 패턴을 찾아내고 이를 일반화 하는 예측방법이다. 다음 중 신경망 모형에 대한 설명으로 부적절한 것은 무엇인가?

1

피드포워드 신경망은 정보가 전방으로 전달되는 것으로 생물학적 신경계에서 나타나는 형태이며 딥러닝에서 가장 핵심적인 구조 개념이다.

2

은닉층의 수와 뉴런 개수는 신경망 모형에서 자동으로 설정된다.

3

일반적으로 인공 신경망은 다층퍼셉트론을 의미한다. 다층 퍼셉트론에서 정보의 흐름은 입력층에서 시작하여 은닉층을 거쳐 출력층으로 진행된다.

4

역전파 알고리즘은 연결강도를 갱신하기 위해 예측된 결과와 실제값의 차이인 에러의 역전파를 통해 가중치를 구하는데서 시작되었다.

7

Multiple Choice

R에서 인공신경망의 학습 및 추론을 위해 대표적으로 사용되는 함수는 neuralnet()이다. 다음 중 neuralnet 함수의 실행 결과로 도출되는 일반화 가중치(generalized weight)에 대한 설명으로 가장 적절한 것은?

1

각 자료점의 분산이 로그-오즈(log-odds)에 미치는 기여도를 나타낸다.

2

로지스틱 회귀모형에서의 회귀 계수와 유사하게 해석된다.

3

로지스틱 회귀와 달리 일반화 가중치는 전역적인 기여도를 나타낸다.

4

모든 자료에 대한 일반화 가중치의 분포는 가중치(weight)에 대한 신뢰구간을 나타낸다.

8

Multiple Choice

단층신경망인 퍼셉트론(perceptron)에서 최종 목표값(Target value)은 활성함수에 의해 결정 되는데 다양한 활성함수 중 출력값이 여러 개로 주어지고, 목표치가 다범주인 경우 각 범주에 속할 사후확률을 제공하는 함수는 무엇인가?

1

Tanh 함수

2

Gauss 함수

3

Sigmoid 함수

4

Softmax 함수

9

Multiple Choice

다층 신경망은 여러개의 은닉층(hidden layer)을 가질 수 있는 데, 다음 중 은닉층 노드의 수가 너무 적을 경우 나타나는 특징을 설명한 것으로 가장 적절한 것은?

1

네트워크의 일반화가 어렵다.

2

네트워크가 복잡한 의사결정 경계를 만들 수 없다.

3

오차의 역전파 알고리즘에서 기울기 소실 문제가 발생한다.

4

훈련에 많은 시간이 소요된다.

10

Multiple Choice

신경망 모형 개발 시 고려해야할 사항으로 적절하지 않은 것은?

1

연속형 변수의 경우 그 분포가 평균을 중심으로 대칭이 아니면 좋지 않은 결과를 도출하기 때문에 로그 변환, 범주화 등의 방법을 이용해 데이터 전처리를 진행한다.

2

가중치가 0이면 시그모이드 함수는 선형이 되고 신경망 모형은 근사적으로 선형 모형이 된다.

3

일반적으로 초기값은 0 근처로 랜덤하게 선택하므로 초기 모형은 비선형 모형에 가깝다.

4

가중치 값이 증가할수록 비선형 모형이 된다.

11

Multiple Choice

신경망 모형을 개발하는데 있어 은닉층(hidden layer)과 은닉노드(hidden node)의 수에 대한 설명으로 다음 중 옳지 않은 것은?

1

은닉층의 수가 하나인 신경망은 범용 근사자(universal approximator)이므로 모든 매끄러운 함수를 근사적으로 표현할 수 있다.

2

은닉층과 은닉 노드가 너무 적으면 과대적합의 문제가 발생할 수 있고 예측력이 떨어진다.

3

은닉노드의 수는 절히 큰 값으로 놓고 가중치를 감소(weight decay)시키며 적용하는 것이 좋다.

4

은닉층과 은닉노드가 많으면 가중치가 많아져서 과대적합 문제가 발생할 수 있다.

12

Multiple Choice

심층 신경망(DNN, Deep Neural Network)에 대한 설명으로 다음 중 옳지 않은 것은?

1

심층 신경망(DNN, Deep Neural Network)은 입력층(input layer)과 출력층(output layer) 사이에 다중의 은닉층(hidden layer)을 포함하는 인공신경망(ANN)을 뜻한다.

2

심층 신경망은 다중의 은닉층을 가지고 있기 때문에 비선형적 관계를 학습할 수 있으나, 데이터의 잠재적인 구조를 파악할 수는 없다.

3

심층 신경망은 의료분야에서 암 진단 시스템 구축 등 재무분야에서의 주가지수예측, 기업신용평가, 환율예측 등에 활용되고 있다.

4

알고리즘에 따른 심층 신경망의 종류로는 이미지 데이터를 주로 처리하는 CNN(Convolution Neural Network), 시계열 데이터를 처리하는 RNN(Recurrent Neural Network), 비지도형 기계학습을 기반으로 하는 DBN(Deep Belief Network), 심층 오토인코더(deep autoencoder) 등이 있다.

13

Multiple Choice

딥러닝 알고리즘과 개념이 짝지어진 것으로 옳지 않은 것은?

1

CNN(Convolution Neural Network) : 입력을 필터로 합성곱하여 특징을 추출하고 합성곱 레이어를 여러 계층으로 연결하는 이미지 처리에 적합한 알고리즘이다.

2

LSTM(Long Short-Term Memory) : RNN의 장기 의존성 문제를 해결하기 위해 고안된 알고리즘으로으로 forget gate, input gate, output gate라는 새로운 요소를 은닉층의 각 뉴런에 추가한다.

3

DFN(Deep Feedforward Network) : DFN은 딥러닝에서 가장 기본적으로 이용되는 인공신경망으로 입력층, 은닉층, 출력층으로 이루어져 있으며, 보통은 2개 이상의 은닉층을

가지고 시계열 데이터를 예측할 수 있다.

4

RNN(Recurrent Neural Network) : RNN은 시간적으로 연속성이 있는 데이터를 처리 하기 위해 고안된 인공신경망으로 일반적으로 앞서 입력된 데이터(이전 시간의 데이터)에 의해 뒤에 입력된 데이터 대한 예측이 영향을 받는다.

14

Multiple Choice

CNN(Convolution Neural Network, 합성곱신경망)에 대한 설명으로 다음 중 옳지 않은 것은?

1

CNN은 이미지 픽셀값들을 그대로 입력하는 것보다는 이미지를 대표할 수 있는 특성들을 도출해서 신경망에 입력하는 방법을 사용한다.

2

CNN은 이미지, 비디오, 텍스트 또는 사운드를 분류하는데에 가장 많이 사용되는 알고리즘 이다.

3

CNN 알고리즘에서 컨볼루션 또는 필터링 과정을 통해 얻은 특성지도들은 ReLU와 같은 활성화함수를 거쳐 출력된다.

4

CNN 알고리즘은 특징(Feature)을 추출하는 '풀링 레이어(Pooling Layer)'와 추출된 특징 데이터의 사이즈를 줄이고 노이즈를 상쇄시키는 '컨볼루션 레이어(Convolution Layer)'로 구성된다.

15

Multiple Choice

CNN에 대한 아래 설명의 괄호 안에 들어갈 말로 알맞은 것은?

==================================================

CNN (Convolution Neural Network, 합성곱신경망)은 데이터의 특징을 추출하여 특징들의 패턴을 파악하는 구조이며, Convolution(합성)과 Pooling(풀링)의 과정으로 이루어진다. CNN은 이미지를 인식하는 데 주로 사용되는데 CNN의 구성요소 중 ( ____)은/는 이미지의 특징을 찾아내기 위한 공용 파라미터로, 커널(Kernel)이라고도 한다.

1

필터

2

채널

3

패딩

4

피처 맵

16

Multiple Choice

RNN(Recurrent Neural Network, 순환 신경망)에 대한 설명으로 다음 중 옳지 않은 것은?

1

내부가 순환구조로 이루어져 있는 인공신경망으로, 은닉층이 이전 데이터를 참조하도록 서로 연결되어 있다.

2

매 시점마다 심층신경망을 연결할 경우, 오래 전의 데이터에 대한 기울기 값이 소실되는 문제를 해결할 수 있다.

3

신경망 내부에 상태를 저장하여 시퀀스(Sequence) 형태의 데이터 입력을 처리하고 앞으로의 데이터를 예측한다.

4

순차적이며 반복적인 데이터를 학습하는데 특화된 알고리즘이다.

17

Multiple Choice

인공신경망 모형에서 활용되는 활성화 함수와 그에 대한 설명을 짝지은 것으로 옳지 않은 것은?

1

시그모이드 : 입력신호를 0에서 1사이의 값으로 바꿔 출력하며, 그래프를 그렸을 때 S자형 곡선의 형태를 가진다.

2

하이퍼볼릭 탄젠트 : 시그모이드 함수와 유사하지만 입력신호를 -1에서 1사이의 값으로 변환한다.

3

ReLU : 입력값이 0 이하이면 입력값을 그대로 출력하고, 0 이상이면 0을 출력한다.

4

Leaky ReLU:ReLU가 가지는 뉴런이 죽는 현상을 해결하기 위해 만들어진 함수로 입력값이 음수일 때 입력값의 10분의 1만을 출력한다.

18

Multiple Choice

인공신경망과 관련된 아래 설명의 빈 칸에 들어갈 말로 바르게 짝지어진 것은?

================================================================

(____)은 함수의 기울기(경사)를 구하여 기울기가 낮은 쪽으로 계속 이동시켜 극값(최적값)에 이를 때까지 반복하는 것이다.

1

오차역전파

2

경사하강법

3

오차 순전파

4

전역 최적해

19

Multiple Choice

LSTM(Long Short-Term Memory)에 대한 설명으로 다음 중 옳지 않은 것은?

1

 LSTM은 양방향 구조로만 구성할 수 있다.

2

LSTM(Long Short-Term Memory)은 S.Hochreiter와 J.Schmidhuber가 1997년에 제안한 것으로, RNN의 장기 의존성 문제를 해결할 뿐만 아니라 빠르게 학습에 수렴하는 특징을 가지고 있다.

3

LSTM은 신경망 내부에 상태를 저장하여 시퀀스(Sequence) 형태의 데이터 입력을 처리하고 앞으로의 데이터를 예측한다.

4

LSTM의 입력 값은 데이터 개수, 시간축의 차원, 입력되는 데이터의 개수에 해당하는 3차원 구조를 갖는다.

20

Multiple Choice

RNN(Recurrent Neural Network, 순환신경망)과 LSTM(Long Short-Term Memory)을 비교한 설명으로 옳지 않은 것은?

1

RNN은 바로 직전 타임스텝의 정보만을 저장하지만 LSTM의 경우 장기와 단기 기억을 모두 보유하고 있는 알고리즘이다.

2

LSTM은 RNN의 한 종류로서 장기 의존성 문제를 해결할 수 있다.

3

RNN과 LSTM은 모두 순환구조를 가지는 신경망 알고리즘이다.

4

RNN은 서로 상호작용이 가능한 4개의 레이어로 구성되어 있다.

21

Multiple Choice

다음 중 CNN의 합성곱 계층의 입력 Feature Map이 5×5이며, Filter는 2×2이다. stride가

1일 때, 출력 Feature Map은?

1

(2, 2)

2

(3, 3)

3

(4, 4)

4

(5, 5)

22

Multiple Choice

Question image

아래 그림의 Feature Map에서 설명을 보고 pooling 값을 구하면?

1

A: 12, B: 10, C: 93, D: 39

2

A: 32, B: 18, C: 248, D: 92

3

A: 2, B: 2, C: 34, D: 10

4

A: 12, B: 8, C: 62, D: 23

다음 모형 중 최근 인공지능 기술의 발전과 함께 주목받고 있으며, 딥러닝의 기반이 되는 모형은?

1

유전자 알고리즘(genetic algorithm)

2

인공 신경망(artificial neural network) 모형

3

의사결정나무(decision tree) 모형

4

규칙기반(rule-based) 모형

Show answer

Auto Play

Slide 1 / 22

MULTIPLE CHOICE