본문 바로가기
공부하는 중~~/인공지능

[인공지능] 인공지능 용어 정리

by 임대추 2020. 10. 26.

안녕하세요 대추입니다.

공부를 하다 용어들이 이해가 안되서 매번 구글링 하기 귀찮아 저장용 용어정리 포스트를 하려합니다.

계속 업데이트 될테니 Ctrl + F 하셔서 찾으세요

 

용어 정리

----------------------------------------------------------------------------------------------------------------------------------------------------------

mAP (mean Average Precision, 엠에이피)

하나의 객체(Object)당 1개의 정확도의 평균(AP, Average Precision)을 구한 뒤, 여러 여러 객체 감지(Object Detector)에 대한 평균 값

mAP 이해를 돕기위한 사진

----------------------------------------------------------------------------------------------------------------------------------------------------------

IoU (Intersection over Union, 아이오유)

객체 탐지(Object Detection)를 한 후 모델이 예측한 박스(Bounding Box), Bp와 실제 정답 박스(Ground-truth Bouding Box), Bgt의 영역을 비교하여 겹치는 넓이를 의미한다. (보통 0.5를 넘으면 매치되었다고 한다.)

IoU 계산 수식

IoU = 교집합(Intersection) / (실제(Actual) + 예측(Prediction) - 교집합(Intersection))

IoU의 이해를 돕기위한 사진

----------------------------------------------------------------------------------------------------------------------------------------------------------

RoI (Region of Interest, 알오아이)

모델이 이미지에서 관심있어하는 영역, 추출한 영역을 말함

----------------------------------------------------------------------------------------------------------------------------------------------------------

loss (로스)

MSE, RMSE등으로 나타내며 쉽게말해 대입 결과와 실제 정답과의 간격, 차이를 줄이는 것을 의미

(학습 그래프에서 loss 값이 내려갈수록 간격이 줄어들어 좋아지는 것을 의미, 이게 상승한다면 그 이상 학습하는 것이 의미가 없음)

----------------------------------------------------------------------------------------------------------------------------------------------------------

epoch (에포크)

학습하는 횟수를 의미

(ex : epoch=5, 5번 한다는 의미)

----------------------------------------------------------------------------------------------------------------------------------------------------------

Channel (채널)

쉽게 햄버거로 예를 들면 빵, 야채처럼 각각 한 층을 의미

(ex : 100px, 100px, 컬러 이미지의 채널을 표현할때 (100, 100, 3)과 같이 표기, 3은 RGB라 3이며 흑백은 1)

----------------------------------------------------------------------------------------------------------------------------------------------------------

Convolution Layer (합성곱층)

이미지 데이터에서 특징값을 찾아내는 레이어

(1이 써있는 이미지를 떠올리고 가운데 부분만 숫자가 있고 좌우에는 0으로 채워져있는 배열의 모습을 상상)

Conv layer 연산

1 0 1

0 1 0

1 0 1

[101010101]

----------------------------------------------------------------------------------------------------------------------------------------------------------

Pooling Layer (풀링층)

Convolution 레이어의 결과값으로 Feature Map이라는 결과가 나오는데 그것의 크기를 줄기거나 특정 데이터를 강조하는 역할

maxpool의 예

Pooling 연산중 maxpool의 모습

----------------------------------------------------------------------------------------------------------------------------------------------------------

Padding Layer (패딩층)

Conv 레이어의 결과로 나온 배열을 그대로 둘지, 늘릴지를 조절하는 층

padding된 conv layer에 연산

(0이 padding 된 것)

----------------------------------------------------------------------------------------------------------------------------------------------------------

Dropout (드랍아웃)

학습을 반복할때 했던 걸로 하면 train 세트에만 맞는 모델로 되는 과적합(Overfitting) 현상이 발생, 이것을 줄이기 위해 Dropout이라는 것을 사용해 랜덤으로 버리는 것을 의미

(ex : Dropout(0.2)는 입력데이터에서 랜덤으로 20%를 버린다는 의미)

----------------------------------------------------------------------------------------------------------------------------------------------------------

Activation Function (활성화 함수)

sigmoid, relu가 대표적이며 위에서 설명한 Feature Map을 비선형값으로 바꿔주는 역할

(a) sigmoid (b) Tanh (c) ReLU (d) Leaky ReLU

----------------------------------------------------------------------------------------------------------------------------------------------------------

Ground Truth (실제 정답 값)

모델이 예측한 값이아닌 실제 정답 값을 의미

(Ground truth location : 객체의 실체 위치, Ground truth bounding box : 객체를 그린 박스의 실제 위치)

----------------------------------------------------------------------------------------------------------------------------------------------------------

반응형

댓글