소개 배경

컨볼 루션 신경망 내에서 일반적으로 다음과 같은 일반적인 구조 / 흐름이 있습니다.

  1. 입력 이미지 (예 : 2D 벡터 x)

(첫 번째 컨볼 루션 레이어 (Conv1)는 여기서 시작됩니다. …)

  1. 2D 이미지를 따라 필터 세트 (w1)를 연결합니다 (예 : z1 = w1*x + b1 내적 곱셈), 여기서 z1는 3D이고 b1는 편향입니다.
  2. 활성화 함수 (예 : ReLu)를 적용하여 z1 비선형 (예 : a1 = ReLu(z1))을 만듭니다. 여기서 a1는 3D입니다.

(2nd Convolutional layer (Conv2) starts here …)

  1. 새로 계산 된 활성화 (즉, z2 = w2*a1 + b2 내적 곱셈 수행)를 따라 필터 세트를 컨볼 루션합니다. 여기서 z2는 3D 및 b2는 편향입니다.
  2. 활성화 함수를 적용합니다 (예 : ReLu)를 사용하여 z2 비선형 (예 : a2 = ReLu(z2))을 만듭니다. 여기서 a2는 3D입니다. .

질문

" 특징 맵 는 문학마다 다른 것 같습니다. 구체적으로 :

  • 첫 번째 컨볼 루션 레이어의 경우 " 피처 맵 "이 입력 벡터에 해당합니까? x, 출력 내적 z1, 출력 활성화 a1 또는 " 프로세스 " xa1 또는 다른 무엇입니까?
  • 마찬가지로 두 번째 컨볼 루션 레이어의 경우 " 피처 맵 "이 입력 활성화 a1, 출력 내적 z2 또는 출력 활성화 a2 , 또는 " 프로세스 "에서 a1a2 또는 다른 무엇입니까?

또한, " feat라는 용어가 사실입니까? ure map "은 정확히 활성화 맵 "? (또는 실제로 두 가지를 의미합니까?)

추가 참조 :

신경망 및 딥 러닝의 스 니펫-6 장 :

* 여기서는 명명법이 느슨하게 사용되고 있습니다. 특히 " 피처 맵 "을 사용하여 컨볼 루션 레이어가 계산 한 함수가 아니라 숨겨진 뉴런이 레이어에서 출력됩니다. 이런 종류의 가벼운 명명법 남용은 연구 문헌에서 매우 일반적입니다.


Matt Zeiler의 컨볼 루션 네트워크 시각화 및 이해 :

이 백서에서는 다음과 같은 시각화 기술을 소개합니다. 모델의 모든 계층에서 개별 기능 맵을 자극하는 입력 자극을 표시합니다. […] 이와 대조적으로 우리의 접근 방식은 불변의 비모수 적 뷰를 제공하여 훈련 세트의 어떤 패턴이 기능 맵을 활성화하는지 보여줍니다. ..] 기능 맵에서 응답을 정규화하는 로컬 대비 작업 […] 주어진 convnet 활성화를 검사하기 위해 레이어의 다른 모든 활성화를 0으로 설정하고 기능 맵을 전달합니다. 첨부 된 deconvnet 계층에 대한 입력으로 s. […] convnet은 특성 맵을 수정하여 특성 맵이 항상 양수인지 확인하는 relu 비선형 성을 사용합니다. […] convnet은 학습 된 필터를 사용하여 이전 계층의 기능 맵을 컨볼 루션합니다. […] 그림 6, 이러한 시각화는 패턴에 해당하는 원본 입력 이미지의 일부가 가려 졌을 때 모델에서 주어진 특성 맵을 자극하는 입력 패턴의 정확한 표현입니다. 기능 맵 내에서 활동이 뚜렷하게 감소합니다. […]

참고 : " 기능지도 및 " 수정 된 기능 맵 "


스 니펫 CNN의 Stanford CS231n 장 :

[…]이 시각화에서 쉽게 알아 차릴 수있는 한 가지 위험한 함정은 일부 활성화 맵이 여러 다른 입력에 대해 모두 0이 될 수 있다는 것입니다. 이는 데드 필터를 나타낼 수 있으며 높은 학습률의 증상 일 수 있습니다. […] 일반적인 활성화 고양이 사진을보고있는 훈련 된 AlexNet의 첫 번째 CONV 레이어 (왼쪽)와 5 번째 CONV 레이어 (오른쪽)에 있습니다. 모든 상자에는 일부 필터에 해당하는 활성화 맵이 표시됩니다. 활성화는 드물고 (대부분의 값은 0이며,이 시각화에서는 검은 색으로 표시됨) 대부분 로컬입니다.


A-Beginner “s-Guide-To-Understanding-Convolutional-Neural-Networks

[…] 입력 볼륨의 모든 고유 한 위치는 숫자를 생성합니다. 모든 위치에 필터를 적용하면 남은 숫자가 28 x 28 x 1 배열이라는 것을 알 수 있습니다. 활성화 맵 또는 기능 맵

답변

기능 맵, 또는 활성화 맵은 지정된 필터 (귀하의 경우 a1)에 대한 출력 활성화이며 정의는 어떤 레이어에 있는지에 관계없이 동일합니다.

기능 맵 활성화 맵 은 정확히 같은 의미입니다. 활성화 맵이라고 그것은 이미지의 다른 부분의 활성화에 해당하는 매핑이기 때문이며 또한 이미지에서 특정 종류의 특징이 발견되는 위치에 대한 매핑이기 때문에 특징 맵이기도합니다. 활성화가 높으면 특정 기능이 발견되었음을 의미합니다.

“수정 된 기능 맵”은 Relu를 사용하여 만든 기능 맵입니다. 내적 (z1)의 결과에 사용 된 “특징 맵”이라는 용어를 볼 수 있습니다. 이것은 실제로 이미지에서 특정 기능이있는 위치의 맵이기도하지만 흔히 볼 수있는 것은 아니기 때문입니다.

댓글

  • 입력 해 주셔서 감사합니다. 귀하의 답변은 제 이해와 일치합니다 (예 : 활성화 맵은 a1, a2 등). Conv2에서는 a1 입력 활성화 맵을 호출하고 a2 출력 활성화 맵을 호출 할 것 같습니다. Conv1에서 입력 이미지는 x이고 출력 활성화 맵은 a1입니다.

답변

여기에 이미지 설명 입력

CNN 용어에서 3×3 행렬은 필터또는 커널또는 특징 검출기라고하며 필터를 이미지 위로 밀어 내적을 계산하여 형성된 행렬을 호출합니다. Convolved Feature, Activation Map또는 Feature Map. 필터는 원본 입력 이미지에서 특징 탐지기 역할을한다는 점에 유의해야합니다.

source : https://ujjwalkarn.me/2016/08/11/intuitive-explanation-convnets/

답변

특성 맵의 의미에 대해 이야기하기 전에 특성 벡터의 용어를 정의 해 보겠습니다.

p>

특징 벡터는 객체의 벡터 표현입니다. 예를 들어 자동차는 [number of wheels, door. windows, age ..etc].

특징 맵은 한 공간에서 특성 벡터를 가져와 다른 공간에서 특성 벡터로 변환하는 함수입니다. 예를 들어 특성 벡터 [볼륨, 무게, 높이, 너비]가 주어지면 [1, 볼륨 / 무게, 높이 * 너비] 또는 [높이 * 너비] 또는 [볼륨] 만 반환 할 수 있습니다.

답글 남기기

이메일 주소를 발행하지 않을 것입니다. 필수 항목은 *(으)로 표시합니다