Introdução
Em uma rede neural convolucional, geralmente temos uma estrutura / fluxo geral semelhante a este:
- imagem de entrada (ou seja, um vetor 2D
x
)
(1ª camada convolucional (Conv1) começa aqui …)
- convolva um conjunto de filtros (
w1
) ao longo da imagem 2D (ou seja, faça oz1 = w1*x + b1
multiplicações de produto de ponto), ondez1
é 3D eb1
é vieses. - aplique uma função de ativação (por exemplo, ReLu) para tornar
z1
não linear (por exemplo,a1 = ReLu(z1)
), ondea1
é 3D.
(2ª camada convolucional (Conv2) começa aqui …)
- envolva um conjunto de filtros ao longo das ativações recém-calculadas (ou seja, faça as
z2 = w2*a1 + b2
multiplicações de produto escalar), ondez2
é 3D eb2
são vieses. - aplique uma função de ativação (por exemplo ReLu) para tornar
z2
não linear (por exemplo,a2 = ReLu(z2)
), ondea2
é 3D .
A questão
A definição do termo " mapa de características " parece variar de literatura para literatura. Concretamente:
- para a 1ª camada convolucional, o " mapa de recursos " corresponde ao vetor de entrada
x
, ou o produto escalar de saídaz1
, ou as ativações de saídaa1
, ou o " processo " conversão dex
ema1
, ou algo mais? - Da mesma forma, para a 2ª camada convolucional, o " mapa de recursos " corresponde a as ativações de entrada
a1
, ou o produto escalar de saídaz2
, ou a ativação de saídaa2
ou o " processo " conversão dea1
ema2
ou algo mais?
Além disso, é verdade que o termo " talento ure map " é exatamente o mesmo que " mapa de ativação "? (ou significam realmente duas coisas diferentes?)
Referências adicionais:
Fragmentos de Redes neurais e aprendizado profundo – Capítulo 6 :
* A nomenclatura está sendo usada livremente aqui. Em particular, estou usando o " mapa de recursos " para significar não a função calculada pela camada convolucional, mas sim a ativação do neurônios ocultos saem da camada. Esse tipo de abuso moderado de nomenclatura é bastante comum na literatura de pesquisa.
Fragmentos de Visualizando e entendendo redes convolucionais por Matt Zeiler :
Neste artigo, apresentamos uma técnica de visualização que revela os estímulos de entrada que estimulam mapas de características individuais em qualquer camada do modelo. […] Nossa abordagem, por contraste, fornece uma visão não paramétrica da invariância, mostrando quais padrões do conjunto de treinamento ativam o mapa de características. [. ..] uma operação de contraste local que normaliza as respostas nos mapas de recursos. […] Para examinar uma determinada ativação de convnet, definimos todas as outras ativações na camada para zero e passamos o mapa de recursos s como entrada para a camada deconvnet anexada. […] O convnet usa não linearidades relu, que retificam os mapas de características, garantindo assim que os mapas de características sejam sempre positivos. […] O convnet usa filtros aprendidos para convolver os mapas de recursos da camada anterior. […] Fig. 6, essas visualizações são representações precisas do padrão de entrada que estimula o mapa de recursos dado no modelo […] quando as partes da imagem de entrada original correspondentes ao padrão são obstruídas, vemos um queda distinta na atividade dentro do mapa de recursos. […]
Observações: também introduz o termo " mapa de características " e " mapa de feições retificado " na Fig 1.
Fragmentos do Capítulo Stanford CS231n na CNN :
[…] Uma armadilha perigosa que pode ser facilmente notada com esta visualização é que alguns mapas de ativação podem ser todos zero para muitas entradas diferentes, o que pode indicar filtros mortos e pode ser um sintoma de altas taxas de aprendizagem […] Ativações de aparência típica na primeira camada CONV (à esquerda) e na 5ª camada CONV (à direita) de um AlexNet treinado olhando para a foto de um gato. Cada caixa mostra um mapa de ativação correspondente a algum filtro. Observe que as ativações são esparsas (a maioria dos valores são zero, nesta visualização mostrada em preto) e principalmente locais.
Fragmentos de A-Beginner “s-Guide-To-Understanding-Convolutional-Neural-Networks
[…] Cada localização única no volume de entrada produz um número. Depois de deslizar o filtro sobre todas as localizações, você descobrirá que o que resta é uma matriz de números 28 x 28 x 1, que chamamos um mapa de ativação ou mapa de características.
Resposta
Um mapa de características, ou mapa de ativação, são as ativações de saída para um determinado filtro (a1 no seu caso) e a definição é a mesma independentemente da camada em que você está.
Mapa de recursos e mapa de ativação significam exatamente a mesma coisa. chamado de mapa de ativação porque é um mapeamento que corresponde à ativação de diferentes partes da imagem, e também um mapa de recursos porque é também um mapeamento de onde um determinado tipo de recurso é encontrado na imagem. Uma alta ativação significa que um determinado recurso foi encontrado.
Um “mapa de feições retificado” é apenas um mapa de feições que foi criado usando Relu. É possível que você veja o termo “mapa de características” usado para o resultado dos produtos escalares (z1) porque este também é realmente um mapa de onde certas características estão na imagem, mas isso não é comum de ver.
Comentários
Resposta
Na terminologia da CNN, a matriz 3 × 3 é chamada de filtro ou kernel ou detector de recursos e a matriz formada ao deslizar o filtro sobre a imagem e calcular o produto escalar é chamada o Recurso Convolvido ou Mapa de Ativação ou o Mapa de Recursos. É importante observar que os filtros atuam como detectores de recursos da imagem de entrada original.
fonte: https://ujjwalkarn.me/2016/08/11/intuitive-explanation-convnets/
Resposta
antes de falar sobre o que significa mapa de características, vamos apenas definir o termo vetor de características.
vetor de característica é a representação vetorial de objetos. Por exemplo, um carro pode ser representado por [número de rodas, porta. windows, age ..etc].
mapa de características é uma função que pega vetores de características em um espaço e os transforma em vetores de características em outro. Por exemplo, dado um vetor de recurso [volume, peso, altura, largura], ele pode retornar [1, volume / peso, altura * largura] ou [altura * largura] ou mesmo apenas [volume]
a1
,a2
etc). Em Conv2, acho que chamariaa1
o mapa de ativação de entrada ea2
o mapa de ativação de saída. Em Conv1, eux
a imagem de entrada ea1
o mapa de ativação de saída.