Intro-Hintergrund
Innerhalb eines Faltungsnetzwerks haben wir normalerweise eine allgemeine Struktur / einen allgemeinen Fluss, der wie folgt aussieht:
- Eingabebild (dh ein 2D-Vektor
x
)
(1. Faltungsschicht (Conv1) beginnt hier …)
- falten eine Reihe von Filtern (
w1
) entlang des 2D-Bildes (dh führen Sie diez1 = w1*x + b1
Punktproduktmultiplikationen), wobeiz1
3D ist undb1
Verzerrungen sind.
enden Sie eine Aktivierungsfunktion (z. B. ReLu) an, um z1
nichtlinear zu machen (z. B. a1 = ReLu(z1)
), wobei a1
ist 3D.
(2. Faltungsschicht (Conv2) beginnt hier …)
- alten Sie eine Reihe von Filtern entlang der neu berechneten Aktivierungen (dh führen Sie die
- wenden eine Aktivierungsfunktion an (z. ReLu), um
z2
nichtlinear zu machen (z. B.a2 = ReLu(z2)
), wobeia2
3D ist .
z2 = w2*a1 + b2
-Punktproduktmultiplikationen durch), wobei z2
ist 3D und und b2
sind Verzerrungen.
Die Frage
Die Definition des Begriffs " Feature-Map " scheint von Literatur zu Literatur zu variieren. Konkret:
- Entspricht für die erste Faltungsschicht die " Feature-Map " dem Eingabevektor
x
oder das Ausgabepunktproduktz1
oder die Ausgabeaktivierungena1
oder das " verarbeitet " konvertiertx
ina1
oder etwas anderes? - Entspricht für die 2. Faltungsschicht " die Feature-Map " die Eingabeaktivierungen
a1
oder das Ausgabepunktproduktz2
oder die Ausgabeaktivierunga2
oder der " -Prozess " konvertierta1
ina2
oder etwas anderes?
Stimmt es außerdem, dass der Begriff " feat Ihre Zuordnung " ist genau dasselbe wie " Aktivierungszuordnung "? (oder bedeuten sie tatsächlich zwei verschiedene Dinge?)
Zusätzliche Referenzen:
Ausschnitte aus Neuronale Netze und Deep Learning – Kapitel 6 :
* Die Nomenklatur wird hier lose verwendet. Insbesondere verwende ich die Feature-Map " ", um nicht die von der Faltungsschicht berechnete Funktion zu bezeichnen, sondern die Aktivierung der Aus der Schicht werden versteckte Neuronen ausgegeben. Diese Art von leichtem Missbrauch der Nomenklatur ist in der Forschungsliteratur ziemlich häufig.
Ausschnitte aus Visualisieren und Verstehen von Faltungsnetzwerken von Matt Zeiler :
In diesem Artikel stellen wir eine Visualisierungstechnik vor, die zeigt die Eingabestimuli, die einzelne Feature-Maps auf einer beliebigen Ebene im Modell anregen. […] Unser Ansatz bietet dagegen eine nicht parametrische Ansicht der Invarianz und zeigt, welche Muster aus dem Trainingsset die Feature-Map aktivieren. [. ..] Eine lokale Kontrastoperation, die die Antworten über Feature-Maps hinweg normalisiert. […] Um eine bestimmte Convnet-Aktivierung zu untersuchen, setzen wir alle anderen Aktivierungen in der Ebene auf Null und übergeben die Feature-Map s als Eingabe für die angehängte Deconvnet-Schicht. […] Das Convnet verwendet Relu-Nichtlinearitäten, die die Feature-Maps korrigieren und so sicherstellen, dass die Feature-Maps immer positiv sind. […] Das Convnet verwendet gelernte Filter, um die Feature-Maps aus dem vorherigen Layer zu falten. […] Abb. 6, diese Visualisierungen sind genaue Darstellungen des Eingabemusters, das die gegebene Merkmalskarte im Modell stimuliert, […] wenn die Teile des ursprünglichen Eingabebildes, die dem Muster entsprechen, verdeckt sind, sehen wir a deutlicher Rückgang der Aktivität innerhalb der Feature-Map. […]
Anmerkungen: führt auch den Begriff " Feature-Map und " korrigierte Feature-Map " in Abb. 1.
Snippets aus Stanford CS231n Kapitel über CNN :
[…] Eine gefährliche Gefahr, die bei dieser Visualisierung leicht erkannt werden kann, besteht darin, dass einige Aktivierungskarten für viele verschiedene Eingaben alle Null sein können, was auf tote Filter hinweisen kann und ein Symptom für hohe Lernraten sein kann […] Typisch aussehende Aktivierungen auf der ersten CONV-Ebene (links) und der 5. CONV-Ebene (rechts) eines trainierten AlexNet, die ein Bild einer Katze betrachten. Jedes Feld zeigt eine Aktivierungskarte, die einem Filter entspricht. Beachten Sie, dass die Aktivierungen spärlich sind (die meisten Werte sind Null, in dieser schwarz dargestellten Visualisierung) und meistens lokal.
Ausschnitte aus A-Anfänger „s-Leitfaden zum Verständnis von Faltungs-Neuronalen Netzen
[…] Jeder eindeutige Ort auf dem Eingangsvolumen erzeugt eine Zahl. Nachdem Sie den Filter über alle Orte geschoben haben, werden Sie feststellen, dass Sie nur noch ein 28 x 28 x 1-Zahlenfeld übrig haben, das wir nennen eine Aktivierungs- oder Feature-Map.
Antwort
Eine Feature-Map, oder Aktivierungszuordnung ist die Ausgabeaktivierung für einen bestimmten Filter (in Ihrem Fall a1) und die Definition ist dieselbe, unabhängig davon, auf welcher Ebene Sie sich befinden.
Feature-Map und Aktivierungskarte bedeuten genau dasselbe eine Aktivierungskarte genannt weil es sich um eine Zuordnung handelt, die der Aktivierung verschiedener Teile des Bildes entspricht, und auch um eine Feature-Map, da es sich auch um eine Zuordnung handelt, wo sich eine bestimmte Art von Feature im Bild befindet. Eine hohe Aktivierung bedeutet, dass ein bestimmtes Merkmal gefunden wurde.
Eine „korrigierte Feature-Map“ ist nur eine Feature-Map, die mit Relu erstellt wurde. Möglicherweise sehen Sie den Begriff „Feature-Map“, der für das Ergebnis der Punktprodukte (z1) verwendet wird, da dies auch eine Karte ist, auf der bestimmte Features im Bild angezeigt werden. Dies ist jedoch nicht üblich.
Kommentare
- Vielen Dank für die Eingabe. Ihre Antwort stimmt mit meinem Verständnis überein (d. H. Aktivierungskarten sind
a1
,a2
usw.). In Conv2 würde ich wohla1
die Eingabeaktivierungszuordnung unda2
die Ausgabeaktivierungszuordnung aufrufen. In Conv1x
das Eingabebild unda1
die Ausgabeaktivierungszuordnung.
Antwort
In der CNN-Terminologie wird die 3 × 3-Matrix als „Filter“ oder „Kernel“ oder „Merkmalsdetektor“ bezeichnet, und die Matrix, die durch Schieben des Filters über das Bild und Berechnen des Punktprodukts gebildet wird, wird aufgerufen die Convolved Feature oder Activation Map oder die Feature Map. Es ist wichtig zu beachten, dass Filter als Feature-Detektoren aus dem ursprünglichen Eingabebild fungieren.
Quelle: https://ujjwalkarn.me/2016/08/11/intuitive-explanation-convnets/
Antwort
Bevor Sie über die Bedeutung der Feature-Map sprechen, definieren Sie einfach den Begriff des Feature-Vektors.
Merkmalsvektor ist die vektorielle Darstellung von Objekten. Zum Beispiel kann ein Auto durch [Anzahl der Räder, Tür. windows, age ..etc].
Feature Map ist eine Funktion, die Feature-Vektoren in einem Raum aufnimmt und in einem anderen in Feature-Vektoren umwandelt. Wenn beispielsweise ein Merkmalsvektor [Volumen, Gewicht, Höhe, Breite] gegeben ist, kann er [1, Volumen / Gewicht, Höhe * Breite] oder [Höhe * Breite] oder sogar nur [Volumen]
zurückgeben