Jeg stødte for nylig på grafindlejring som DeepWalk og LINE. Jeg har dog stadig ikke en klar idé om, hvad der menes med grafindlejringer, og hvornår jeg skal bruge det (applikationer)? Eventuelle forslag er velkomne!
Kommentarer
- En grafindlejring er en indlejring til grafer! Så det tager en graf og returnerer indlejringer til grafen, kanterne eller hjørnerne. Indlejring muliggør søgning efter lighed og generelt letter maskinindlæring ved at levere repræsentationer .
- @Emre hvad betyder det med indlejring? 🙂
- Som meningen med indlejringen går, at rette ting på noget. Grafindlejring er ligesom at fastgøre hjørner på en overflade og tegne kanter for at repræsentere f.eks. Et netværk. Så eksempel være ligesom en plan graf kan integreres på en $ 2D $ overflade uden kantkrydsning. Vægte kan tildeles kanter og passende kantlængder, dvs. hjælper os med at forstå / estimere som @Emre nævnte lighedssøgning osv.
- @KiriteeGak Tak 🙂 Hvad er deres applikationer i den virkelige verden? De siger, at de kan bruges til anbefaling og alt? men hvordan?
- Youtube-videoanbefaling kan visualiseres som en model, hvor den video, du i øjeblikket ser, er den knude, du er på, og de næste videoer, der er i din anbefaling, er dem, der ligner dig mest på hvad lignende brugere har set næste og mange flere faktorer, selvfølgelig, hvilket er et kæmpe netværk at krydse. Dette papir er en simpel læsning af forståelsen af applikationen.
Svar
Grafindlejring lærer en kortlægning fra et netværk til et vektorrum, samtidig med at relevante netværksegenskaber bevares.
Vektorrum er mere modtagelige for datavidenskab end grafer. Grafer indeholder kanter og noder. Disse netværksforhold kan kun bruge et specifikt undersæt af matematik, statistik og maskinindlæring. Vektorrum har et rigere værktøjssæt fra disse domæner. Derudover er vektoroperationer ofte enklere og hurtigere end de tilsvarende grafoperationer.
Et eksempel er at finde nærmeste naboer. Du kan udføre “humle” fra node til en anden node i en graf. I mange virkelige grafer efter et par humle er der lidt meningsfuld information (f.eks. Anbefalinger fra venner af venners venner). I vektorrum kan du dog bruge afstandsmålinger til at få kvantitative resultater (f.eks. Euklidisk afstand eller Cosinus-lighed). Hvis du har kvantitative afstandsmålinger i et meningsfuldt vektorrum, er det ligetil at finde nærmeste naboer.
“ Grafindlejringsteknikker, applikationer og ydeevne: En undersøgelse “er en oversigtsartikel, der går nærmere i detaljer.
Svar
Hvad er grafindlejringer? “Grafindlejringer” er et varmt område i dag inden for maskinlæring. Det betyder grundlæggende at finde “latent vektorrepræsentation” af grafer, der fanger topologien (i meget grundlæggende forstand) af grafen. Vi kan gøre denne “vektorrepræsentation” rig ved også at overveje vertex-vertex-forhold, kantinformation osv. Der er omtrent to niveauer af indlejringer i grafen (selvfølgelig kan vi når som helst definere flere niveauer ved logisk at opdele hele grafen i underbilleder af forskellige størrelser):
- Vertex Embeddings – Her finder du latent vektorrepræsentation af hvert toppunkt i den givne graf. Du kan derefter sammenligne de forskellige hjørner ved at plotte disse vektorer i rummet og interessant “lignende” hjørner er plottet tættere på hinanden end dem, der er forskellige eller mindre beslægtede. Dette er det samme arbejde, der udføres i “DeepWalk” af Perozzi.
- Grafindlejringer – Her du finder den latente vektorrepræsentation af selve hele grafen. For eksempel har du en gruppe kemiske forbindelser, som du vil kontrollere, hvilke forbindelser der ligner hinanden, hvor mange typer forbindelser der er i gruppen (klynger) osv. Du kan bruge disse vektorer og plotte dem i rummet og find alle ovenstående oplysninger. Dette er det arbejde, der udføres i “Deep Graph Kernels” af Yanardag.
Applikationer – Ved at se nøje er indlejringer “latente” repræsentationer, hvilket betyder, at hvis en graf har en | V | * | V | adjacency matrix hvor | V | = 1M, det er svært at bruge eller behandle 1M * 1M-numre i en algoritme. Så latent indlejring af dimensionen “d”, hvor d < < | V |, ville gøre adjacency matrix | V | * d og relativt lettere at bruge. En anden applikation kan være – Overvej et simpelt scenario, hvor vi vil anbefale produkter til de mennesker, der har lignende interesser i et socialt netværk.Ved at få vertex-indlejringer (her betyder det vektorrepræsentation af hver person) kan vi finde de lignende ved at plotte disse vektorer, og dette gør det let at anbefale. Dette er nogle applikationer, og der er andre. Du kan henvise til et flot undersøgelsesoplæg – Grafindlejringsteknikker, en undersøgelse .
Hvor kom det hele fra? Der har været mange arbejder på dette område, og næsten alle kommer fra den banebrydende forskning inden for naturlig sprogbehandling – “Word2Vec” af Mikolov. Hvis du vil komme i gang med undersøgelsen af grafindlejringer, vil jeg anbefale først at forstå, hvordan Word2Vec fungerer. Du kan finde gode forklaringer – Word2Vec-parameterindlæring forklaret og Stanford-forelæsning . Derefter kan du springe til de papirer, du har angivet. Disse værker kan kategoriseres som:
-
Værker baseret på “Vertex Embeddings”: – DeepWalk , Node2Vec , LINE .
-
Arbejder baseret på “Grafindlejringer”: – Deep Graph Kernels , Subgraph2Vec .
Kommentarer
- Wowww !! Dette er absolut et perfekt svar. Mange tak 🙂 Meget godt klaret 🙂
- Hej Mausam Jain. Kan du venligst fortælle mig, om jeg kan bruge grafindlejringer til at identificere vigtige noder i netværket?
- Hej Volka. For at besvare dette spørgsmål skal jeg vide hvilken type graf du arbejder på; er det twitter, facebook, reddit eller noget andet?
- Tak for dit svar. Jeg arbejder faktisk på et socialt netværk, hvor jeg vil identificere de mest sociale mennesker 🙂
- Her er ‘ en mere detaljeret version af dette svar. mod datascience.com/…
Svar
I papiret En central grænsesætning for en omnibus indlejring af tilfældige prikproduktgrafer af Levin et.al. papir, en bestemt type grafindlejring (Omnibus-indlejring) definerer grafindlejring som en metode “, hvor hjørnerne i en graf kortlægges til vektorer i et lavdimensionalt euklidisk rum.” Se linket for at få flere oplysninger.
Kommentarer
- velkommen til forummet. Hvis du vil nævne et papir, skal du også skrive dets navn ned som en del af teksten (fordi links kan brydes).