Semalt råd om hvordan du bruker dyp læring for å optimalisere den automatiserte tittelen



En rask måte å ta ledelsen i SEO-rangeringen din er å inkludere et topprangerte søkeord i tittelkoden. Og hvis du tenker på det et øyeblikk, vil du innse at det virkelig er en smart løsning. Hvis du har en side som allerede er rangert for et nøkkelord uten at det nøkkelordet er til stede i tittelen, kan du forestille deg betydningen av å ha nøkkelordet i tittelen. Du vil naturlig nok bli indeksert oftere for det søkeordet; derfor rangerer du bedre.

Nå, hvis vi tok det nøkkelordet og la det til i Metabeskrivelsen, vil de vises uthevet i søkeresultatene, noe som betyr at det er sannsynlig at flere søkemotorbrukere sannsynligvis vil klikke. Dette vil selvfølgelig være til fordel for nettstedet.

Tenk deg Semalt jobbet på et nettsted med hundrevis, tusenvis eller millioner av sider. Hvis vi måtte gjøre dette manuelt, vil det være tidkrevende og raskt bli ganske dyrt. Så hvordan kan vi da analysere siden og optimalisere hver tittel og metabeskrivelse? Løsningen er å bruke en maskin. Ved å lære en maskin å finne de høyest rangerte nøkkelordene på hver side, sparer vi tid og kostnader. Å bruke en maskin kan ende opp med å prestere bedre og raskere enn et dataregistreringsteam.

La oss introdusere Ubers Ludwig og Googles T5 på nytt

Ved å kombinere Ubers Ludwig og Googles T5 har du et ganske kraftig system.

Oppsummert er Ludwig et open-source auto ML-verktøy som lar brukerne trene avanserte modeller uten å måtte skrive noen kode.

Google T5, derimot, er en overlegen versjon av SERT-stil modeller. T5 kan oppsummere, oversette, svare på spørsmål og klassifisere søk samt mange andre funksjoner. I et nøtteskall er det en veldig kraftig modell.

Imidlertid er det ingen indikasjoner på at T5 er trent for optimalisering av tittelkoder. Men kanskje vi kan gjøre det, og her er hvordan:
  • Vi får et opplært datasett med eksempler laget av:
    • Originaltittelapper uten målnøkkelordet vårt
    • Vårt mål nøkkelord
    • Optimaliserte tittelkoder med målsøkeordene
  • En T5 tunning-kode og opplæringsprogrammer å bruke
  • Ha et sett med titler som ikke er optimalisert slik at vi kan teste modellen vår
Vi starter med et datasett som allerede er opprettet, og vi vil gi en veiledning om hvordan vi opprettet datasettet.

Forfatterne av T5 var rause nok til å gi oss en detaljert Google Colab-notatbok, som vi bruker til å finjustere T5. Etter å ha brukt tid på å studere det, var vi i stand til å svare på vilkårlige triviaspørsmål. Colab-notatboken har også retningslinjer for hvordan du finjusterer T5 for nye oppgaver. Men når du ser på kodeendringene og den nødvendige forberedelsen av data, finner du ut at det innebærer mye arbeid, og at ideene våre kan være perfekte.

Men hva om det kan være enklere? Takket være Uber Ludwig versjon 3, som ble utgitt for noen måneder siden, har vi en kombinasjon av noen veldig nyttige funksjoner. 3.0-versjonen av Ludwig kommer med:
  • En optimaliseringsmekanisme for hyperparameter som får ekstra ytelse fra modeller.
  • Kodefri integrasjon med Hugging Face's Transformers repository. Dette gir brukerne tilgang til oppdaterte modeller som GPT-2, T5, DistilBERT og Electra for naturlige språkbehandlingsoppgaver. Noen av slike oppgaver inkluderer klassifisering sentimentanalyse, navngitt enhetsgjenkjenning, svar på spørsmål og mer.
  • Den er nyere, raskere, modulær og har en mer uttrekkbar backend som er avhengig av TensorFlow 2.
  • Det gir støtte for mange nye dataformater som Apache Parquet, TSV og JSON.
  • Det har k-fold kryssvalideringsaktivering ut av boksen.
  • Når den er integrert med vekter og skjevheter, kan den brukes til å administrere og overvåke flere modellopplæringsprosesser.
  • Den har en ny vektordatatype som støtter støyende etiketter. Det kommer godt med hvis vi har å gjøre med svake tilsyn.
Det er flere nye funksjoner, men vi finner integrasjonen til Hugging Face's Transformers som en av de mest nyttige funksjonene. Klemmende ansiktsrørledninger kan brukes til å forbedre SEO-innsatsen på titler og generering av metabeskrivelser betydelig.

Å bruke rørledning er flott å kjøre spådommer på modeller som allerede er trent og som allerede er tilgjengelige i modellen bub. Imidlertid er det foreløpig ingen modeller som kan gjøre det vi trenger for å gjøre, så vi kombinerer Ludwig og Pipeline for å lage en formidabel automatisk tittel og Meta Description for hver side på et nettsted.

Hvordan bruker vi Ludwig til å finjustere T5?

Dette er et viktig spørsmål når vi prøver å vise kundene våre nøyaktig hva som skjer i bakgrunnen på nettstedet deres. Rundt her er det en klisje som sier: "Å bruke Ludwig til å trene T5 er så enkelt at vi bør vurdere å gjøre det ulovlig." Sannheten er at vi ville ha belastet kundene våre mye høyere hvis vi måtte ansette en AI-ingeniør for å gjøre det tilsvarende.

Her vil du finne ut hvordan vi finjusterer T5.
  • Trinn 1: Åpne en ny Google Colab-notatbok. Etter det endrer vi Runtime til å bruke GPU.
  • Vi laster ned Hootsuite-datasettet som allerede er satt sammen.
  • Vi installerer deretter Ludwig.
  • Etter installasjonen laster vi opplæringsdatasettet inn i en pandadataramme og inspiserer det for å se hvordan det ser ut.
  • Da står vi overfor den viktigste hindringen, som er å lage riktig konfigurasjonsfil.
Å bygge det perfekte systemet krever dokumentasjon for T5 og konstant prøving og feiling til vi får det riktig. (det vil gå langt hvis du finner Python-koden du kan produsere her.)

Sørg for å gjennomgå ordbøker for inngangs- og utgangsfunksjoner og sørg for at innstillingene dine blir plukket opp riktig. Hvis du gjør det riktig, begynner Ludwig å bruke 't5-small' som løpemodell. For større T5-modeller er det lettere å endre modellnavet og potensielt forbedre generasjonen.

Etter å ha trent en modell i flere timer, begynner vi å få imponerende valideringsnøyaktighet.

Det er viktig at du legger merke til at Ludwig automatisk velger andre viktige målinger for tekstgenerering, hovedsakelig forvirring og redigeringsavstand. Dette er begge lave tall som passer riktig for oss.

Hvordan vi bruker våre trente modeller for å optimalisere titler

Å sette modellene våre på prøve er den virkelige interessante delen.

Først laster vi ned et testdatasett med ikke-optimaliserte Hootsuite-titler som ikke ble sett av modellen under trening. Du vil kunne forhåndsvise datasettet ved hjelp av denne kommandoen:

!hode

Hootsuite_titles_to_optimize.csv

Det er veldig imponerende at Ludwig og T5 kan gjøre så mye med ethvert lite treningssett, og de krever ingen avansert Hyperparameter-tuning. Den riktige testen kommer ned på hvordan den samhandler med målsøkeordene våre. Hvor godt smelter det sammen?

Å bygge en titteloptimaliseringsapp med Streamlight

Innholdsforfattere finner denne applikasjonen mest nyttig. Ville det ikke vært fantastisk å ha en enkel å bruke app som ikke krever mye teknisk kunnskap? Vel, det er akkurat det Streamlight er her for.

Installasjonen, så vel som bruken, er ganske rett frem. Du kan installere den ved hjelp av:

! pip installere strømlinjeforming

Vi har laget en app som utnytter denne modellen. Når det er nødvendig, kan vi kjøre den fra samme sted der vi trener en modell, eller vi kan laste ned en allerede trent modell dit vi planlegger å kjøre skriptet. Vi har også utarbeidet en CSV-fil med titlene og nøkkelordene vi håper å optimalisere.

Nå lanserer vi appen. For å kjøre modellen, må vi gi stien til CSV-filen, som har titlene og nøkkelordene vi håper å optimalisere. CSV-kolonnenavnene må samsvare med navnene mens du trener Ludwig. Hvis modellen ikke optimaliserer alle titlene, bør du ikke få panikk; å få et anstendig tall riktig er også et stort skritt fremover.

Som eksperter i Python blir vi veldig begeistret når vi jobber med dette, da det vanligvis får blodet til å pumpe.

Hvordan lage et tilpasset datasett å trene

Ved å bruke Hootsuite-titler kan vi trene modeller som vil fungere bra for våre kunder, men som kan være standard for konkurrentene. Derfor sørger vi for at vi produserer vårt eget datasett, og her gjør vi det.
  • Vi bruker våre egne data fra Google Search Console eller Bing Webmaster Tools.
  • Som et alternativ kan vi også hente kundens konkurransedata fra SEMrush, Moz, Ahrefs, etc.
  • Deretter skriver vi et skript for tittelkoder og deler deretter titler som ikke har målnøkkelordet.
  • Vi tar titlene som er optimalisert ved hjelp av nøkkelord og erstatter nøkkelordene med synonymer, eller vi bruker andre metoder slik at tittelen blir "deoptimert."

Konklusjon

Semalt er her for å hjelpe deg med å optimalisere tittelkoder samt metabeskrivelser automatisk. Ved å gjøre dette kan du være foran på SERP. Analyse av et nettsted er aldri en enkel oppgave. At det er trening i en maskin som hjelper oss å gjøre dette, sparer ikke bare kostnader, men det sparer også tid.

Hos Semalt er det fagpersoner som vil sette opp datasettet ditt, Ludwig og T5 slik at du alltid kan fortsette å vinne.

Ring oss i dag.

mass gmail