SEO
Overblik:
- Performance har betydning, også på trafik fra søgemaskiner.
- Hvordan: eksempelvis serverside-rendering caching etc.
- Teknisk: hvorledes med react..
- https://developers.google.com/speed/pagespeed/insights/
- https://developers.google.com/web/tools/lighthouse/
- Hvordan: eksempelvis serverside-rendering caching etc.
- Links og navigationsstruktur
- kort url
- egne links (out-authority+internal 4-8. No broken)
- eksterne links
- wikipedia bibliotek.dk link?
- Struktur og indhold
- Optimering af indhold, (ikke duplikeret)
- Keyword in url, title and h1/h2/h3... meningsfulde tags, img alt tags+filename
- Indeks via sitemap (ping'ed til søgemaskine, og/eller angivet i robots.txt)
- google tilmeld site når data klar
- også book feed
- Randers-forundersøgelse – Biblioteks SEO-analyse af InboundCPH
- teknisk: sitemap, mikroformater, serverside, bibliotek.dk-link, event-opmarkering+landingpage, search-console, kun ét domæne, smårettelser:titel etc.
- struktur navigation til enkelte materialer, breadcrumbs, url=navigation
- fælles site..
- links
Indhold i forkortet form:
De foregående afsnit har fokuseret på semantisk opmarkering af data. Nu vil jeg gå videre og tale om traditionel søgemaskineoptimering.
Til at starte med vil jeg tale om performance på hjemmesiden, fordi det har en betydning. Brug af hjemmesiden er påvirket af hvor hurtig siden er. Hvis man har en langsom side, så har man målt at så taber man brugeren undervejs. Og udover at man taber brugere, så kigger søgemaskiner også på site performance, og hvis websitet er langsomt, så påvirker det også søgemaskinerankeringen negativt. Man kan læse mere om hvorfor sidens hastighed har betydning på https://web.dev/why-speed-matters (Googles webudviklingsdokumentation).
Når vi laver tingene i React, så kan jeg også komme med nogle konkrete erfaringer dér.
Det muligt lave html der er forud-renderet på serveren, så dokumentet er som det skal læses med semantisk opmarkering, så det er endnu lettere for robotterne at hente ned. Moderne søgemaskinerobotter kan godt køre JavaScript på en hjemmeside, og alligevel finde ud af hvad tingene er, – men når optimerer hvordan jeg eksponerer data bedst mulig, så har jeg renderet det server-side. Så jeg har kørt React-koden på serveren og derefter sendt den færdig-renderede HTML-kode til klient, og så også loader JavaScript koden ind i klienten. Og der er forskellige frameworks til dette, og man kan også selv sætte det op.
Når man arbejder med performance af hjemmesider, så er der forskellige værktøj hvor man kan måle på performance, – se links i oversigten.
Rankering i Google var eller er baseret på eigenvektor af links. Links har derfor stor betydning, – omend der lavet forskellig udviklng for at undgå at folk udnytter dette. Links i det hele taget er vigtige, også at andre linker til det.
Når bibliotek.dk satser national url for de enkelte dele af den danske litteratur, – så vil det være naturligt bruger denne til at linke til. Her kan det også tænkes ind at der faktisk er noget indhold som det giver mening at linke til. Autoritet til et site bliver ofte givet ved, at andre netop refererer til dette site. Apropos dette bibliotek.dk-specifikke, så er der også opsætning i hvordan wikipedia linker til litteratur hvor bibliotek.dk fremgår, og måske skal tilpasses / checkes.
Udover de eksterne links, bør man også overveje navigationsstrukturen, og at url'erne giver mening, og ikke er for lange.
Indholdet er også vigtigt, – og der er en del om hvordan man vælger de rigtige nøgleord, synonymer etc. som man kan tage ind når man laver søgemaskineoptimeret indhold, – men som måske ikke er så oplagt i forbindelse med landingpage hvor indholdet er ret givet.
Søgemaskiner kan kun linke til en ting ad gangen, så er duplikeret indhold en ulempe. Man kan også overveje hvilket biblioteks-indhold, der kan ligge med bibliotek.dk som primært site.
Og det gælder også om at opmarkere indholdet rigtigt, så eksempelvis titel og forfatter optræder både i url'en og i titlen, og i en overskrift, – hvor det ikke bare er et <span>
eller lignende der har fået noget styling så det ser stort ud, – men at man faktisk bruge de meningsfulde h
-tags der siger at det faktisk er en overskrift, – så semantikken af html-tag'ene matcher indholdet. Og så selvfølgeligt også at der er alt-tag på billeder, og meningsfulde filnavne, så for eksempel: at forside-filenavnet indehold titel og forfatter, så kunne det også gøre siden og forside-billedet rankerede højere når man søgte efter billeder af den pågældende bog.
Hjemmesiden kan gøres tilgænglig for søgemaskiner på forskellige måde. Overblikket over hvilke sider, der er på hjemmesiden, gives til robotter via et sitemap, – som er et xml eller tekst dokument, der fortæller om siderne og hvornår de er opdateret etc. og hvor ofte man gerne vil have besøg af robotter. Sitemap kan både angives i robots.txt
og også submittes direkte til de enkelte søgemaskiner, blandt andet via google search console. Og som noget nyt i forhold til rige data, er der eksempelvis bogfeeds som man kan give til google.
Så det var en rundtur omkring traditionel søgemaskineoptimering.
Derudover lidt om forundersøgelsen som Randers fik lavet ifbm. deres SEO-projekt, – se dokumentet fra denne undersøgelse.