Hvad sker der, hvis man uploader +100 AI-genererede artikler på et nyt domæne på samme tid?
Aner det ikke, men jeg har oprettet et eksperiment for at finde ud af det!
Eksperimentet involverer 224 AI-genererede artikler og én overordnet side, der linker til dem alle.
Og imens eksperimentet bliver bygget, har jeg tænkt en del på, om det overhovedet vil resultere i noget. De fleste af mine spørgsmål har drejet sig omkring:
- Vil Google indeksere alle artiklerne?
- Vil artiklerne rangere godt nok til at generere trafik?
- Vil der være en chance for at få leads, links eller andet?
For at få besvaret disse spørgsmål bruger jeg denne artikel som en slags dagbog for at dokumentere efterfølgerne. Men lad os først gennemgå hvordan artiklerne er oprettet.
Du kan se det endelige resultat for SEO ordbogen her.
Målet
Målet er at oprette en SEO ordbog så programmatisk som muligt uden teknisk snilde eller dyrt software på et helt nyt domæne.
For at dette kan lade sig gøre, er der sat nogle grundregler:
Artiklerne skal være informative og afdække hvert emne med “Hvad”, “Hvordan”, “Hvorfor” spørgsmål samt fordele og ulemper. De skal helst ikke være for lange, da det ikke vil passe ind i ordbog-formatet.
Setuppet skal understøtte en programmatisk indsats, der er mulig at bruge, selvom man ikke er teknisk anlagt. Dette skyldes primært, at jeg ikke selv er betydeligt teknisk anlagt og derfor skal anvende no-code muligheder. Setuppet skal også gøre det muligt at lave ordbogen så hurtigt som muligt med så lidt menneskelig involvering som muligt.
Domænet skal være nyt og dermed hverken have links eller tidligere autoritet i Google.
Søgeordsanalysen skal ikke være avanceret. Jeg har blot fundet termer, som er relevante i en SEO kontekst på én eller anden vis og tilføjet “broad term”-versionen som søgeord for artiklerne. Her er det vigtigere, at alle termer bliver afdækket indholdsmæssigt end at finde søgeord med lav konkurrence eller med høj volume.
Setuppet der gør det muligt
Jeg har besluttet mig for at anvende en AI Content Platform. Her vælger jeg Cuppa.ai, fordi de har en gratis prøveperiode (sorry Charles!). For at kunne anvende platformen abonnerer jeg også til ChatGPT Plus for at kunne forbinde med API’en.
Cuppa fungerer ved, at man programmatisk indsætter søgeord, indstiller sine prompt settings og så genererer den bare derudaf. Hertil bruger jeg modellen GPT4o mini-modellen. Dette er primært af finansielle årsager. Det ender med at bruge omkring $15-20 for 300 artikler (dette tal inkluderer tests for at optimere prompten i Cuppa).
Platformen har allerede en ukendt, bagvedliggende prompt. Dette er nok, sådan at de genererede artikler i platformen altid er bedre, end hvis man bare skrev “skriv en lang og god artikel om (emne)” i ChatGPT.
Men siden jeg skal bygge en ordbog, så vil jeg gerne lave én prompt, som skal gælde for alle artiklerne, sådan at de nogenlunde bliver skrevet på samme måde.
I denne specificerer jeg blot, at artiklerne skal besvare “Hvad”, “Hvordan”, “Hvorfor” spørgsmål. Tonen, stilen, SEO-ting kan indstilles i Cuppa.
Når artiklerne er genereret, har Cuppa en funktion til at uploade artiklerne i bestemte CMS’er. Jeg vælger at få dem alle uploadet som kladde på min WordPress hjemmeside.
De sidste tweaks inden publicering på hjemmesiden
Inden artiklerne er klar til publicering, er jeg nødt til manuelt at gå ind og ændre nogle ting. Der er nogle ting, som jeg ikke er i stand til at prompte mig til.
For eksempel er jeg ikke i stand til at få formatering helt på plads i Cuppa. H1’eren skal blot være søgeordet for artiklen som det eneste, men derefter genererer den endnu en overskrift og satte den som H2, som jeg er nødt til manuelt at slette.
Derudover tilføjer Cuppa også altid et afsnit med “Fremtidige tendenser” og en konklusion. Jeg kan ikke fjerne dem med prompting i Cuppa, selvom jeg har prøvet i laaang tid, så dem fjerner jeg også manuelt.
Hver artikel følger den samme struktur for meta titler: [Søgeord] – SEO ordbog. Cuppa har også en funktion til at generere metabeskrivelser, men denne anvender jeg ikke. Jeg anser personligt disse som værende en del af CTR-arbejdet, der kan udføres, når forhåbentligt pæne rangeringer allerede er opnået.
Derudover opretter jeg selve ordbogssiden, som skal linke til alle artiklerne. Denne opretter jeg manuelt, da jeg ikke ved, hvordan dette kan automatiseres.
Til sidst publicerer jeg artiklerne og uploader de forskellige sitemaps i Google Search Console.
Domæne detaljer
Det brugte domæne er luumi.dk og blev ifølge GSC indekseret i Google for første gang d. 08/09/2024:

Kommentar: For at være 100% transparent viste GSC også 224 /feed/ URL’er, som blev crawlet, men er sat til no-index – dette blev ikke ændret under eksperimentet. Dette vurderer jeg dog ikke som værende make-it-or-break-it for experimentets resultat.
Domænet har heller ingen fortid i Wayback Machine:
Derudover er der ikke bygget backlinks til domænet hverken før og under eksperimentet:
Efter upload af artiklerne
Efter artiklerne og ordbogssiden er publiceret, vil jeg gerne gøre lidt ekstra for at øge læsbarheden og SEO-venligheden. Derefter kigger jeg ind i at tilrette sjove ordvalg og implementere interne og eksterne links.
Sjove ordvalg
Hvis du nogensinde har prøvet at generere artikler med AI på dansk, så ved du, at ordvalgene kan være lidt sjove engang imellem. Tit kan der altid findes et par eksempler i en tekst, hvor sætningerne er skrevet i “danglish”.
Jeg bliver opmærksom på en del af disse, da jeg tilretter formateringen manuelt i artiklerne. Så jeg er opmærksom på, hvad der skal tilrettes. Disse sjove ordvalg bruger jeg den betalte version af Screaming Frog til at identificere. Helt specifikt bruger jeg deres “Custom Search”-funktion.
Her kan jeg blot indsætte ordene, som jeg vil tilrette, få en liste af alle URL’erne, hvor disse ord fremstår og manuelt tilrette dem.
Eksterne links
Det lader til, at Cuppa har en sætning i sin bagvedliggende prompt med, at den skal tilføje statistik, undersøgelser eller ekspertkilder i deres artikler. Da jeg publicerer artiklerne, finder jeg i hvert fald ud af, at der er over 100 af dem.
Problemet er, at disse kan været opfundet, hvilket nogle af dem er, så jeg gennemgår enhver undersøgelse, statistik, ekspertkilde manuelt, finder en relevant kilde manuelt via Google og linker til den.
I de tilfælde hvor der er opfundne tal eller påstande, sletter jeg dem fra artiklen. Disse eksterne links er alle do-follow og er primært fra udenlandske kilder på engelsk.
Interne links
For at maksimere SEO-delen af eksperimentet vil jeg gerne inkludere interne links. Men dette kan hurtigt tage lang tid at implementere, hvis det skal gøres manuelt. Derfor anvender jeg et plugin i WordPress til at automatisere denne proces.
Her bruger jeg et plugin med en gratis version kaldet Internal Link Juicer. Det fungerer ved, at jeg manuelt indsætter søgeord på hver artikel og så vil alle andre artikler, der nævner dette ord, automatisk internt linke til denne side.
Her er jeg ikke gået så meget i dybden, så der er stort set kun opsat exact match ankertekster.
Hvad så nu?
Nu venter vi og ser, om arbejdet ender ud i noget.
Indtil videre har det hele taget mig 15-20 timers arbejde. Dette kan helt klart også gøres hurtigere, hvis man er bedre til at prompte end mig.
Jeg har også set bureauet Obsidian opleve succes med en helt anden tilgang, hvor de bruger et automatiseringsværktøj, Make.com, hvor jeg ikke tror, at de har stødt på denne udfordring i deres endelige resultat. Du kan se deres projekt her.
Ifølge GSC indekserede Google alle artiklerne samme dag som lanceringen, så det ser jeg som et godt tegn på, at alt det tekniske spiller.
Men om artiklerne er gode nok til at rangere i top 10 for søgeord, må vi vente og se.
Opdatering – 1 måned senere
Der er nu gået 1 måned, siden artiklerne blev uploadet.
Indtil videre har SEO ordbogen genereret:

Artiklerne har genereret en del eksponeringer, men stort set ingen kliks. Vi kan også se på kurven, at mængden af eksponeringer faldte hårdt i den sidste halvdel af testen.
Vi kan også se, at eksponeringerne er godt fordelt ud på artiklerne. Det er altså ikke få artikler, der virkelig har trukket det tunge læs:

Så hvad kan vi konkludere?
Eksperimentet viser os, at vi ikke kan forvente, at halvdårligt, masse-publiceret AI indhold kommer til at rangere i Google på et helt nyt domæne – i hvert fald ikke på den korte bane.
Men spørgsmål opstår ud fra disse resultater:
- Ville halvdårligt, masse-publiceret AI indhold rangere på et etableret, autoritært domæne?
- Ville godt, masse-publiceret AI indhold rangere på et nyt domæne?
- Hvor vildt kan det blive, hvis man masse-publicerer godt AI indhold på et etableret, autoritært domæne?
Indtil videre kender jeg ikke svarene på disse spørgsmål.
Men ud fra dette eksperiment er min anbefaling, at hvis du har et nyt domæne, som du gerne vil rangere i Google inden for en kort tidshorisont, så skal du i hvert fald IKKE masse-publicere halvdårligt AI indhold.
Refleksioner
I dette afsnit vil jeg dele mine tanker og spekulationer til, hvorfor dette eksperiment ikke resulterede i resultater. Det mener jeg kan skyldes flere ting. Herunder har Google mindst 3 systemer i deres algoritme, der forhindrer sådant indhold i at klare sig godt i deres søgeresultater.
Hvis man kigger hele Googles 170 siders Search Quality Evaluator Guidelines igennem, så kan man dog helt sikkert finde flere grunde til, at eksperimentet ikke har skabt resultater.
Men nedenfor er nogle af de mere åbenlyse grunde, som jeg mener har haft den største indflydelse.
Helpful Content
Google har mange ranking systemer, som de bruger til automatisk at rangere indhold i sine søgeresultater.
Èt af disse ranking systemer er deres evne til at spotte indhold, der er hjælpsomt og afdækker emner til en tilfredsstillende grad.
Nedenstående er nogle screenshots fra Googles egne ressourcer, hvor de tilbyder spørgsmål, som man kan stille sig selv, når man skal evaluere, om ens indhold er hjælpsomt og om det afdækker et emne godt nok.
Markeret i rød er de spørgsmål, hvor dette eksperiment kommer til kort. Dette er klart den del af Googles algoritme, hvor eksperimentets artikler kan kritiseres mest.
Spam
Google har også et ranking system, der står for at evaluere graden af spam, som en hjemmeside producerer.
Spam er et stort emne og er ikke alle delene er relevante for dette eksperiment. Nedenstående er der kun screenshots, der er relevante for os. Men jeg anbefaler, at du besøger linket ovenfor, hvis du er i tvivl om, hvad spam er og ikke er i Googles øjne.
E-E-A-T
E-E-A-T (Experience, Expertise, Authority, Trustworthiness) har ikke sin egen dedikerede ressource fra Google, men det afdækkes til en vis grad her. Det afdækkes mere omfattende i Search Quality Evaluator Guidelines, der linkes til længere oppe i reflektionen.
Men i den dokumentation der er, så er der stadig klare retningslinjer, der ikke blive fulgt i eksperimentet.
Derudover er der andre faktorer på hjemmesiden, som både direkte og indirekte også kan have en negativ indflydelse på artiklernes rank i søgeresultaterne:
- Ingen adresse
- Ingen handelsbetingelser
- Ingen cookiepolitik
- Ingen “Om os” side
- Ingen authorship
- Ingen Google Business konto
- Ingen backlinks
- …sikkert +100 andre ting jeg ikke lige kunne komme på
(Dette er blot en hobby side)
Er det overhovedet værd at lave en ordbog?
Min personlige overbevisning er, at hvis en ordbog er spækket med kvalitetsindhold, så kan den sagtens understøtte en virksomheds top-funnel indsats.
I et felt som SEO er konkurrencen i søgeresultaterne hård, så i dette tilfælde skal ens artikler virkelig være i topform for at rangere godt.
Hvis jeg googler “SEO ordbog” lige nu, så er de første 30 resultater fyldt med den samme type af ordbøger med nogenlunde de samme artikler fra etablerede virksomheder:
Og det er ikke kun SEO branchen, der gør brug af digitale fagtermsordbøger. For eksempel gør advokathuse også brug af denne teknik.
Dette er resultatet, hvis vi søger på “juridisk ordbog”:
Nogle af resultaterne er godt nok salg er fysiske bøger. Men der er stadig en del ordbøger i blandt, der leder hen til et helt netværk af blog indlæg.
Men hvis vi så går over i et felt såsom bogføring og søger på “bogføring ordbog”, så er søgeresultaterne ikke så konkurrenceprægede mere:
Dette er stadig et meget teknisk felt, hvor virksomheder har muligheden for at opkvalificere sine besøgende, men der er kun få, der gør det.
Generelt vil jeg konkludere, at hvis du sidder i en virksomhed, der sælger et teknisk produkt/en teknisk service, så kan en fagtermsordbog være en gavnlig tilføjelse i jeres top-funnel strategi.
Og det er hermed konklusionen på eksperimentet. Jeg håber, at du fik noget ud af det – det gjorde jeg i hvert fald!