AI är på modet idag, och som ett verktyg har det potentialen att bli en mycket kraftfull tillgång i händerna på tillväxthackare, marknadsförare och innehållsskapare. Samtidigt innebär dess grund i stöld och dess utbredda användning för att spamma internet för snabba annonsintäkter, och hur chefer använder det som en ursäkt för att skära ner tusentals anställda, att det är ett extremt kontroversiellt ämne.
En av de störst diskussioner kring AI, förutom upphovsrättsfrågor, är huruvida det anses vara skräppost att använda det för att skapa innehåll. Å ena sidan har du företag som OpenAI som tillåter i stort sett vad som helst, och företag som Jasper tillhandahåller ramverk som du kan använda för att konvertera en handfull nyckelord och instrumentpanelsinställningar till helt skapat innehåll.
Vi har alla väntat med kvarnade andetag för att se vilken hållning Google kommer att ta. Vissa tror att de kommer att falla på sidan av AI eftersom de har gjort sin egen version med Gemini, och de har integrerat AI-funktioner direkt i Google Docs. Andra anser att det strider mot deras skräppostregler, samma som fångar upp spunnet innehåll och annat “algoritmiskt genererat innehåll.”
Dagen kom äntligen och Google gav ut både vägledning och en ny algoritmuppdatering som lovade att klargöra situationen.
Vad får vi? Låt oss ta en titt.
30 sekunders sammanfattning
AI:s potential som ett verktyg för tillväxthackare, marknadsförare och innehållsskapare är betydande, men dess missbruk för spam och nedskärningar gör det till ett kontroversiellt ämne. Googles regler förbjuder inte direkt AI för innehållsgenerering, men de motverkar dess storskaliga exploatering för att manipulera sökrankningar. Att tillhandahålla pålitligt innehåll av hög kvalitet är viktigt, vilket AI inte nödvändigtvis kan tillhandahålla. Google rekommenderar att AI-genererat innehåll kommer med en avslöjande, och ger även strängare regler för specifika typer av innehåll, som politiska annonser.
Allmänna riktlinjer för innehåll
Först och främst kan vi ta en titt på Googles riktlinjer för allmänt innehåll, den typ av saker du ser på bloggar som den här.
Du kan läsa Googles vägledning direkt från blogginlägg i deras utvecklarsektion, som den här och den här.
Google gör det inte direkt komma ut och förbjuda användningen av generativ AI för att skapa innehåll. Men de klargör den AI-generationen burk faller under deras regler mot skalat innehåll och algoritmiskt genererat innehåll.
“Vi har länge haft en policy mot att använda automatisering för att generera lågkvalitativt eller original innehåll i stor skala med målet att manipulera sökrankningar. Denna policy var ursprungligen utformad för att ta itu med fall av innehåll som genererades i skala där det var tydligt att automatisering var inblandade.
Idag är metoder för skalat innehållsskapande mer sofistikerade, och om innehållet skapas enbart genom automatisering är inte alltid lika tydligt. För att bättre kunna hantera dessa tekniker stärker vi vår policy att fokusera på detta kränkande beteende – att producera innehåll i stor skala för att öka sökrankningen – oavsett om automatisering, människor eller en kombination är inblandade. Detta kommer att tillåta oss att vidta åtgärder på fler typer av innehåll med lite eller inget värde som skapas i stor skala, som sidor som låtsas ha svar på populära sökningar men som inte levererar användbart innehåll.”
I grund och botten säger de att använda AI som en assistent till hjälp du skriver innehåll strider inte mot deras regler. Vad är mot deras regler använder AI för att spinna upp hundratals eller tusentals blogginlägg på en ny domän för att försöka dominera sökresultaten. Som alla som har använt Google under de senaste åren vet finns det en ton av webbplatser som huvudsakligen är spunnet innehåll, men eftersom de är skapade med hjälp av AI och mallar som är unika nog från deras källor, blir de inte fångade och straffade.
Google försöker minska synligheten för den här typen av webbplatser eftersom de vanligtvis är ohjälpsamma jämfört med andra sökresultat.
Lyckligtvis har de några resurser som hjälper dem att identifiera den här typen av innehåll. Där vi gör en sökning, ser en webbplats och kanske har svårt att veta med säkerhet om den var AI-genererad eller inte, kan Google titta på vanor från deras index och se något i stil med “ja, den här webbplatsen växte upp från ingenstans med i stort sett liknande innehåll på en nisch som allt publiceras på en gång” och inser att det förmodligen är en AI-spamsida.
En vanlig teknik för att undvika detta var att köpa upp en utgången domän och fylla den med AI-genererat innehåll. På så sätt gav domänens ålder inte lätt bort det faktum att den skapades av helt tyg. Google har också beslutat att detta nu betraktas som en skräppostteknik.
“Ibland köps utgångna domäner och återanvänds med den primära avsikten att öka sökrankningen av lågkvalitativt eller ooriginalt innehåll. Detta kan vilseleda användare att tro att det nya innehållet är en del av den äldre webbplatsen, vilket kanske inte är fallet. Utgångna domäner som köps och återanvänds med avsikten att öka sökrankningen för innehåll av låg kvalitet anses nu vara skräppost.”
Sammantaget är det här några bra regeländringar som syftar till att underskatta de vanligaste missbruken av AI.
Räcker dessa regler tillräckligt långt? Enligt min mening, nej, inte än; problemen med AI kommer bara att bli värre när AI:erna blir bättre, och det kommer att sätta många människor utan arbete. Ännu värre, eftersom AI inte kan syntetisera unika tankar, komma till datadrivna slutsatser eller utföra forskning, kommer det att bli en ökande klyfta mellan den AI-genererade lågnivån och de människor som utför faktisk, unik forskning. Tyvärr, eftersom saker som unik forskning kostar pengar och kräver resurser, kommer allt detta att göra det ännu svårare att bryta sig in i en bransch om du inte redan är välutrustad med finansiering och andra resurser.
Legitim och högkvalitativ användning av AI
Även om Google inte förbjuder användningen av AI för att skapa innehåll, men de mana till extrem försiktighet när du använder den, på några sätt.
Den första är att de driver ytterligare på EEAT i sina algoritmer. EEAT är deras erfarenhet, expertis, auktoritativitet och trovärdighet. I huvudsak är det så här de försöker gå längre än “Är innehållet korrekt?” och till “Kan du lita på personen som levererar denna information?” AI, eftersom det inte kan urskilja fakta från fiktion eller hallucinationer, och eftersom det inte är en person med kritiskt tänkande, har inte expertis, erfarenhet, tillit eller auktoritet.
EEAT manifesteras i många små signaler över en webbplats. Författarbylines, faktakontroll, konsekvent information, konsekvent ton och stil, byggande av varumärkesrykte och citat; alla dessa relativt små faktorer kombineras för att göra en källa mer pålitlig. Tanken är att om du presenteras för två webbplatser, båda med liknande innehåll, och en av dem har citat, faktagranskning och en författares biografi från någon du känner, medan den andra inte har någon av dessa saker, är det tydligt vilken. är mer pålitlig.
“Men vi använder AI för att skapa innehåll, en människa granskar och redigerar det!” Det här är AI-användares samlande rop, och det är lite sant. Tre saker går dock fel här.
- Att koppla ett människonamn till ett inlägg och säga att allt som skapats av AI har granskats är enkelt och kan lika gärna vara en lögn.
- Människor kan vara lata och, i fall där de inte ifrågasätter allt som AI säger, kan de passera hallucinationer utan granskning.
- Om AI bara används för filler, skulle inte innehållet vara bättre utan fillern ändå?
I grund och botten vill Google att du ska satsa ditt rykte på ditt innehåll, och om du använder AI för att generera det – särskilt om du har liten tillsyn över det – bör du vara beredd på konsekvenserna.
Google uppmuntrar (men kräver ännu inte) att AI-genererat innehåll har någon form av avslöjande. Detta kan ta två former. Den första finns i en korrekt författarebyline; istället för att hävda att en person skrev inlägget, säg att personen använde AI för att skriva inlägget och recenserade det. (Om detta gör byline mindre värdefull, ja, ja, det är en konsekvens du måste tänka på när du använder ett verktyg som eliminerar värdet av arbetet.)
Det andra som Google säger att du kan göra är att tillhandahålla bakgrundsinformation om din användning av AI. Detta kan vara en systemsida som liknar en integritetspolicy eller om oss-sida, och bör inkludera hur du använder AI, hur AI faktakontrolleras och var AI är inte begagnad.
Google har inga regler eller betänkligheter mot att du använder AI för att till exempel:
Problemet kommer till stor del av att använda AI för att skapa innehåll från hela tyg.
Specifika regler för smalt innehåll
Google är inte ett företag som ska överge nyanser. Som vi alla vet från tidigare riktade uppdateringar för saker som YMYL (Your Money and Your Life)-ämnen, är de mer än villiga att sätta strängare regler för specifika typer av innehåll när den typen av innehåll kan göra mer skada, antingen för människor i allmänhet eller till deras företag i nedfallet.
Lyckligtvis, eftersom detta år är ett valår, har Google redan utfärdat instruktioner för AI:s användning i politiskt innehåll.
Utfärdat ända tillbaka i septemberGoogles upplysningskrav är följande:
“…kräver att alla verifierade valannonsörer i regioner där verifiering krävs måste tydligt avslöja när deras annonser innehåller syntetiskt innehåll som oäkta skildrar verkliga eller realistiskt utseende personer eller händelser. Detta avslöjande måste vara tydligt och iögonfallande och måste placeras på en plats där det sannolikt kommer att uppmärksammas av användare. Denna policy kommer att gälla för bild-, video- och ljudinnehåll.”
Eftersom AI är tillräckligt bra för att lura människor nu, även om den faller sönder under granskning, vet vi alla att den allmänna befolkningen inte kommer att ge den den granskningen. Så för att förhindra politiska agenter från att använda AI för att irreparabelt skada samhället, kräver de avslöjande.
Tyvärr finns det några problem med denna policy.
För det första gäller det bara annonser som körs via Google Ads. Andra annonsnätverk måste implementera sina egna policyer, och du kan satsa på att många av dem inte kommer att vara lika snabba i dragningen.
För det andra gäller det bara “verifierade valannonsörer”. Som vi alla ser hela tiden, glider alla sorters annonsörer igenom dessa typer av verifieringssprickor; de bryr sig inte om att deras annonser dras så länge de körs ett tag och får lite exponering.
För det tredje säger Google också detta:
“Annonser som innehåller syntetiskt innehåll som har ändrats eller genererats på ett sådant sätt som inte har betydelse för påståendena i annonsen kommer att undantas från dessa krav på offentliggörande.”
Nu är deras exempel saker som att använda AI för att ändra storlek på bilder för att passa annonsdimensioner eller AI-baserad borttagning av röda ögon eller bakgrundsförändringar som inte påverkar annonsernas sammanhang. Kanske blir det bra. Personligen tror jag att all flexibilitet i reglerna överhuvudtaget är en gråzon som folk kommer att missbruka för att åka på linjen, och det kan orsaka både en enorm måttlighetsbörda och ett problem för människor som ser annonserna i gråzonen.
Amy Klobuchar gjorde ett uttalande det är svårt att inte hålla med om: att göra det till ett frivilligt åtagande från politiska annonsörer att berätta sanningen räcker inte långt.
AI och You(Tube)
Google äger YouTube, så det är inte särskilt överraskande att liknande regler träder i kraft med YouTube-innehåll. De har utfärdat sina egna uttalanden om användningen av AI på YouTube. I grund och botten kräver de att kreatörer identifierar när de har använt AI för att ändra eller generera innehåll i en video, och att informationen kommer att användas för att avslöja videon.
Google/YouTube bryr sig inte särskilt mycket om du använder generativ AI för att skriva manus till en fiktionshistoria eller något oviktigt. De är mestadels fokuserade på videor som driver en berättelse om en kontroversiell fråga, som sjukvård, politik eller pågående konflikter. Vi har redan sett det här mycket, med halvrealistiska videospelsfilmer som felaktigt tillskrivs krig som de i Ukraina och Gaza; AI gör det bara svårare att identifiera källan.
Överträdare kan få sitt innehåll borttaget, blockeras från YouTubes partnerprogram och eventuellt få sitt innehåll borttaget helt. Kommer YouTube att vara tillräckligt proaktivt för att stoppa problem innan de startar, eller kommer detta att vara ett fall av “videon hade 100 miljoner visningar så skadan är redan skedd”? Det återstår att se.
Detta är också ett avslöjande som lagts till i videobeskrivningen, och det är alltför lätt att ignorera dem. Personligen tycker jag att avslöjandet bör läggas till själva videon, möjligen som en pre-roll-avisering som liknar pre-roll-annonser, men för närvarande anser Google förmodligen att det är för påträngande och för snabbt. Vi får se om de ändrar låt senare.
Vad bör du göra?
Allt detta leder oss till en sista fråga: vad ska du göra?
Det enklaste alternativet är att dramatiskt begränsa din användning av generativ AI till “bakgrunds” och mekaniska uppgifter. Använder du AI för att generera ämnesidéer? Bra, även om det finns bättre alternativ. Använder du AI för att fylla i schemakod eller generera metabeskrivningar eller bildalternativtext? Bra, så länge det är korrekt. Använder du AI för att ta nyckelpunkter du vill göra och skapa en kontur runt dem som du kan skriva? Bli galen.
Men att använda AI för att generera fullständigt innehåll är där det blir knepigt. Om du ska göra detta rekommenderar jag tre lager av skydd.
- Gör en mycket noggrann kontroll för att se till att alla fakta som AI genererar är korrekta. Du kan förstöra din trovärdighet om du låter en AI-hallucination glida igenom.
- Lägg till ett avslöjande på sidan, ungefär som ditt vanliga afslöjande för affiliate-länkar, om att AI användes vid genereringen av innehållet. Om möjligt, beskriv hur.
- Lägg till en sida på din webbplats på samma nivå som en sekretesspolicy som förklarar din användning av AI. Om du gör det kan du förlora några följare från de människor som är starkt emot AI, men det är bara risken du tar när du använder en omtvistad teknik.
Det är för allmänt innehåll, som för en företagsblogg, en matblogg, en spelsajt eller vad har du.
Om du är verksam inom en mer omtvistad sfär, som geopolitiska nyheter, valnyheter eller något sådant, rekommenderar jag verkligen att du inte använder AI alls. Du vill att folk ska lita på dig, så även att använda AI för något mindre som folk märker kan vara tillräckligt för att ifrågasätta allt du postar.
I slutändan är detta en snabbt föränderlig situation, eftersom AI ser ett ökat regeltryck i EU och USA, tekniken fortsätter att utvecklas, upphovsrättsliga utmaningar ser framsteg och mer. Jag förväntar mig att Google kommer att utfärda åtminstone ytterligare en uppsättning regler under de kommande månaderna, och bara det kan dramatiskt förändra allt jag har skrivit ovan. Var bara försiktiga där ute, gott folk.