AI verkar vara nästa stora grej i teknisk utveckling, men termen “AI” missbrukas i stor utsträckning. Egentligen finns det fyra generella typer av AI:
- Maskininlärningsalgoritmer som kan förbättra sig själv vid utförande av smala uppgifter.
- Generativ AI tar saker som konst, skrivande och musik, delar upp dem i statistiska modeller och tillämpar dessa modeller för att remixa “nya” iterationer på dessa former av media.
- “AI” som egentligen borde stå för “An Indian” eftersom det är en rökridå för företag att lägga ut arbete i en Mekanisk turk (inte Amazonas) på ett sätt.
- Begreppet en icke-mänsklig intelligens skriven om i science fiction.
Av dessa fyra är den första perfekt om den är smal i tillämpningen. Den fjärde existerar inte, och alla som säger att det är nära ljuger antingen för dig eller på något. Den tredje är beklagligt vanlig, och även de största företagen provar den, som Amazons kassalösa livsmedelsbutiker som förmodligen körs på AI, vilket har avslöjats att faktiskt vara över 1 000 arbetare i Indien som utför arbetet.
Generativ AI är den som för närvarande orsakar mest störningar för olika branscher. Allt från den senaste Red Lobster-jingeln som helt och hållet är skriven av AI, till AI-ersättningar för “webbsökning” (som knappt fungerar, i bästa fall), till den enorma högen av AI-genererade skrifter som träffar bloggar över hela världen, det stör mycket branscher som innehållsskapande och bloggande, det är säkert.
30 sekunders sammanfattning
AI-missbruk är vanligt, med fyra huvudtyper: självlärande algoritmer, generativ AI, utlagd arbetskraft märkt som AI och science fiction AI. Generativ AI, som skapar nya medieversioner, stör branscher för närvarande. Vissa använder tyvärr etiketten AI för uppgifter som utförs manuellt utomlands, som Amazons kassalösa butiker som drivs av arbetare i Indien. Att upptäcka AI-genererat innehåll är viktigt för varumärkets autenticitet och datanoggrannhet eftersom AI kan göra fel. Det är därför verktyg som GPTZero och Originality.AI, designade för att upptäcka AI-skapat innehåll, är viktiga. Båda har sina fördelar, och användningen beror på specifika behov.
En kort översikt över problemen med generativ AI
Jag tänker inte gräva djupt i etik, moral eller tekniska frågor med generativ AI just nu. Det är förvisso en diskussion jag är villig att ta, men det är inte meningen med dagens inlägg. Men för att komma till saken behöver du en uppfattning om varför det är viktigt.
Ett vanligt försvar av generativ AI som jag ser är detta: “Om det ser bra ut och har rätt information, varför spelar det någon roll att ett program skrev det?”
Med andra ord, om innehållet klarar en översiktlig inspektion, spelar det någon roll om en person skrev det eller inte en GPT-algoritm skrev det?
Jag säger ja. Det finns två huvudorsaker till detta.
Den första är att AI kan skapa mycket exakt innehåll som fortfarande är helt fel. Den kan hitta på ord, den kan misslyckas med att svara på frågor med specifika svar och den kan “hallucinera” saker som inte finns. Det är bra för fluff utan detaljer, men allt som kräver faktiska data eller specifika resonemang kan det absolut inte göra. Detta beror på att AI:n existerar enbart för att producera något som ser mänskligt skrivet ut, och det finns ingen återkopplingsmekanism i AI:n för faktisk noggrannhet eller logiska resonemang. Det är därför det kan få saker som grundläggande matematik fel och varför det ofta är omöjligt att få det att göra något som “räkna antalet vokaler i den här meningen”; eftersom det inte är en tänkande eller resonerande enhet, är det telefonens autoslutförande upp till 11.
Det andra skälet till att det är viktigt är att, till synes, innehållet du producerar och publicerar är tänkt att vara representativt för ditt varumärkes auktoritet, expertis och pålitlighet. När du har en robot som gör det åt dig, vad säger det om ditt varumärke? Om någon kom fram till dig på en mässa och frågade dig något om ett uttalande du gjorde i ett blogginlägg, kunde du inte svara på dem eftersom du inte skrev det.
Allt detta betyder att du behöver ett sätt att identifiera när innehåll är skrivet av GPT eller en annan LLM. Du kan inte bara gå på vibbar – trots allt har dessa modeller tränats specifikt för att efterlikna mänskligt skrivande – men det finns saker som en algoritm kan identifiera.
När ska man använda en GPT-detektor
GPT-detektorer är användbara i en mängd olika situationer. Som innehållsmarknadsförare arbetar jag ofta med frilansskribenter, och jag vet att många andra bloggare där ute också anställer spökskrivare; Det kan vara en stor sak att upptäcka om de bara kastar GPT-utdata på dig för att få betalt. Du kan också använda den på dina konkurrenter för att se om de använder eller missbrukar AI för sitt eget innehåll och vet att du kan utnyttja den svagheten i deras strategi.
Och, naturligtvis, det finns många andra situationer där användning av GPT kan vara skadligt. En stor är akademiker; lärare överallt konfronteras med den utbredda tillgängligheten av ett enkelt verktyg som eleverna kan använda för att kringgå lärande, med allt vad det innebär.
Lärare som har verktyg de kan använda för att identifiera akademisk oärlighet kan vara till stor hjälp (även om alltid vara uppmärksam på falska positiva resultat.)
Uppenbarligen är detta ett problem som ännu inte har lösts rent. Vi befinner oss mitt i en snabbt utvecklande teknisk kapprustning, där företag som OpenAI och Google på ena sidan utvecklar bättre och bättre sätt att göra mänskliga resultat användbar, och under tiden försöker ansträngningar som de från GPTZero eller Google upptäcka AI för att flagga det och tillåta mänskligt skapat innehåll att lysa.
Ja, jag nämnde Google på båda sidor här. De är verkligen; å ena sidan vill de vara ledande i alla tekniska strider, men å andra sidan beror webbsökningens lönsamhet – och därmed hela deras annonsmodell – på att sökresultaten är användbara, vilket AI ofta inte är, så de kämpar mycket mot sig själva.
Två av de ledande AI-detektorerna just nu är Originality.AI och GPTZero.
Frågan är vilken som är bättre? Jag har använt dem båda och har några åsikter, men jag överlåter det slutgiltiga valet till dig.
Allt om GPTZero
GPTZero, som du hittar härerbjuder både gratis och betaltjänster.
Gratistjänsten är enkel och måttligt effektiv, men begränsad i vad den kan berätta. Du kan köra upp till 5 000 tecken i text genom den, vilket motsvarar cirka 900 eller så innehållsord. Som referens, från början av det här inlägget till “slutligt val till dig”-biten ovan är cirka 4 400 tecken utan att räkna mellanslag, eller 5 300 med; GPTZero räknar mellanslag, så tänk på det.
Den kostnadsfria skanningen kommer att berätta sannolikheten för att innehållet genereras av AI och hur mycket av det är AI-genererat, enligt deras analys. De berättar inte hur de utför sin analys (den skulle kunna besegras lättare om de gjorde det), men jag har tyckt att den är ganska tillförlitlig. De kan också berätta en uppskattning om det finns meningar som är blandade – det vill säga AI-skrivna men med ett par redigeringar gjorda av människor.
De kan ha fel! Jag har haft dem att flagga meningar som jag har skrivit som AI, och jag har sett att det tar 100 % GPT-utdata och placerar det på 90 % eller så. Sammantaget är det dock generellt sett ganska bra.
Jag är egentligen inte här för att diskutera bara gratisversionen, eftersom det verkliga värdet ligger i den betalda versionen. Den betalda versionen ger dig två mycket användbara funktioner: den djupa skanningen och källsökaren.
Med den kostnadsfria skanningen är allt du får en holistisk översikt över innehållet som den skannar. De flaggar inte enskilda element; de ger dig bara en total procentandel. Den djupa skanningen går mening för mening och berättar vilka som specifikt är sannolikt AI-genererade. Det kan till och med berätta vilket AI-system som användes för att generera innehållet och flagga olika modeller, inklusive din vanliga GPT och saker som Jasper, Falcon, Bart och Claude.
Källsökaren är en plagiatdetektor som liknar något som Copyscape, som kan hitta om AI:n drar direkt från källor, och låter verktyget utföra dubbelt arbete som en AI-användning och direkt plagiatdetektor. För det mesta kommer människor inte att blanda ihop AI och stulet innehåll i samma inlägg, men om de är det (säg, för att undvika GPT-detektorer) kan den flagga det åt dig.
Prissättningen är också ganska rimlig. Betalda planer börjar på $10 per månad, även om den djupgående skanningen kräver minst $16 per månad planen. Till och med deras företagsplan på högsta nivå är bara $23 per månad. De största skillnaderna i funktioner mellan dem är oftast antalet ord du kan skanna en månad (150 000 för den billiga planen, 300 000 för den mellanliggande planen och 500 000 för den översta planen med möjlighet att fylla på krediter om du behöver mer).
Jag ska gå lite djupare in i mina tankar i jämförelsedelen om lite.
Allt om originalitet.AI
Originalitet, hittas härär en annan av de ledande konkurrenterna för det bästa AI-detektionsverktyget på marknaden idag. Där GPTZero riktar sig till alla som kan behöva använda det, med viss tonvikt på lärare och utbildningsinstitutioner, är Originality mer riktat direkt till webbplatsägare, innehållsföretag, marknadsföringsbyråer och webbpublicister. Du kan slå vad om att de siktar på kontrakt med frilanshubbar som Fiverr eller Upwork eller stora förlag med tusentals skribenter som Forbes.
En intressant sak är att Originality också har några funktioner för skribenter att använda för att bevisa att de gjort innehållet och att alla positiva träffar är falska positiva. Detta görs på några olika sätt, inklusive en ganska påträngande sessionsövervakningsfunktion som gör att en författare kan spela in sin session med innehållsskapande för att ge sina kunder. Jag tror inte att det är särskilt användbart (någon kan bara använda GPT i ett annat fönster/webbläsare/enhet och manuellt skriva om innehållet), men ansträngningen är intressant.
Sammantaget fungerar AI-detekteringsfunktionerna ganska bra. De har en mycket låg frekvens av falska positiva och en hög frekvens av upptäckt i deras 2.0-modelloch de har en plagiatdetektor som också upptäcker “parafrasera plagiat”, vilket är där en AI ombeds att sammanfatta ett stycke.
De har också en faktagranskarassistent, som kan identifiera påståenden som gjorts i ett stycke och försöka se om det finns risk för att de är falska eller hallucinationer. Jag har inte fått så mycket användning av den funktionen, men det är också ett bra initiativ att ha.
Den största nackdelen med Originality är avsaknaden av en gratis plan eller ett gratis verktyg att använda för att prova det, åtminstone utan att hoppa genom bågar. Du kan använda deras Chrome-tillägg för att prova det med 50 poäng, men det är inte särskilt mycket, och det är mindre bekvämt än GPTZeros enkla gratis genomsökning på deras hemsida.
De har en engångsbetalningsplan som kostar $30 för att få tillgång och ger dig krediter som används i en takt av 1 poäng för 100 ords AI-skanning eller 1 poäng för 10 ords faktakontroll. Eller så ger de dig prenumerationsplaner från $15 per månad för 2 000 krediter.
Krediter går tyvärr ut varje månad, så se till att du bara får de krediter du behöver och använder dem när du får dem, så att du inte slösar pengar.
Deras 3.0-modell är för närvarande oanvändbar. De gjorde den till den aktiva modellen ett tag och stoppade den sedan tyst i bakgrunden så att den är mindre synlig, men det är uppenbart att den fortfarande har många buggar som de försöker lösa. Det märker i princip allt som AI, mänskligt och AI-innehåll. Varje inlägg på varje webbplats kommer att visas som AI. Så det är inte särskilt användbart – ännu.
Uppdatera: Originality lanserade en “2.0.1” BETA-modell denna månad. Liksom 3.0-modellen verkar den ganska oanvändbar och mindre exakt än deras 2.0-modell, men något mindre trasig än deras 3.0-modell. Du kan se det som en blandning mellan 2.0 och 3.0; Jag skulle nästan kalla det “2,5”. Men om du använder ett par ord med högre ordförråd eller om du skriver i tredje person kommer mänskligt skrivet innehåll att flaggas som AI.
Vilket är bättre: GPTZero eller Originality.AI?
Detta är en intressant jämförelse.
Jag använder båda aktivtoch jag tror att det är vägen att gå, eftersom de både kan fånga saker som den andra missar, och de tittar definitivt på olika aspekter av text.
Till exempel ägnar originalitet mycket uppmärksamhet åt kommatecken. Eftersom Grammarly (som numera är AI-drivet själv) älskar att infoga kommatecken i allt, kan ett helt mänskligt skrivet stycke med Grammarly-förslag utlösa Originalitys röda flaggor. Den flaggar också några specifika ord som AI tenderar att använda oftare än vad människor gör.
Originalitet är mycket strikt och mycket känslig. Detta är en bra sak när du vill eliminera alla möjliga falska positiva, men att hantera dem kan vara en enorm smärta, särskilt om du är van vid ett arbetsflöde som använder Grammarly. Det är också väldigt dyrt för vad det gör, så var kräsen med det.
GPTZero är också mycket exaktmen inte riktigt lika exakt eller så strikt som originalitet. Jag älskar den djupa skanningen och att kunna gå rad för rad genom innehållet för att se vad det flaggar. Det är lite mer benäget att få falska avläsningar, men det är fortfarande ligor bättre än många andra detektorer där ute, och priset är mycket trevligare.
Om du var tvungen att välja ett verktyg skulle jag rekommendera Originalitet. Om du har utrymme att använda mer än en och jämför resultaten, använd dem båda. Det är vad jag gör, och jag tycker att det ger dig den bästa läsningen av ett innehåll.
Vad tycker du om dessa verktyg? Vilken gillar du mest? Finns det något verktyg du gillar bättre? Lämna en kommentar nedan och låt oss prata om det!