Följande artikel hjälper dig: ChatGPT-svar är 95 % korrelerade med människors svar på 464 moraltest
Den skrämmande slutsatsen från en nyligen genomförd forskningsstudie med titeln “Kan AI-språkmodeller ersätta mänskliga deltagare?” var att ChatGPT-svaren var 95 % korrelerade med de som gjordes av människor när de deltog i 464 moraltest. Dessa tester utforskade ämnen som stöld, mord, Ultimatum-spelet, Milgram-experimentet och valkollisioner, bland andra.
Resultaten av denna studie tyder på att AI-språkmodeller kan fungera som proxy för mänskliga deltagare i många experiment. Detta innebär att AI kanske kan ställa komplexa frågor och mäta moraliska svar utan att kräva direkt engagemang från mänskliga deltagare. Detta väcker frågan om, och i vilken utsträckning, AI korrekt kan ersätta mänskliga svar i ett sådant fall.
Studien fann att ChatGPT hade en fantastiskt hög korrelation (0,95) mellan de sociala och moraliska bedömningar som AI och människor gör. Detta innebär att AI kan fatta moraliska beslut och sociala bedömningar med en grad av precision som är jämförbar med dem som tas av människor i samma testsituation. Samtidigt som det uppmuntrar och lovar att AI kan göra så exakta bedömningar, väcker det också frågor om tolkning och hallucinationer.
Tolkningen av sådana beslut och bedömningar av varför en AI kan ha valt ett moraliskt beslut framför ett annat, till exempel, är en viktig del av processen som ännu inte är helt förstådd med AI. På samma sätt är AI känt för att ha en tendens att skapa trovärdiga snöstormar som kan vara svåra att motverka. Lyckligtvis utfördes studien med ChatGPT 3.5; allt eftersom AI utvecklas och avancerar till version 4.0 och senare, borde båda dessa problem bli lättare att hantera.
I slutändan avslöjar denna studie hur AI utvecklas och att det snart kan vara möjligt att använda det för att få insikt i människors och väljares moraliska och sociala bedömningar. Som sådan är det nu viktigare än någonsin att se till att de som skapar AI-algoritmer fortsätter att använda etiska metoder samtidigt som de utvecklar AI. Denna studie är en läglig påminnelse om att framsteg inom AI kan ha långtgående konsekvenser och bör hanteras med största försiktighet.
Läs mer om AI: