Följande artikel hjälper dig: OpenAI-process: ChatGPT Makers stämde på grund av påstådd dataanvändning
Enligt en stämningsansökan i Kalifornien använde OpenAI personlig information inklusive medicinska journaler, data om barn och fick till och med tillgång till privata samtal för att träna sina AI-modeller.
Inte bara ChatGPT, andra verktyg som Dall-E, Codex och Whisper tränades med hjälp av data som extraherades i strid med integritet och säkerhet för riktiga människor.
ChatGPT svarar på frågor som en människa, skriver uppsatser som riktiga människor genom att efterlikna deras erfarenheter och till och med genererar innehåll som om det var skrivet av en historisk figur. Allt detta kommer från data som det har tillgång till, och nu har dess skapare OpenAI anklagats för att ha stulit personlig information om riktiga personer, enligt stämningsansökan.

Vad säger rättegången?
Framställarna har förblivit anonyma eftersom endast deras initialer nämns i den 157 sidor långa rättegången, men de har anklagat ChatGPT för att utgöra en katastrofal risk. De har påstått att all den personligt identifierbara informationen stals från miljontals människor för att träna AI:n till att bli mer mänsklig.
I grund och botten anklagas OpenAI för att helt enkelt skörda och använda någon del av personlig information som användare tillhandahåller på andra plattformar, utan att söka samtycke eller ens närma sig någon individ. Detta betyder att ChatGPT och Dall-E i huvudsak genererar vinster baserat på privatlivet för människor som inte ens är medvetna om det.
Målsägandena nämnde också att utan den massiva datahögen, utvunnen oetiskt, skulle OpenAI inte ha kunnat skapa generativ AI som ger miljarder i intäkter. Fysisk plats, chattar, kontaktinformation, sökhistorik och även information från webbläsare hade tagits utan användarnas vetskap.
Vad kräver målsäganden?
Enligt stämningsansökan blir det värre sedan OpenAI introducerade sina produkter på marknaden utan att ens använda de nödvändiga skyddsåtgärderna för att skydda privata data.
Det kräver att OpenAI ska vara transparent med sina metoder för datainsamling, en kompensation för den stulna informationen och ett alternativ för människor att välja bort sin datainsamling.
Vad är OpenAI:s meritlista när det gäller datasekretess?
Innan detta har rapporter dykt upp att OpenAI också använde data från YouTube, som drivs av dess rival Google, för att träna ChatGPT och andra generativa AI-verktyg. Rapporterna hävdade att ChatGPT i hemlighet hade använt YouTube eftersom det är den enskilt största källan till bilder, textutskrifter och ljud.
Anklagelserna hade kommit månader efter att Google själv anklagades för att använda data från ChatGPT för att träna sin egen AI-bot som heter Bard.
ChatGPT hade också förbjudits i Italien på grund av dataintegritetsproblem, eftersom regeringen försökte hindra den från att använda personliga uppgifter om miljontals medborgare. Men förbudet hävdes månader senare, efter att italienska tillsynsmyndigheter var nöjda med de säkerhetsåtgärder som OpenAI hade infört.
Men det var inte slutet för OpenAI:s problem, eftersom Japan också utfärdade en varning till företaget angående dataintegritetsproblem relaterade till ChatGPT.
När det gäller rättegången uppger OpenAI endast att de kommer att samla in e-post, betalningsinformation och namn på sina användare närhelst det är nödvändigt. Men företaget har aldrig nämnt något om data som hämtats från andra hörn av internet för att träna sin modell i första hand.