Chattrobotar har existerat i många år, men uppkomsten av avancerade språkmodeller, som exempelvis ChatGPT och Google Bard, har blåst nytt liv i branschen för chattrobotar.
Miljontals människor världen över använder nu AI-drivna chattrobotar, men det är viktigt att vara medveten om vissa integritetsrisker och problem om du överväger att testa dessa verktyg.
1. Insamling av data
De flesta använder inte enbart chattrobotar för enkla hälsningar. Moderna chattrobotar är konstruerade för att behandla och svara på komplexa frågor och förfrågningar. Användare ger ofta mycket information i sina meddelanden, och även om din fråga är simpel vill du inte att den informationen ska läcka utanför konversationen.
Enligt OpenAI:s supportsida, har du möjlighet att ta bort din chattlogg från ChatGPT när du vill. Dessa loggar raderas sedan permanent från OpenAI:s system efter en period på 30 dagar. Företaget förbehåller sig dock rätten att behålla och granska vissa chattloggar om de har markerats som potentiellt skadliga eller olämpliga.
En annan populär AI-chattbot, Claude, behåller också en historik över dina tidigare konversationer. Anthropics supportcenter anger att Claude sparar ”dina inmatningar och resultat i produkten för att erbjuda en konsekvent användarupplevelse över tid, i enlighet med dina inställningar.” Du kan radera dina konversationer med Claude, vilket innebär att den glömmer vad ni pratat om. Detta garanterar dock inte att Anthropic omedelbart tar bort loggarna från sina system.
Detta väcker naturligtvis frågan: Spara mina uppgifter? Använder ChatGPT eller andra chattrobotar min information?
Oro kring detta slutar inte här.
Hur lär sig ChatGPT?
För att kunna ge svar tränas avancerade språkmodeller med enorma mängder data. Enligt Science Focus, matades ChatGPT-4 med 300 miljarder ord under sin träningsperiod. Denna information är inte hämtad direkt från några uppslagsverk. Istället använder chattrobotutvecklare stora mängder data från internet för att träna sina modeller. Detta kan omfatta data från böcker, filmer, artiklar, Wikipedia-poster, blogginlägg, kommentarer och till och med recensionssajter.
Det är viktigt att komma ihåg att, beroende på chattrobotutvecklarens integritetspolicy, kan det finnas källor som inte används i träningen.
Många har kritiserat ChatGPT och menat att det är en integritetsmardröm och inte går att lita på. Varför är det så?
Det är här det blir lite otydligt. Om du direkt frågar ChatGPT-3.5 om den har tillgång till produktrecensioner eller kommentarer till artiklar, får du ett klart nej. Som du kan se på skärmdumpen nedan, uppger GPT-3.5 att den inte hade tillgång till användarkommentarer på artiklar eller produktrecensioner under sin träning.
Istället tränades den med ”ett brett utbud av text från internet, inklusive webbplatser, böcker, artiklar och annat allmänt tillgängligt material fram till september 2021.”
Men gäller samma sak för GPT-4?
När vi frågade GPT-4 fick vi informationen att ”OpenAI inte använde specifika användarrecensioner, personuppgifter eller kommentarer till artiklar” under chattrobotens träningsperiod. Dessutom informerade GPT-4 oss om att dess svar genereras utifrån ”mönster i den data [den] tränades på, som främst består av böcker, artiklar och annan text från internet.”
Ytterligare undersökningar visade att GPT-4 hävdade att visst innehåll på sociala medier kan inkluderas i träningsdata, men skaparna kommer alltid att förbli anonyma. GPT-4 angav specifikt att ”Även om innehållet från plattformar som Reddit var en del av träningsdata, [har den inte] tillgång till specifika kommentarer, inlägg eller annan data som kan spåras tillbaka till en enskild användare.”
En annan anmärkningsvärd del av GPT-4:s svar är följande: ”OpenAI har inte explicit listat alla datakällor som används.” Det vore naturligtvis svårt för OpenAI att lista källorna till 300 miljarder ord, men detta lämnar utrymme för spekulation.
I en artikel från Ars Technica, påstods det att ChatGPT samlar in ”personlig information som erhållits utan samtycke.” I samma artikel nämndes kontextuell integritet, ett koncept som handlar om att endast använda någons information i det sammanhang den ursprungligen användes. Om ChatGPT bryter mot denna kontextuella integritet, kan människors data vara i fara.
Ett annat orosmoment är hur OpenAI uppfyller den allmänna dataskyddsförordningen (GDPR). Detta är en förordning som tillämpas av Europeiska unionen för att skydda medborgarnas data. Flera europeiska länder, inklusive Italien och Polen, har inlett undersökningar av ChatGPT på grund av oro kring hur väl den följer GDPR. En kort tid var ChatGPT till och med förbjudet i Italien på grund av integritetsproblem.
OpenAI har tidigare hotat att lämna EU på grund av planerade AI-regleringar, men har senare tagit tillbaka det.
Även om ChatGPT är den största AI-chattroboten i dagsläget, är integritetsproblemen inte unika för just den. Om du använder en mindre känd chattbot med en svag integritetspolicy kan dina konversationer missbrukas eller mycket känslig information användas i dess träningsdata.
2. Datastöld
Liksom alla onlineverktyg och plattformar är chattrobotar utsatta för cyberbrottslighet. Även om en chattbot gör sitt yttersta för att skydda användare och deras data, finns alltid risken att en skicklig hackare lyckas infiltrera dess interna system.
Om en chattbottjänst lagrar din känsliga information, till exempel betalningsinformation för premiumabonnemang, kontaktuppgifter eller liknande, kan denna information stjälas och missbrukas om en cyberattack sker.
Detta gäller särskilt om du använder en mindre säker chattbot vars utvecklare inte har investerat i tillräckligt skydd. Inte bara kan företagets interna system hackas, utan ditt eget konto kan äventyras om det saknar varningsfunktioner för inloggning eller ett extra lager av autentisering.
Eftersom AI-chattrobotar är så populära, har cyberbrottslingar insett potentialen att använda den här branschen för bedrägerier. Falska ChatGPT-webbplatser och plugins har varit ett stort problem sedan OpenAI:s chattbot blev mainstream i slutet av 2022. Människor har fallit offer för bedrägerier och lämnat ut personlig information i tron att det var en legitim tjänst.
I mars 2023 rapporterade MUO om en falsk ChatGPT-tillägg till Chrome som stal Facebook-inloggningar. Tillägget kunde utnyttja en bakdörr i Facebook för att hacka konton med många följare och stjäla användarcookies. Detta är bara ett exempel på alla falska ChatGPT-tjänster som skapats för att lura ovetande offer.
3. Skadlig programvara
Om du använder en mindre seriös chattbot utan att veta om det, finns risken att den ger dig länkar till skadliga webbplatser. Det kan vara att chattboten informerar dig om en lockande tävling, eller erbjuder en källa för ett av sina påståenden. Om operatörerna bakom tjänsten har oärliga avsikter, kan hela syftet med plattformen vara att sprida skadlig programvara och bedrägerier via länkarna.
Alternativt kan hackare kompromettera en legitim chattbottjänst och använda den för att sprida skadlig kod. Om chattboten har en stor användarbas kan tusentals eller till och med miljontals användare exponeras för skadlig programvara. Falska ChatGPT-appar har till och med dykt upp på Apples App Store, så det är viktigt att vara försiktig.
Generellt sett bör du aldrig klicka på en länk som en chattbot ger dig innan du har kontrollerat den via en webbplats för länkgranskning. Det kan verka besvärligt, men det är alltid bättre att vara säker på att webbplatsen du omdirigeras till inte är skadlig.
Du bör inte heller installera chattbot-plugins eller tillägg utan att först kontrollera deras legitimitet. Undersök appen för att se om den fått bra recensioner, och sök även information om utvecklaren för att se om något verkar misstänkt.
Chattrobotar är inte immuna mot integritetsproblem
Liksom många andra onlineverktyg har chattrobotar fått kritik för sina potentiella säkerhets- och integritetsbrister. Oavsett om det handlar om chattbotleverantörer som tummar på användarsäkerheten eller de pågående riskerna för cyberattacker och bedrägerier, är det viktigt att du vet vilken information din chattbottjänst samlar in och om den har vidtagit lämpliga säkerhetsåtgärder.