3 Chatbots sekretessrisker och bekymmer du bör känna till

Chatbots har funnits i åratal, men framväxten av stora språkmodeller, som ChatGPT och Google Bard, har gett chatbotbranschen ett nytt liv.

Miljontals människor använder nu AI-chatbots över hela världen, men det finns några viktiga integritetsrisker och problem att tänka på om du vill testa något av dessa verktyg.

1. Datainsamling

De flesta använder inte chatbots bara för att säga hej. Moderna chatbots är designade för att bearbeta och svara på komplexa frågor och förfrågningar, med användare som ofta inkluderar mycket information i sina meddelanden. Även om du bara ställer en enkel fråga, vill du inte att den ska gå utöver din konversation.

Enligt OpenAI:s supportsektion, kan du radera ChatGPT-chattloggar när du vill, och dessa loggar kommer sedan att raderas permanent från OpenAI:s system efter 30 dagar. Däremot kommer företaget att behålla och granska vissa chattloggar om de har flaggats för skadligt eller olämpligt innehåll.

En annan populär AI-chattbot, Claude, håller också reda på dina tidigare konversationer. Anthropics supportcenter säger att Claude spårar ”dina uppmaningar och utdata i produkten för att ge dig en konsekvent produktupplevelse över tid i enlighet med dina kontroller.” Du kan ta bort dina konversationer med Claude, så att den glömmer vad du har pratat om, men det betyder inte att Anthropic omedelbart kommer att radera dina loggar från sina system.

Detta väcker naturligtvis frågan: sparas mina uppgifter eller inte? Använder ChatGPT eller andra chatbots min data?

Men oron slutar inte här.

Hur lär sig ChatGPT?

För att ge information tränas stora språkmodeller med enorma mängder data. Enligt VetenskapsfokusEnbart ChatGPT-4 matades med 300 miljarder ord med information under sin träningsperiod. Detta är inte hämtat direkt från några uppslagsverk. Chatbotutvecklare använder snarare massor av information från internet för att träna sina modeller. Detta kan inkludera data från böcker, filmer, artiklar, Wikipedia-inlägg, blogginlägg, kommentarer och till och med recensionswebbplatser.

Tänk på att, beroende på en chatbot-utvecklares integritetspolicy, kanske vissa av de ovannämnda källorna inte används i utbildningen.

Många har kritiserat ChatGPT och hävdat att det är något av en mardröm när det gäller integritet, att ChatGPT inte går att lita på. Så varför är detta fallet?

Det är här saker och ting blir lite suddiga. Om du frågar ChatGPT-3.5 direkt om den har tillgång till produktrecensioner eller artikelkommentarer, får du ett klart negativt svar. Som du kan se i skärmdumpen nedan, anger GPT-3.5 att den inte fick tillgång till användarartikelkommentarer eller produktrecensioner i sin utbildning.

Snarare utbildades det med hjälp av ”en mångfald av text från internet, inklusive webbplatser, böcker, artiklar och annat allmänt tillgängligt skriftligt material fram till september 2021.”

Men är fallet detsamma för GPT-4?

När vi frågade GPT-4 fick vi veta att ”OpenAI inte använde specifika användarrecensioner, personuppgifter eller artikelkommentarer” under chatbotens träningsperiod. Dessutom berättade GPT-4 för oss att dess svar genereras från ”mönster i data [it] utbildades på, som främst består av böcker, artiklar och annan text från internet.”

När vi undersökte ytterligare hävdade GPT-4 att visst innehåll i sociala medier verkligen kan inkluderas i dess träningsdata, men skaparna kommer alltid att förbli anonyma. GPT-4 uttalade specifikt att ”Även om innehållet från plattformar som Reddit var en del av träningsdata, [it doesn’t] ha tillgång till specifika kommentarer, inlägg eller annan data som kan länkas tillbaka till en enskild användare.”

En annan anmärkningsvärd del av GPT-4:s svar är följande: ”OpenAI har inte uttryckligen listat varje datakälla som används.” Naturligtvis skulle det vara svårt för OpenAI att lista källor till ett värde av 300 miljarder ord, men detta lämnar utrymme för spekulationer.

I en Ars Technica artikel, uppgavs att ChatGPT samlar in ”personlig information som erhållits utan samtycke.” I samma artikel nämndes kontextuell integritet, ett begrepp som syftar på att endast använda någons information i det sammanhang som den ursprungligen användes. Om ChatGPT bryter mot denna kontextuella integritet kan människors data vara i fara.

En annan orosmoment här är OpenAI:s efterlevnad av den allmänna dataskyddsförordningen (GDPR). Detta är en förordning som tillämpas av Europeiska unionen för att skydda medborgarnas data. Olika europeiska länder, inklusive Italien och Polen, har inlett undersökningar av ChatGPT på grund av farhågor kring dess efterlevnad av GDPR. Under en kort tid var ChatGPT till och med förbjudet i Italien på grund av integritetsbekymmer.

OpenAI har tidigare hotat att dra sig ur EU på grund av planerade AI-regleringar, men detta har sedan dragits tillbaka.

ChatGPT kan vara den största AI-chatboten idag, men chatbots sekretessproblem börjar och slutar inte hos denna leverantör. Om du använder en skum chatbot med en svag sekretesspolicy kan dina konversationer missbrukas eller mycket känslig information kan användas i dess träningsdata.

2. Datastöld

Precis som alla onlineverktyg eller plattformar är chatbots sårbara för cyberbrottslighet. Även om en chatbot gjorde allt den kunde för att skydda användare och deras data, finns det alltid en chans att en kunnig hackare kommer att lyckas infiltrera sina interna system.

Om en given chatbot-tjänst lagrade din känsliga information, såsom betalningsinformation för ditt premiumabonnemang, kontaktdata eller liknande, kan denna bli stulen och utnyttjas om en cyberattack skulle inträffa.

Detta gäller särskilt om du använder en mindre säker chatbot vars utvecklare inte har investerat i adekvat säkerhetsskydd. Inte bara kan företagets interna system hackas, utan ditt eget konto har chansen att äventyras om det inte har inloggningsvarningar eller ett autentiseringslager.

Nu när AI-chatbotar är så populära har cyberbrottslingar naturligtvis strömmat till att använda den här branschen för sina bedrägerier. Falska ChatGPT-webbplatser och plugins har varit ett stort problem sedan OpenAI:s chatbot kom till mainstream i slutet av 2022, med människor som fallit för bedrägerier och ger bort personlig information under täckmantel av legitimitet och förtroende.

I mars 2023 rapporterade MUO om en falsk ChatGPT Chrome-tillägg som stal Facebook-inloggningar. Pluginet kan utnyttja en Facebook-bakdörr för att hacka högprofilerade konton och stjäla användarcookies. Detta är bara ett exempel på många falska ChatGPT-tjänster utformade för att lura okända offer.

3. Skadlig programvara

Om du använder en skum chatbot utan att inse det, kan du hitta chatboten som ger dig länkar till skadliga webbplatser. Kanske har chatboten varnat dig om en frestande giveaway, eller tillhandahållit en källa för ett av dess uttalanden. Om operatörerna av tjänsten har otillåtna avsikter kan hela poängen med plattformen vara att sprida skadlig programvara och bedrägerier via skadliga länkar.

Alternativt kan hackare äventyra en legitim chatbottjänst och använda den för att sprida skadlig programvara. Om den här chatboten råkar vara väldigt människor, kommer tusentals eller till och med miljontals användare att bli utsatta för denna skadliga programvara. Falska ChatGPT-appar har till och med funnits på Apple App Store, så det är bäst att trampa försiktigt.

I allmänhet bör du aldrig klicka på några länkar som en chatbot tillhandahåller innan du kör den via en länkkontrollerande webbplats. Detta kan verka irriterande, men det är alltid bäst att vara säker på att webbplatsen du leds till inte har en skadlig design.

Dessutom bör du aldrig installera några chatbot-plugins och tillägg utan att först verifiera deras legitimitet. Gör lite research runt appen för att se om den har blivit väl granskad, och kör även en sökning hos appens utvecklare för att se om du hittar något skumt.

Chatbots är inte ogenomträngliga för integritetsproblem

Som de flesta onlineverktyg nuförtiden har chatbots upprepade gånger kritiserats för deras eventuella säkerhets- och integritetsfallgropar. Oavsett om det är en chatbot-leverantör som skär hörn när det kommer till användarsäkerhet, eller de pågående riskerna för cyberattacker och bedrägerier, är det avgörande att du vet vad din chatbot-tjänst samlar på dig och om den har använt adekvata säkerhetsåtgärder.