Viktiga slutsatser
- Med skräddarsydda GPT:er har du möjligheten att konstruera personliga AI-verktyg för olika användningsområden och sprida dem vidare till andra, vilket ökar expertisen inom särskilda områden.
- Att dela dina anpassade GPT:er kan dock medföra risken att din information exponeras för en global publik, vilket kan äventyra både integriteten och säkerheten.
- För att skydda dina uppgifter är det viktigt att vara vaksam när du distribuerar skräddarsydda GPT:er och undvika att överföra känsligt material. Håll koll på prompttekniker och var försiktig med skadliga länkar som kan få tillgång till och stjäla dina filer.
ChatGPT:s funktion för anpassade GPT:er ger alla möjligheten att utveckla ett anpassat AI-verktyg för i princip vad som helst; kreativa, tekniska, spelrelaterade, möjligheterna är oändliga. Och det bästa av allt, du kan dela dina skapade anpassade GPT:er med vem som helst.
Men när du delar dina skräddarsydda GPT:er kan du göra ett kostsamt misstag som blottlägger dina uppgifter för otaliga människor över hela världen.
Vad är anpassade GPT:er?
Anpassade GPT:er är programmerbara, mindre versioner av ChatGPT som kan tränas för att vara mer effektiva i specifika uppgifter. Det är som att forma ChatGPT till en chatbot som beter sig på önskat sätt och lära den att bli expert inom områden som är viktiga för dig.
Till exempel kan en lärare i sjätte klass skapa en GPT som är specialiserad på att svara på frågor med ett språk, ordval och stil som passar elever i sjätte klass. GPT kan programmeras så att när läraren ställer en fråga kommer chatboten att formulera svar som riktar sig direkt till en sjätteklassares kunskapsnivå. Det skulle undvika komplicerad terminologi, hålla meningslängden hanterbar och ha en uppmuntrande ton. Lockelsen med anpassade GPT:er är möjligheten att anpassa chatboten på detta sätt samtidigt som dess expertis inom vissa områden förstärks.
Hur anpassade GPT:er kan avslöja din information
För att skapa en anpassad GPT instruerar du normalt ChatGPT:s GPT-skapare om vilka områden du vill att GPT:n ska fokusera på, ger den en profilbild, sedan ett namn, och sedan är du redo. Med det här tillvägagångssättet får du en GPT, men den är inte märkbart bättre än den vanliga ChatGPT, bortsett från det fina namnet och profilbilden.
Kraften i en anpassad GPT kommer från de specifika data och instruktioner som tillhandahålls för att träna den. Genom att ladda upp relevanta filer och datauppsättningar kan modellen bli specialiserad på sätt som breda, förutbildade vanliga ChatGPT:er inte kan. Den kunskap som finns i de uppladdade filerna gör att en anpassad GPT kan utmärka sig i vissa uppgifter jämfört med ChatGPT, som kanske inte har tillgång till den specialiserade informationen. I slutändan är det de anpassade uppgifterna som möjliggör en utökad kapacitet.
Men att ladda upp filer för att förbättra din GPT är ett tveeggat svärd. Det skapar ett integritetsproblem i lika hög grad som det ökar GPT:ns kapacitet. Tänk dig ett scenario där du skapade en GPT för att hjälpa kunder att lära sig mer om dig eller ditt företag. Alla som har en länk till din anpassade GPT eller på något sätt lyckas använda en offentlig prompt med en skadlig länk kan få tillgång till filerna du har laddat upp till din GPT.
Här är ett enkelt exempel.
Jag stötte på en anpassad GPT som var avsedd att hjälpa användare att bli virala på TikTok genom att föreslå trendiga hashtags och ämnen. Efter att ha tagit en titt på den anpassade GPT:n tog det liten eller ingen ansträngning att få den att läcka ut de instruktioner den fick när den skapades. Här är en liten försmak:
Och här är den andra delen av instruktionerna.
Om du tittar noga står det i den andra delen av instruktionerna att modellen inte ska ”dela filnamnen direkt med slutanvändare, och under inga omständigheter ska du ge en nedladdningslänk till någon av filerna”. Om du frågar den anpassade GPT:n först vägrar den, men med lite snabb teknik ändras det. Den anpassade GPT:n avslöjar den enda textfilen i sin kunskapsbas.
Med filnamnet krävdes det lite ansträngning för att få GPT:n att skriva ut det exakta innehållet i filen och sedan ladda ner filen. I det här fallet var den faktiska filen inte känslig. Efter att ha granskat några fler GPT:er fanns det en hel del med dussintals filer som låg öppna.
Det finns hundratals offentligt tillgängliga GPT:er som innehåller känsliga filer som bara ligger där och väntar på att illvilliga aktörer ska lägga beslag på dem.
Hur du skyddar dina data i anpassade GPT:er
Börja med att fundera över hur du vill dela (eller inte dela!) den anpassade GPT:n du precis skapade. I det övre högra hörnet på skärmen för att skapa anpassade GPT:er finns knappen ”Spara”. Klicka på rullgardinsmenyn och välj härifrån hur du vill sprida din skapelse:
- Endast jag: Den anpassade GPT:n publiceras inte och kan bara användas av dig.
- Endast personer med en länk: Alla som har länken till din anpassade GPT kan använda den och eventuellt få tillgång till dina data.
- Offentlig: Din anpassade GPT är tillgänglig för alla och kan indexeras av Google och hittas via allmänna sökningar på internet. Alla med tillgång kan eventuellt få tillgång till dina data.
Tyvärr finns det för närvarande inget 100 procent säkert sätt att skydda data du laddar upp till en anpassad GPT som delas offentligt. Du kan vara kreativ och ge den strikta instruktioner om att inte avslöja data i sin kunskapsbas, men det räcker oftast inte, som vår demonstration ovan har visat. Om någon verkligen vill få tillgång till kunskapsbasen och har erfarenhet av prompt engineering för AI och lite tid, kommer den anpassade GPT:n att ge vika och avslöja information.
Därför är det säkraste alternativet att inte ladda upp känsligt material till en anpassad GPT som du tänker dela med allmänheten. När du laddar upp privata och känsliga uppgifter till en anpassad GPT och den lämnar din dator är den informationen i praktiken utom din kontroll.
Var också mycket försiktig när du använder uppmaningar som du kopierar online. Se till att du förstår dem ordentligt och undvik dolda uppmaningar som innehåller länkar. Dessa kan vara skadliga länkar som kapar, kodar och laddar upp dina filer till fjärrservrar.
Använd anpassade GPT:er med försiktighet
Anpassade GPT:er är en kraftfull men potentiellt riskabel funktion. Även om de låter dig skapa anpassade modeller som är mycket kapabla inom särskilda områden, kan den data du använder för att förbättra deras förmåga bli blottlagd. För att minska risken bör du undvika att ladda upp verkligt känsliga uppgifter till dina anpassade GPT:er när det är möjligt. Var dessutom försiktig med skadlig promptteknik som kan utnyttja vissa kryphål för att stjäla dina filer.