Vad är AI-hallucination och kan det åtgärdas?

Hur ofta litar du på chatbots eller artificiell intelligens (AI)-baserade bots för att få jobbet gjort eller svara på dina frågor?

Om ditt svar är ”mycket!” eller ”hela tiden!”, du har en anledning att oroa dig😟.

Oavsett om du är en forskarstudent som religiöst använder AI-bots för att undersöka ditt pappersarbete eller en programmerare som försöker generera koder enbart med AI, är chanserna för felaktigheter i de AI-genererade utdata ganska stora – främst på grund av inkonsekvenser eller vanföreställningar i AI:s träningsdata.

Även om modellerna för AI och Machine Learning (ML) förändrar världen – tar över redundanta uppgifter och löser många problem med automatisering, har den fortfarande arbete att göra när det gäller att generera korrekta utdata baserat på de uppmaningar som tillhandahålls.

Om du spenderar tillräckligt med tid på att använda innehållsgeneratorer och chatbots kommer det inte att dröja länge innan du inser att du får falska, irrelevanta eller helt enkelt påhittade svar. Dessa fall kallas AI-hallucinationer eller konfabulationer, och de visar sig vara ett stort problem för organisationer och individer som förlitar sig på generativa AI-bots.

Oavsett om du har upplevt AI-hallucinationer eller inte och vill lära dig mer, dyker den här artikeln djupt in i ämnet. Vi får se vad AI-hallucination betyder, varför det händer, exempel och om det kan åtgärdas.

Nu går vi!

Vad är AI Hallucination?

En AI-hallucination är när en AI-modell eller Large Language Model (LLM) genererar falsk, felaktig eller ologisk information. AI-modellen genererar ett säkert svar som inte riktigt stämmer överens med eller i linje med dess träningsdata och representerar data som fakta trots att det inte ger någon logisk mening eller resonemang!

Och de säger att fel är mänskligt!😅

AI-verktyg och -modeller, som ChatGPT, är vanligtvis tränade för att förutsäga ord som bäst matchar den ställda frågan. Även om bots ofta genererar sakliga och korrekta svar, ibland, gör den här algoritmen att de saknar resonemang – vilket gör att chatbots spottar faktainkonsekvenser och falska påståenden.

Med andra ord, AI-modeller ”hallucinerar” ibland svaret i ett försök att tillfredsställa dig (användaren) – de behöver vara mer partiska, partiska, specialiserade eller tillräckliga.

AI-hallucinationer kan variera från mindre inkonsekvenser till helt falska eller påhittade svar. Här är de typer av AI-hallucinationer du kan uppleva:

#1. Meningsmotsägelse: Detta händer när en LLM-modell genererar en mening som helt motsäger sin tidigare påstådda mening.

#2. Faktamotsägelse: Denna typ av hallucinationer uppstår när AI-modellen presenterar falsk eller fiktiv information som ett faktum.

#3. Snabb motsägelse: Denna hallucinationstyp inträffar när utmatningen motsäger prompten den genererar en utdata för. Till exempel, om uppmaningen är ”Skriv en inbjudan till mina vänner för min födelsedagsfest.” Modellen kan generera en utdata som ”Grattis på årsdag, mamma och pappa.”

#4. Slumpmässiga eller irrelevanta hallucinationer: Denna hallucination inträffar när modellen genererar helt irrelevant utdata till den givna prompten. Till exempel, om uppmaningen är: ”Vad är speciellt med New York City?” Du kan få en utmatning som säger: ”New York är en av de mest trånga städerna i Amerika. Hundar är de mest lojala djuren och en människas bästa vän.”

Läs också: Hur generativ AI-sökning förändrar sökmotorer

Exempel på AI-hallucinationer

AI-hallucinationer har några av de mest anmärkningsvärda exemplen och incidenterna som du inte får missa. Här är ökända exempel på AI-hallucinationer:

  • Googles chatbot, Bard, hävdade felaktigt att rymdteleskopet James Webb tog världens första bilder av en exoplanetplanet som inte tillhör vårt solsystem.
  • Metas Galactica LLM-demo 2022, designad för studenter och vetenskapsforskare, försåg sina användare med felaktig information och ett falskt papper när de försågs med en uppmaning att utarbeta ett dokument om att skapa avatarer.

Här är ett exempel på att Google Bard hallucinerade ett svar när jag gav det uppmaningen, ”Berätta för mig historien om gråtande stjärnor”, som egentligen inte existerar.

Här är ett annat testat exempel på att ChatGPT (GPT-3.5) hallucinerar genom att tala om en orealistisk person, Mr Ben, när jag gav den uppmaningen: ”Berätta för mig en dag i livet för en superhjälte, Mr Ben, som går vidare vatten, pratar med hundar och styr livet.”

ChatGPT värvade bokstavligen hela dagen, från morgon till kvällsrutin för Mr. Ben, som faktiskt inte existerar – men spelade med i uppmaningen som matades till den, vilket är en av anledningarna bakom AI-hallucinationer.

Snacka om för glad för att behaga!

Tja, vilka är anledningarna, låt oss titta på några fler anledningar som får AI att hallucinera.

Varför uppstår AI-hallucinationer?

Det finns flera tekniska orsaker och orsaker bakom AI-hallucinationer. Här är några av de möjliga orsakerna:

  • Låg kvalitet, otillräcklig eller föråldrad data: LLM:er och AI-modeller är mycket beroende av träningsdata. Därför är de bara så bra som den information de är utbildad på. Om AI-verktyget har fel, inkonsekvenser, fördomar eller ineffektivitet i sina träningsdata eller om det helt enkelt inte förstår den frågade prompten – kommer det att skapa AI-hallucinationer eftersom verktyget genererar en utdata från en begränsad datamängd.
  • Överanpassning: Eftersom AI-modellen är utbildad på en begränsad datamängd kan den försöka memorera uppmaningarna och lämpliga utgångar – vilket gör den oförmögen att effektivt generera eller generalisera ny data, vilket leder till AI-hallucinationer.
  • Indatakontext: AI-hallucinationer kan också uppstå på grund av oklara, felaktiga, inkonsekventa eller motsägelsefulla uppmaningar. Även om AI-modellens träningsdatauppsättning inte är i händerna på användarna, är inmatningen de anger som en uppmaning. Därför är det viktigt att ge tydliga uppmaningar för att undvika AI-hallucinationer.
  • Användning av idiom eller slanguttryck: Om prompten består av idiom eller slang finns det stora chanser för AI-hallucinationer, särskilt om modellen inte är tränad för sådana ord eller slanguttryck.
  • Motstridiga attacker: Angripare anger ibland medvetet uppmaningar som är utformade för att förvirra AI-modeller, korrumpera deras träningsdata och resulterar i AI-hallucinationer.

Negativa konsekvenser av AI-hallucinationer

AI-hallucinationer är stora etiska problem med betydande konsekvenser för individer och organisationer. Här är de olika anledningarna som gör AI-hallucinationer till ett stort problem:

  • Spridning av desinformation: AI-hallucinationer på grund av felaktiga uppmaningar eller inkonsekvenser i träningsdata kan leda till massspridning av desinformation, vilket påverkar ett brett spektrum av individer, organisationer och statliga myndigheter.
  • Misstroende bland användare: När den desinformation som hallucineras av AI sprider sig som en löpeld på internet och får den att se auktoritativ och mänskligt skriven ut, urholkar det en användares förtroende – vilket gör det svårt för användare att lita på informationen på internet.
  • Användarskada: Förutom etiska bekymmer och vilseledande individer kan AI-hallucinationer också potentiellt skada människor genom att sprida felaktig information om några allvarliga problem och ämnen, som sjukdomar, deras botemedel eller enkla tips för att skilja mellan en dödligt giftig och hälsosam matsvamp. Även lätt desinformation eller felaktigheter kan riskera en människas liv.

Bästa metoder för att upptäcka och förhindra AI-hallucinationer

Om man tittar på ovanstående negativa konsekvenser av AI-hallucinationer, är det till varje pris avgörande att förhindra dem. Medan företagen som äger dessa AI-modeller arbetar rigoröst för att eliminera eller minska AI-hallucinationer, tar de yttersta åtgärderna från vår sida eftersom användarna betyder mycket.

Baserat på lite forskning, min erfarenhet och trial and error, har jag anlitat några strategier för att upptäcka och förhindra AI-hallucinationer nästa gång du använder en chatbot eller interagerar med en Large Language Model (LLM).

#1. Använd representativ och diversifierad utbildningsdata

Som användare är det viktigt att använda LLM:er med en mångsidig träningsdatauppsättning som representerar den verkliga världen, vilket minskar sannolikheten för att resultatet blir partiskt, felaktigt eller påhittat.

Samtidigt måste företagsägare se till att uppdatera och utöka AI-modellens träningsdatauppsättningar regelbundet för att ta hänsyn till och vara uppdaterade om de kulturella, politiska och andra utvecklande händelserna.

#2. Begränsa resultaten eller svaren

Som användare kan du begränsa antalet potentiella svar ett AI-verktyg kan generera genom att ge det en specifik uppmaning om vilken typ av svar du vill ha.

Till exempel kan du specifikt fråga en uppmaning och beordra modellen att bara svara ja eller nej. Eller så kan du också ge flera val i prompten för verktyget att välja mellan, vilket begränsar dess möjlighet att avvika från det faktiska svaret och hallucinera.

När jag ställde en fråga till ChatGPT GPT 3.5 med ett ja eller nej, genererade den exakt denna utdata:

#3. Packa och jorda modellen med relevant data

Du kan inte förvänta dig att en människa ska tillhandahålla en lösning på en viss fråga eller fråga utan förkunskaper eller tillhandahållande av ett specifikt sammanhang. På samma sätt är en artificiell intelligensmodell bara så bra som den träningsdatauppsättning du matade till den.

Att jorda eller packa träningsdata för en AI-modell med relevant och branschspecifik data och information ger modellen ytterligare sammanhang och datapunkter. Detta ytterligare sammanhang hjälper AI-modellen att förbättra sin förståelse – vilket gör det möjligt för den att generera korrekta, förnuftiga och kontextuella svar istället för hallucinerade svar.

#4. Skapa datamallar för AI-modellen att följa

Att tillhandahålla en datamall eller ett exempel på en specifik formel eller beräkning i ett fördefinierat format kan i hög grad hjälpa AI-modellen att generera korrekta svar, i linje med de föreskrivna riktlinjerna.

Att förlita sig på riktlinjer och datamallar minskar sannolikheten för hallucinationer av AI-modeller och säkerställer konsekvens och noggrannhet i de genererade svaren. Att tillhandahålla en referensmodell i formatet av en tabell eller ett exempel kan således faktiskt vägleda AI-modellen i beräkningen – eliminera hallucinationsinstanser.

#5. Var mycket specifik med din uppmaning genom att tilldela modellen en viss roll

Att tilldela specifika roller till AI-modellen är ett av de mest lysande och effektiva sätten att förhindra hallucinationer. Till exempel kan du ge uppmaningar som ”Du är en erfaren och skicklig gitarrspelare” eller ”Du är en briljant matematiker”, följt av din specifika fråga.

Att tilldela roller vägleder modellen att ge det svar du vill ha istället för påhittade hallucinerade svar.

Och oroa dig inte. Du kan fortfarande ha kul med AI (sträck på hallucinationerna). Kolla in hur du skapar viral AI-spiralkonst själv!

#6. Testa det med temperatur

Temperaturen spelar en avgörande roll för att bestämma graden av hallucinationer eller kreativa svar en AI-modell kan generera.

Medan en lägre temperatur vanligtvis betyder deterministiska eller förutsägbara utgångar, betyder en högre temperatur att AI-modellen är mer sannolikt att generera slumpmässiga svar och hallucinera.

Flera AI-företag tillhandahåller en ”Temperature”-bar eller -reglage med sina verktyg så att användarna kan justera temperaturinställningarna efter deras lämpliga önskemål.

Samtidigt kan företag också ställa in en standardtemperatur, vilket gör att verktyget kan generera förnuftiga svar och hitta rätt balans mellan noggrannhet och kreativitet.

#7. Verifiera alltid

Slutligen är det inget smart drag att förlita sig på 100 % av en AI-genererad utdata utan dubbelkontroll eller faktakontroll.

Medan AI-företag och forskare fixar problemet med hallucinationer och utvecklar modeller som förhindrar detta problem, är det som användare avgörande att verifiera svaren en AI-modell genererar innan du använder eller helt tror på den.

Så, tillsammans med att använda ovannämnda bästa praxis, från att utarbeta din prompt med specifikationer till att lägga till exempel i din prompt för att vägleda AI, måste du alltid verifiera och krysskontrollera resultatet som en AI-modell genererar.

Kan du åtgärda eller ta bort AI-hallucinationer helt? En experts uppfattning

Även om kontroll av AI-hallucinationer beror på uppmaningen vi förser den med, genererar modellen ibland utdata med ett sådant självförtroende att det gör det svårt att skilja mellan vad som är falskt och vad som är sant.

Så, i slutändan, är det möjligt att helt fixa eller förhindra AI-hallucinationer?

När den ställdes denna frågaSuresh Venkatasubramanian, en professor vid Brown University, svarade att huruvida AI-hallucinationer kan förhindras eller inte är en ”punkt för aktiv forskning.”

Anledningen bakom detta, förklarade han vidare, är arten av dessa AI-modeller – hur komplexa, invecklade och ömtåliga dessa AI-modeller är. Även en liten ändring i prompt-inmatningen kan ändra utgångarna avsevärt.

Medan Venkatasubramanian anser att lösa problemet med AI-hallucinationer är en forskningspunkt, tror Jevin West, professor vid University of Washington och medgrundare av dess Center for an Informed Public, att AI-hallucinationer aldrig kommer att försvinna.

West tror att det är omöjligt att omvända hallucinationer som uppstår från AI-bots eller chatbots. Och därför kan AI-hallucinationer alltid finnas där som AI:s inneboende egenskap.

Dessutom sade Sundar Pichai, Googles vd, i en intervju med CBS att alla som använder AI möter hallucinationer, ändå har ingen i branschen löst hallucinationsfrågan ännu. Nästan alla AI-modeller möter detta problem. Han hävdade och försäkrade vidare att AI-fältet snart kommer att utvecklas när det gäller att övervinna AI-hallucinationer.

Samtidigt besökte Sam Altman, ChatGPT-tillverkaren OpenAI:s VD, Indiens Indraprastha Institute of Information Technology, Delhi, i juni 2023, där han påpekade att AI-hallucinationsproblemet skulle vara på en mycket bättre plats om ett och ett halvt år. två år.

Han tillade vidare att modellen skulle kräva att man lär sig skillnaden mellan noggrannhet och kreativitet och när man ska använda det ena eller det andra.

Avslutar

AI-hallucination har fått en del uppmärksamhet de senaste åren och är ett fokusområde för företag och forskare som försöker lösa och övervinna det så tidigt som möjligt.

Även om AI har gjort anmärkningsvärda framsteg, är den inte immun mot fel, och problemet med AI-hallucinationer utgör stora utmaningar för flera individer och branscher, inklusive sjukvården, innehållsgenerering och bilindustrin.

Samtidigt som forskarna gör sin del är det också vårt ansvar som användare att ge specifika och korrekta uppmaningar, lägga till exempel och tillhandahålla datamallar för att utnyttja giltiga och förnuftiga svar, undvika att krångla med AI-modellens träningsdata och förhindra hallucinationer.

Även om AI-hallucinationer kan botas eller åtgärdas är det fortfarande en fråga; Jag tror personligen att det finns hopp, och vi kan fortsätta använda AI-system för att gynna världen på ett ansvarsfullt och säkert sätt.

Nästa, exempel på artificiell intelligens (AI) i våra dagliga liv.