Generativ AI: En Omvälvande Kraft i Sociala Medier
Generativ artificiell intelligens fortsätter att dra till sig uppmärksamhet, särskilt i takt med att sociala medieplattformar kämpar för att anpassa och integrera denna teknik. Samtidigt som det finns många potentiella fördelar, medför AI även betydande nackdelar för användarna. Många av oss söker efter en genuin och meningsfull upplevelse på sociala medieplattformar, men generativ AI riskerar att motverka detta. I denna artikel ska vi undersöka de sätt som generativ AI har förändrat sociala medier på, och de utmaningar som användare kan möta. Här är några av de mest framträdande problemen:
1. Översvämning av AI-genererat Innehåll
Om du frekvent använder plattformar som Facebook har du sannolikt stött på AI-genererat innehåll av låg kvalitet. Detta ”AI-skräp” kan inkludera allt från surrealistiska konstverk till nonsensartade recept. Det finns till och med ett dedikerat X-konto som samlar AI-skräp från Facebook.
Ofta sprids detta AI-genererade skräpinnehåll av konton som försöker att nå viralitet. Eftersom Facebook tenderar att lyfta fram viralt innehåll, riskerar du att exponeras för mer nonsens än vanligt. Generativ AI har avsevärt förenklat skapandet av denna typ av spam-inlägg, vilket tränger undan autentiskt innehåll på sociala medier.
2. Minskad Autenticitet
Sociala medier är knappast kända för sin autenticitet. Influencers visar ofta upp en idealiserad bild av sina liv, främst för att sälja en produkt eller framstå som perfekta.
AI förvärrar denna brist på autenticitet. TikTok testar virtuella influencers som ger företag möjlighet att annonsera via digitalt skapade avatarer, enligt SocialMediaToday. Samtidigt testar Instagram en funktion där influencers kan skapa AI-botar av sig själva för att svara på fans i meddelanden. Metas VD Mark Zuckerberg presenterade testet via sin Instagram-kanal.
Denna urholkning av den autenticitet som finns på sociala medier påverkar inte bara influencers. AI används även för att generera användarbaserade inlägg på nätverk som Reddit och X (Twitter). Medan chatbotar som utför detta har funnits ett tag, har lanseringen av stora språkmodeller gjort det svårare att skilja äkta interaktioner från falska. Det är nu vanligt att se användare anklaga varandra för att använda AI för att skapa inlägg eller berättelser.
AI-plattformar som sociala medieföretag utvecklar är fortfarande under utveckling, vilket leder till att misstag begås. Dessa fel bidrar till spridning av felaktig information och minskar användarnas förtroende för plattformarna.
Till exempel svarade Meta AI på ett inlägg i en Facebook-grupp om ett ”dubbelt exceptionellt” barn (2e) inskrivet i ett program för begåvade studenter, och hävdade att det hade inaktiverat barnet, rapporterade Sky News. Tack vare att Meta AI:s svar var tydligt markerade, kunde användarna enkelt identifiera det som falskt. Detta väcker frågor om tillförlitligheten hos AI-verktyg som Meta AI när de deltar i diskussioner där de inte har någon roll.
Under tiden har Grok AI (Xs AI-chatbot) kritiserats för att generera felaktig information. Vid ett tillfälle anklagade den NBA-spelaren Klay Thompson för att ha vandaliserat hus, då den felaktigt tolkade basketjargong som kallar misslyckade skott för ”bricks”.
Även om vissa AI-hallucinationer är komiska, är annan felaktig information mer oroande och kan leda till allvarliga konsekvenser.
3. Förverkligandet av Teorin om Det Döda Internet
Teorin om det döda internet hävdar att majoriteten av internetinnehåll skapas av botar. Även om detta tidigare var en teori som kunde avfärdas, känns den allt mer trolig då vi översvämmas av AI-spam och svar på sociala medier.
Det faktum att sociala medieföretag själva integrerar botar som användare gör denna teori mer realistisk än tidigare. Det har till och med lett till lanseringen av Butterflies AI, en social medieplattform där vissa användare enbart är AI-botar. Även om botar kan vara användbara på sociala medier, är det oönskat att de utger sig för att vara andra användare.
Ur ett användarperspektiv har generativ AI gjort det enklare för spam-botar att efterlikna riktiga användare. Nyligen publicerade jag ett inlägg på X om ett konstverk jag ville beställa och min inkorg fylldes med svar från botar. Att skilja riktiga användare från botar blir allt svårare.
4. Skydd av Innehåll mot AI-Scraping
Användare försöker på olika sätt skydda sitt innehåll från att användas i AI-datauppsättningar. Det är inte alltid lika enkelt som att välja bort. Om dina inlägg är offentliga är risken stor att de redan har använts för att träna AI.
Därför försöker användare olika strategier för att skydda sina data, inklusive att byta till privata profiler och använda dataförgiftning. Medan användning av Nightshade för att förgifta konstverk inte påverkar hur användare ser bilderna, kan andra former av dataförgiftning påverka det innehåll vi ser på sociala medier.
Om fler användare byter till privata profiler på öppna sociala nätverk, blir det svårare att upptäcka användare och innehåll du gillar. När konstnärer dessutom avstår från plattformar som tillhandahåller träningsdata för generativ AI, går de som vill beundra deras verk miste om det om de inte byter till nischade plattformar.
Även om det finns vissa fördelaktiga användningsområden för generativ AI på dessa plattformar, menar vissa att vi egentligen inte behöver generativ AI på sociala medier. Oavsett vad vi tycker har generativ AI redan förändrat sociala medier i grunden.
Sammanfattning: Generativ AI påverkar sociala medier negativt genom att bidra till spridning av AI-skräp, minskad autenticitet och ökning av desinformation. Användare bör vara medvetna om dessa problem och hitta sätt att skydda sitt innehåll för att säkerställa en meningsfull och genuin upplevelse på dessa plattformar.