
En AI-hallucination är en situation där ett artificiellt intelligent verktyg levererar felaktiga, missvisande eller osammanhängande resultat, på grund av att dess algoritmer hittar mönster i data som inte finns eller tolkar mönstren felaktigt.
I takt med att den artificiella intelligensens möjligheter och popularitet har ökat under de senaste åren har några av dess brister och sårbarheter upptäckts.
En av de största frågorna människor har är om AI är korrekt. I många fall har det visat sig vara ett otroligt användbart verktyg för att kontrollera fakta och ta reda på information, men i vissa andra har de resultat den gett varit felaktiga eller vilseledande.
Med tanke på de många användningsområden som AI används på i den moderna världen, kan konsekvenserna av dessa felaktigheter bli extremt allvarliga. I den här artikeln ska vi titta på varför en AI-hallucination kan hända, konsekvenserna ur tekniska och samhälleliga synpunkter, och vad du kan göra för att minimera risken för AI-hallucinationer i eget bruk.
Hur uppstår en AI-hallucination?
Det finns flera olika orsaker till varför en AI-hallucination inträffar, och i många fall handlar det om en kombination av flera av dem samtidigt. Dessa kan innefatta (och är inte nödvändigtvis begränsade till):
- Att inte ha tillräckligt med träningsdata för att vägleda heltäckande, korrekta resultat från AI-modellen.
- Om du har för mycket träningsdata, vilket leder till att för mycket irrelevant 'databrus' förväxlas med information som är relevant och viktig.
- Skevheter i data som återspeglas i genererade resultat.
- AI-modellen drar helt enkelt felaktiga antaganden och slutsatser av den information som den matats in.
- Brist på verkliga sammanhang inom AI-modellen, såsom objekts fysiska egenskaper eller vidare information som är relevant för de resultat som genereras.
Hur ser en AI-hallucination ut?
Det finns ingen enskild uppsättning symtom för AI-hallucinationer eftersom de beror på bristerna i modellen och den involverade processen. Vanligtvis kan dock en AI-hallucination yttra sig på något av dessa fem sätt:
- Felaktiga förutsägelser : AI-modeller kan sluta förutsäga att något kommer att hända i framtiden, som har liten realistisk chans att inträffa, eller förmodligen ingen chans alls.
- Sammanfattningar med saknad information : ibland kan AI-modeller gå miste om viktiga sammanhang eller information som de skulle behöva för att skapa korrekta, heltäckande resultat. Det kan bero på brist på data som matas in i modellen, eller på att modellen inte kan söka rätt kontext från andra källor.
- Sammanfattningar med påhittad information : i likhet med föregående punkt kan vissa AI-modeller sluta kompensera för bristen på korrekt information genom att hitta på helt och hållet. Detta kan ofta hända när de data och det sammanhang som modellen förlitar sig på är felaktiga från början.
- Falska positiva och negativa aspekter : AI används ofta för att upptäcka potentiella risker och hot, oavsett om det är symptom på sjukdom inom sjukvården eller fall av bedräglig verksamhet inom bank- och finanssektorn. AI-modeller kan ibland identifiera ett hot som inte finns, eller i andra änden av skalan, misslyckas med att identifiera ett hot som gör det.
- Osammanhängande resultat : om du har sett AI-genererade bilder på personer med fel antal armar och ben eller bilar med för många hjul, så vet du att AI fortfarande kan generera resultat som inte är vettiga för människor.
Varför är det viktigt att undvika AI-hallucinationer?
Du kanske tror att en AI-hallucination inte är någon större sak och att helt enkelt köra data genom modellen igen kan lösa problemet genom att de rätta resultaten genereras.
Men saker och ting är inte riktigt så enkelt, och alla AI-hallucinationer som används i praktiska fall eller släpps ut till allmänheten kan få mycket allvarliga konsekvenser för ett stort antal människor:
Oetisk användning av AI
Användningen av AI, i general, är i fokus för tillfället, och organisationer som använder sig av tekniken förväntas i allt högre grad använda AI på ett ansvarsfullt och etiskt sätt som inte skadar människor eller utsätter dem för risker. Att tillåta en AI-hallucination att passera okontrollerat – antingen medvetet eller omedvetet – skulle inte uppfylla de etiska förväntningarna.
Allmänhetens och konsumenternas förtroende
I anslutning till den föregående punkten är många fortfarande oroliga för användningen av AI, från hur deras personuppgifter används till om AIs ökande kapacitet kan göra deras jobb inaktuella. Fortsatta fall av exempel på AI-hallucinationer i det offentliga rummet kan urholka det långsamt byggande förtroendet bland allmänheten och leda till begränsad framgång för AI-användningsfall och företag på lång sikt.
Felinformerat beslutsfattande
Företag och människor måste kunna fatta de bästa och mest välgrundade besluten som möjligt och stödjer sig i allt högre grad på data, analyser och AI-modeller för att ta bort gissningar och osäkerheter från dessa beslut. Om de vilseleds av felaktiga resultat från AI-modeller, kan fel beslut de fattar få katastrofala resultat, från att hota ett företags lönsamhet till att feldiagnostisera en medicinsk patient.
Juridiska och ekonomiska risker med desinformation om AI
Som rättsfallet som nämns ovan skickligt visar kan felaktig AI-genererad information orsaka stor skada ur juridisk och ekonomisk synvinkel. Till exempel kan innehåll som skapats med AI vara ärekränkande mot vissa personer eller företag, bryta mot vissa juridiska föreskrifter, eller vissa extremfall till och med föreslå eller hetsa personer till olaglig verksamhet.
Undvika partiskhet
Vi lever i en värld där människor outtröttligt arbetar för att alla ska behandlas lika och utan partiskhet mot en typ av människa framför en annan. Men partisk AI-data kan leda till att många av dessa fördomar förstärks, ofta oavsiktligt. Ett bra exempel på detta är användningen av AI vid anställningar och rekrytering: AI-hallucinationer kan leda till partiska resultat som kan påverka organisationens mångfalds-, jämställdhets- och inkluderingsarbete.
Vad är några typiska exempel på AI-hallucinationer?
Att undvika AI-hallucinationer har visat sig vara en utmanande uppgift för alla i branschen. Och det händer inte bara med mindre verksamheter som inte har kompetensen och resurserna. Dessa tre hallucinationsexempel på AI bevisar att de händer några av de största tekniska aktörerna i världen:
Meta AI och mordförsöket på Donald Trump
I efterdyningarna av mordförsöket mot den dåvarande presidentkandidaten Donald Trump i juli 2024, var Meta's AI chatbot vägrade inledningsvis att svara på några frågor om händelsen och hävdade senare att händelsen aldrig inträffade. Problemet ledde till att Meta justerade algoritmerna för sitt AI-verktyg, men ledde till offentliga påståenden om partiskhet och censur av konservativa åsikter.
ChatGPT-hallucinationerna och den falska juridiska forskningen
År 2023 lämnade en man i Colombia in ett personskadekrav mot ett flygbolag. Hans advokater använde det ledande AI-verktyget ChatGPT för första gången för att sammanställa hans ärende och förbereda juridiska inlagor. Men trots ChatGPT:s försäkringar om att de sex fall av juridiska prejudikat som de funnit var verkliga, fanns inget av dem.
Microsofts Sydney blir kär i användarna
Sydney, Microsofts AI-drivna chatbot, rapporterades ha sagt till en teknikkrönikör på New York Times att den älskade honom och att han borde lämna sin fru för att vara med i den istället. Under loppet av två timmar sa Kevin Roose att Sydney delade med sig av några "mörka fantasier" om att sprida desinformation om AI och bli människa.
Vad kan man göra för att minimera risken för AI-hallucinationer?
Med tanke på vikten av att undvika risken för en AI-hallucination är det upp till de personer som använder AI-modeller att vidta alla praktiska åtgärder de kan för att lindra de omständigheter som kan leda till problem. Vi rekommenderar följande:
Se till att det finns ett tydligt syfte med AI-modellen
I takt med att AI-användningen har ökat under de senaste åren är ett vanligt misstag att organisationer använder AI-modeller för att använda dem, utan hänsyn till vilken effekt de ger letar efter. Att tydligt definiera det övergripande målet med att använda en AI-modell kan säkerställa att resultaten är fokuserade och undvika risken för AI-hallucinationer genom ett förhållningssätt och data som är för generella.
Förbättra kvaliteten på träningsdata
Ju bättre kvalitet på data som ingår i en AI-modell, desto bättre kvalitet på resultaten kommer ut ur den. En bra AI-modell kommer att baseras på data som är relevant, fri från bias, välstrukturerad och som har filtrerats bort allt ovidkommande ”databrus”. Detta är viktigt för att se till att de resultat som genereras är korrekta, i rätt sammanhang, och inte ska leda till ytterligare problem.
Skapa och använda datamallar
Ett bra sätt att se till att resultaten av en AI-modell stämmer överens med deras avsedda syfte är att använda mallar för den data som matas in i dem. Detta säkerställer att varje gång en AI-modell används, vänjer den sig vid att data tillhandahålls på samma konsekventa sätt och kan leverera konsekventa, korrekta resultat i rätt sammanhang.
Begränsa mängden svar och resultat
Att sätta fler begränsningar på en AI-modell kan hjälpa till att begränsa de potentiella resultaten till de som behövs. Det är här som filtreringsverktyg och trösklar kommer in i bilden, vilket ger AI-modeller några välbehövliga gränser för att hålla analys och generering på rätt spår.
Testa och förbättra modellen ständigt
Precis som att ständiga förbättringar är avgörande för en god programvaruutveckling i en omvärld som ständigt föränderlig, gäller det samma för en bra AI-modell. Därför bör alla AI-modeller testas och förfinas regelbundet så att de kan kalibreras om till utvecklingen av data, krav och tillgänglig kontextuell information.
Sätt mänskliga kontroller och avvägningar på plats
AI är ännu inte ofelbar till den grad att den kan lita på att den fungerar helt självständigt, så det är viktigt att se till att det finns åtminstone viss mänsklig tillsyn. Att låta en person kontrollera AI-utdata kan identifiera eventuella AI-hallucinationer som har ägt rum och säkerställa att utmatningen är korrekt och lämplig för de angivna kraven.
Stärk din cybersäkerhet
Om en AI-hallucination riskerar att introducera sårbarheter inom cybersäkerhet, så är detta en god anledning till att se till att den bästa möjliga cybersäkerhetslösningen finns på plats. Kaspersky Plus Internet Security inkluderar antivirussökning i realtid som standard så att alla säkerhetshot som introduceras på grund av AI-hallucinationer åtgärdas och elimineras innan de kan få några skadliga effekter.
Relaterade artiklar:
