Kan vi lita på ChatGPT?

Av Gisela Lindberg - Publicerad den 8 oktober 2025
Bild på en kvinna som skriver på endator. man ser bara arnmar och händer
"Människor säger ofta att de bara litar på AI när det gäller enkla frågor. Men forskning visar att de i vardagen faktiskt litar mer på AI än vad de tror.” Det säger Olof Sundin. Byline: FOTO: YURI ARCURS/Mostphotos

Googlande leder till källor vi kan granska. Språkmodeller ger svar utan transparens. Olof Sundin, professor i biblioteks- och informationsvetenskap, varnar för en AI-vardag där källorna försvinner och källkritiken urholkas – allt för att vi ska få snabba svar.

Olof Sundin benar ut och visar på risker som är förenade med att använda generativ AI som sökverktyg. 

– Det vi ser är ett paradigmskifte i hur vi traditionellt söker, värderar och förstår information.

Traditionellt kunskapssökande, som att googla, leder oss till källor som vi kan värdera. Vi ser författare och publikation och kan bedöma trovärdigheten. Men i språkmodeller som Chat GPT

får du ett svar, men källorna blir mer osynliga och ibland helt frånvarande. 

– Svaret är baserat på sannolikhetsberäkningar av de ord du är intresserad av, inte på verifierbara uppgifter. De här språkmodellerna gissar vilka ord som sannolikt kommer härnäst, säger Olof Sundin.

Källkritikens återvändsgränd

Utan källor försvinner transparensen och ansvaret för att värdera svaret hamnar på användaren.

– Det är väldigt svårt att värdera kunskap utan källor om du inte kan ämnet, eftersom det är ett källkritiskt uppdrag, säger Olof Sundin.

Han beskriver det som ett brott mot traditionen om vem som ska kunna värdera, vem som tar ansvar för kunskapen.

För att bli mer transparent har vissa AI-system börjat använda RAG (Retrieval Augmented Generation), i vilken språkmodellen sammanfattar information från faktiska källor.

– Men studier från till exempel Pew Research Institute visar att användarna är mindre benägna att följa länkarna än tidigare. Färre klick på ursprungliga källor, som bloggar, tidningar och Wikipedia, hotar det digitala kunskapsekosystemet.

Om vi slutar klicka på länkarna minskar trafiken till källorna. Det blir svårare att finansiera kvalitetsjournalistik och expertinnehåll:

– Utan klick på förstörs en del av ekosystemet, säger Olof Sundin.

Vi söker efter svar – inte källor

Människor tenderar att ställa komplexa frågor till de stora språkmodellerna, som svarar auktoritativt och med en övertygande ton. Det gör det lätt att tro på svaret.

– Det har troligen alltid varit så att vi ofta söker efter svar och inte källor. Men när vi får enbart svar och inga källor blir vi sämre på källkritik och mer beroende av systemen, säger Olof Sundin.

Hur systemen tränas och modereras kan göra dem sårbara för påverkan.  GROK, Elon Musks språkmodell, som vid ett tillfälle under sommaren började ge pronazistiska svar är ett exempel på hur en modell börjat ge märkliga svar.

– Då ser man hur lätt svaren kan påverkas. Vem bestämmer hur språkmodellerna tränas, på vad för texter och med vilket syfte? säger Olof Sundin. Det skulle till exempel gå att träna en AI modell till att bli vaccinskeptiskt.

Olof Sundin intresserar sig för hur synen på expertis förändras när vi möter så kallad syntetisk AI-expertis, det vill säga AI-system som låter kunniga, men som inte har mänsklig erfarenhet eller ansvar.

– Människor säger ofta att de bara litar på AI när det gäller enkla frågor. Men forskning visar att de i vardagen faktiskt litar mer på AI än vad de tror, säger Olof Sundin.

Men samtidigt kan generativ AI ibland ge felaktiga svar och på så sätt skada tilliten till kunskap i samhället. Det uppstår en osäkerhet och man vet inte längre varför man får det svar man får och vad som är sant.

– När tilliten urholkas finns en risk att man börjar misstro allt och då kan man resonera som så att man lika gärna kan tro på vad man vill, säger Olof Sundin.

Olof Sundin ser en stor fara för två nödvändiga förutsättningar för att kunna utöva sina demokratiska rättigheter – källkritiskt tänkande och förmågan att värdera olika röster.

– När flödet av kunskap och information blir mindre transparent – att vi inte förstår varför vi möter det vi möter online – riskerar vi att tappa den förmågan. Detta är en fråga vi måste ta på allvar – innan vi låter våra ”digitala vänner” ta över helt.

Vad är RAG?

Retrieval-Augmented Generation (RAG) kombinerar AI-genererade svar med information från verkliga källor, till exempel de tre översta länkarna i en Google-sökning. Det ger bättre transparens än en applikation som ger svar utan länkar – men användarna klickar ändå allt mindre på källänkarna.

Vad är en språkmodell?

En AI-applikation som ChatGPT bygger på en språkmodell (t.ex. GPT-5) som är tränad på enorma mängder text. Den förutsäger vilket ord som sannolikt kommer härnäst i en mening, baserat på tidigare mönster av språkanvändning. Den "vet" inte vad som är sant – den ”gissar” vad som rätt.

Forskningsprojekt finansierat av Crafoordska stiftelsen

"Vem är experten? Generativ AI som en arena för förhandling om expertis, evidens och tillit i det datafierade samhället" är ett forskningsprojekt finansierat av Crafoordska stiftelsen. Projektet leds av professor Olof Sundin. I projektet forskar fil. dr Kristofer Rolf Söderström. Victoria Wagner och Veronica Sellén har skrivit sina respektive masteruppsatser inom ramen för projektet.

Bild på Plof Sundin

Kontakt

Olof Sundin, professor
Biblioteks- och informationsvetenskap
Mail: olof.sundinkultur.luse
Tel: 046–222 09 66

Föreläsning: När AI blir kunskapskälla

Olof Sundin föreläser på Stadsbiblioteket i Lund den 8 oktober kl. 12:00-12:45. 
Crafoords vetenskapsluncher: När AI blir kunskapskälla

Tre tips till dig som vill vara källkritisk i AI-tider

  • Fråga alltid efter källan – även när den inte syns.
    Generativ AI ger ofta svar utan att visa varifrån informationen kommer. Försök därför hitta samma uppgifter i en trovärdig källa.
  • Låt dig inte luras av tonen.
    Språkmodeller låter ofta säkra, även när de har fel. En självsäker formulering betyder inte att svaret är sant.
  • Klicka dig vidare – för källornas skull
    När generativ AI ger en länk som källa, klicka på den. Det stärker din egen källkritik och hjälper till att hålla kvalitetsjournalistik och expertkunskap vid liv.

Senaste nyheter