“Vilken LLM kan man lita på?”

Vi märker ofta en viss förvirring kring chatmodeller, eller LLM (Large Language Models), som de egentligen heter. Som till exempel ChatGPT, Deepseek och Gemini med flera. Vanliga frågor som dyker upp är: “Vilken modell kan vi lita på?,” “Tar de mitt data?”, “Hur används vårt data?”. För att öka förståelsen kring detta har vi sammanställt några viktiga frågor att beakta. 

Var körs chatmodellerna?

En LLM kan köras på två sätt:
1. Via en leverantör – exempelvis OpenAI (ChatGPT), Google (Gemini) eller Deepseek.
2.  Lokalt i ditt eget datacenter – du har full kontroll över drift och data.

Väljer du alternativ 1 delar du ditt data med leverantören och saknar full insyn i hur det används. Om du väljer alternativ 2 har du större kontroll eftersom du bestämmer vilket data som lämnar ditt system.

Modeller som tex ChatGPT och Gemini är proprietära, vilket innebär att vi inte kan granska källkoden eller vara säkra på om bakdörrar finns. Deepseek är däremot öppen källkod, vilket gör det möjligt att verifiera säkerheten.

Vad tränas modellerna på?

Det är viktigt att skilja på två saker:
1. Vilket data en modell har tränats på – det påverkar hur den fungerar och vilka kunskaper den har.
2. Vilket data modellen använder vid frågor och svar – det handlar om den information du matar in i realtid.

Kultur och moderering

Oavsett om modellen körs via en leverantör eller lokalt, påverkas dess svar av den moderering och kulturella bias som finns i dess ursprungsland. Amerikanska modeller som ChatGPT och Gemini reflekterar amerikanska normer, värderinga och språk, medan kinesiska modeller kan ha helt andra filter och begränsningar. Samma fråga kan därför ge olika svar beroende på var modellen utvecklats och vilka regler som styr dess innehållsmoderering.

Vad händer framåt?

Allt fler företag och organisationer ser fördelarna med att utveckla egna chatmodeller, särskilt med hjälp av öppen källkod. Genom att ha kontroll över sin egen modell kan de minska beroendet av tredjepartsleverantörer, hantera data på egna villkor och anpassa AI-lösningar efter specifika behov. Det ger också bättre insyn i hur modellen fungerar, vilket kan vara avgörande för regelefterlevnad och säkerhet. AI-revolutionen är här och öppnar många möjligheter, och om man har data och kan bygga själv blir det lättare att integrera det in i sina affärsprocesser. Viktigt att komma ihåg är dock att AI-modeller kräver investeringar, löpande arbete och starkt ledarskap för att vara säkra, relevanta och konkurrenskraftiga.

Så, vad tycker du?

Är det dags att bygga fler egna, mer anpassade lösningar? Är vi beroende av de globala techjättarnas modeller? Behöver svenska samhället, företag, myndigheter och organisationer fler egna LLM:er? Och vem bör då ta intitativet?

Senaste blogginläggen

KONTAKT

Kontakta oss

Fyll i nedan så svarar vi dig så snart vi kan.

Dela detta

Twitter
LinkedIn
Facebook