Jeg forsøger at forstå lidt omkring AI. Det er spændende. Der er nu kommet en ny kinesisk model Deepseek som kan installeres lokalt uden adgang til internet. Det jeg ikke forstår er hvordan det kan lade sig gøre at have en fungerende model lokalt. Hvis jeg har forstået det rigtigt så har modellen læst og processeret rigtigt meget information fra internet. Information tages bort ved denne process og komprimeres. Alligevel så må modellen have en enorm baggrundsinformation for at kunne svare på spørgsmål. Den store mængde information fra internet jan vel umuligt gemmes på en lokal harddisk? Måske forstår jeg ikke hvordan AI fungerer. Kan I forklare hvordan en model som Deepseek udan adgang til internet kan svare på alverdens spørgsmål?
Hej, Jeg bor i Norge, men er med på ComputerWorld.
Heroppe advarer eksperter STÆRKT mod kinesiske Deepseek, fordi der (ifølge eksperterne) ikke er 100 procent klarhed over hvad der ligger bag softwaren, og fordi de har kraftige mistanker om,. at det kan være en trojansk hest . Altså en skjult indgang til dine data på din PC og senere til andre PC'er på netværket med din PC som "vært".
Når en AI-model som Deepseek trænes, betyder det, at den bliver "fodret" med store mængder data – i dette tilfælde store tekstmængder fra internettet, bøger, artikler, og så videre. Denne data bruges til at lære mønstre og sammenhænge i sproget, så modellen kan generere meningsfulde svar, når den får et spørgsmål.
Hvordan fungerer det lokalt?
Når du bruger en model som Deepseek lokalt, betyder det, at modellen allerede er blevet trænet på en kæmpe mængde data, som nu er en del af selve modellen – den "forståelse", den har af sproget, er indbygget i dens neurale netværk. Denne viden er ikke gemt som en simpel database med faktuelle oplysninger (som du måske forestiller dig det), men i stedet som vægte og forbindelser i modellens netværk. Disse vægte bestemmer, hvordan modellen genererer svar baseret på de input, den får.
I praksis betyder det, at modellen ikke gemmer eller har direkte adgang til al den oprindelige data, den blev trænet på. Det er ikke som en opslagsbog, du kan slå op i, men snarere et "kondensat" af den viden, som modellen har fået gennem træningen. Modellen bruger disse vægte til at producere svar ud fra mønstre og sandsynligheder, uden at skulle hente data fra internettet i realtid.
Hvor meget plads kræver det?
For at kunne køre en model som Deepseek lokalt, kræves der selvfølgelig en god mængde lagerplads og processorkraft. De moderne AI-modeller som GPT og Deepseek kan være flere titusinde eller endda hundrede tusinde gigabytes store, fordi de indeholder så mange parametre (vægte), som de har lært fra de enorme mængder data, de er blevet trænet på. Men denne viden er optimeret og komprimeret i form af vægte og matematiske forbindelser, så den ikke kræver en database med alt den oprindelige tekst.
Kan den svare på alle spørgsmål?
Modellen kan generere svar på mange forskellige spørgsmål, fordi den har lært fra så meget data, at den kan estimere meget præcist, hvad et sandsynligt svar er, baseret på de mønstre, den har set. Men der er nogle begrænsninger. Modellen har ikke adgang til opdateret information eller specifik viden, der ikke var tilgængelig under dens træning. Så hvis du spørger den om meget aktuelle hændelser, kan den være ude af stand til at give et præcist svar, medmindre den er blevet opdateret med ny træning.
DeepSeek uden internettet, giver da ingen mening, for så skulle alle data ligge på computeren, hvilket er umuligt. Deepseek er næppe en trojaner, men den er formodentlig programmeret med hensyn til det Kinesiske styre, så ømtålelige spørgsmål. ikke kan besvares. Men ellers finder jeg den bedre end AI fra USA, som har svaret forkert på flere af mine spørgsmål.
Synes godt om
Ny brugerNybegynder
Din løsning...
Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.