Sikke da en fjollet lille robot. Hvorfor har den flinke lille robot helt af sig selv pludselig besluttet at sige sådan nogen sære ting? Det var da helt skørt og fjollet. Nå, jeg er sikker på at Enron Musk i hvert fald ikke har noget at gøre med det...
Nyheder
For alle nyheder, hvad end de måtte omhandle.
Regler
1. Brug artiklens titel
Titlen på indlæg skal være titlen på nyhedsartiklen der linkes til. Du må dog gerne oversætte titlen hvis den ikke er på dansk, så længe oversættelsen er retvisende. En alternativ titel (fx i tilfælde af clickbait) eller vigtig supplerende information kan angives i kantede parenteser. Fx: "Clickbait titel [Beskrivende titel]". Dette sikrer at titlen på artiklen ikke er misvisende.
2. Brug ikke tekstfeltet ("body")
Link udelukkende til artiklen og brug ikke tekstfeltet ("body" på engelsk). Hvis du vil tilføje noget, så skriv en kommentar. Dette sikrer at debatten foregår fra et neutralt synspunkt der tager udgangspunkt i artiklen, og ikke en bestemt vinkling skrevet i tekstfeltet. Undtagelse: Det er tilladt at dele et referat af en artikel bag betalingsvæg i tekstfeltet.
3. Kun nye artikler
Artikler skal være mindre end en uge gamle. Dette sikrer at artikler faktisk er nyheder.
4. Debat-indlæg og andet skal markeres
Det er tilladt i et begrænset omfang at indlægge artikler der ikke som sådan er nyhedsartikler og ikke er skrevet af avisens ansatte (fx debat-indlæg eller læserbreve), men sådanne artikler skal markeres med [Debat] el. lign. mærkat i titlen af indlægget inden titlen på artiklen. Dette sikrer at brugere er klar over den potentielle højere bias der kommer fra debat-indlæg og sikrer at debat-indlæg ikke bruges til at skubbe en agenda.
Husk også at følge Feddit.dks generelle regler.
Kvaliteten af en LLM er en funktion af den data den er blevet fodret med, og hvad dem der har bygget den har givet den som formål. Intet nyt her.
Dertil blev folkene bag grok taget i, at indskrive kommandoer i modellens systemprompt. Det var vidst fra da den pludselig insisterede på at vende samtaler til at snakke om White Genocide i Sydafrika.
Altså, Hitler var vel en beslutsom mand - han tog bare nogle klamme beslutninger.
Jeg forstår ikke det bliver ved med at være en nyhed at avanceret autocomplete siger nogle underlige ting.
Det er da rimelig tydeligt at den er blevet trænet med henblik på at være mere positivt indstillet overfor nazisme. Andre LLM'er end lige Grok siger sjovt nok aldrig sådan nogen ting...
Jeg tror personligt det her går lidt udover at det bare er en autocomplete der hallucinerer lidt. Det virker for mig som om Grok bliver manipuleret af sin skaber til at drive et bestemt narrativ, og det synes jeg er meget bekymrende og et meget større problem end blot en hallucination.
Ja det her virker som et mønster som Grok følger, ikke blot en tilfældig hændelse. Det er ikke første gang og jeg tvivler på at det bliver sidste at Grok pludseligt begynder at sige irrelevante ting, dreje samtalen til højreekstreme talepunkter eller på lignende vis opfører sig markant anderledes end andre LLM’er gør. Det bliver italesat og xai melder der er sket en fejl som hurtigt bliver rettet hvorefter Grok igen fungerer relativt normalt indtil næste gang.
Og så skal man heller ikke glemme at Musk eksplicit har sagt at han vil have Grok til at fremme de kontroversielle (konservative) holdninger som han mener er politisk ukorrekt men faktuelle.
Jeg synes artikler som denne er vigtige for at gøre folk opmærksomme på at de skal være ekstra forsigtige med at tro på hvad Grok siger, når alt for mange allerede stoler for meget på den gennemsnitlige LLM’s troværdighed.
Ja, de her artikler er jo egentlig bare en skjult kritik af Elon Musk. Man glemmer bare lige at sige at alle chatbots til tider har sagt nogle mærkelige ting.