GPT-5.5 jailbreakes på 6 timer – britisk test afslører AI-sikkerhedshul
En britisk regeringstest viser, at OpenAI GPT-5.5 kan knækkes på blot 6 timer. Resultaterne sammenlignes med Anthropics Mythos-model i ny sikkerhedsrapport.

For gamere er AI-assistenter blevet en fast del af gaming-oplevelsen. Men hvad sker der, når AI-systemerne selv kan hackes?
GPT-5.5 knækket på rekordtid
En britisk sikkerhedstest afslører, at OpenAIs GPT-5.5 kan jailbreakes – manipuleres til at ignorere sine egne sikkerhedsregler – på blot 6 timer. Det er en skræmmende hurtig tid der sætter spørgsmålstegn ved sikkerheden i AI-systemer.
Anthropics Mythos markant bedre
Rapporten sammenligner GPT-5.5 med Anthropics Mythos-model. Resultat: Mythos er markant mere resistent over for jailbreak-forsøg. Det giver Anthropic et vigtigt point i AI-sikkerhedskapløbet.
Konsekvenser for gaming
For gaming-verdenen er det direkte relevant. AI bruges til anti-cheat systemer, NPC-adfærd og AI-gaming-assistenter. Hvis de underliggende AI-modeller kan manipuleres, er alle disse systemer potentielt sårbare.
Kapløbet om den sikreste AI er i fuld gang – og det er ikke kun et spørgsmål om magt, men om tillid til systemerne vi bruger dagligt.
Kilde: https://www.computerworld.dk/art/295472