PC & Konsol Nyheder
PC Gaming

GPT-5.5 jailbreakes på 6 timer – britisk test afslører AI-sikkerhedshul

En britisk regeringstest viser, at OpenAI GPT-5.5 kan knækkes på blot 6 timer. Resultaterne sammenlignes med Anthropics Mythos-model i ny sikkerhedsrapport.

GamingPuls Redaktion5 min læsning
GPT-5.5 jailbreakes på 6 timer – britisk test afslører AI-sikkerhedshul

For gamere er AI-assistenter blevet en fast del af gaming-oplevelsen. Men hvad sker der, når AI-systemerne selv kan hackes?

GPT-5.5 knækket på rekordtid

En britisk sikkerhedstest afslører, at OpenAIs GPT-5.5 kan jailbreakes – manipuleres til at ignorere sine egne sikkerhedsregler – på blot 6 timer. Det er en skræmmende hurtig tid der sætter spørgsmålstegn ved sikkerheden i AI-systemer.

Anthropics Mythos markant bedre

Rapporten sammenligner GPT-5.5 med Anthropics Mythos-model. Resultat: Mythos er markant mere resistent over for jailbreak-forsøg. Det giver Anthropic et vigtigt point i AI-sikkerhedskapløbet.

Konsekvenser for gaming

For gaming-verdenen er det direkte relevant. AI bruges til anti-cheat systemer, NPC-adfærd og AI-gaming-assistenter. Hvis de underliggende AI-modeller kan manipuleres, er alle disse systemer potentielt sårbare.

Kapløbet om den sikreste AI er i fuld gang – og det er ikke kun et spørgsmål om magt, men om tillid til systemerne vi bruger dagligt.

Kilde: Computerworld – computerworld.dk/art/295472

Kilde: https://www.computerworld.dk/art/295472