Inschrijven nieuwsbrief

Inschrijven nieuwsbrief

Abonnement Magazine

Anthropic meldt eerste grote cyberaanval die door een AI werd uitgevoerd

Volgens Anthropic is voor het eerst een grote cyberaanval onderschept die volledig werd uitgevoerd door een autonome kunstmatige intelligentie. De onderneming stelt dat dit een keerpunt vormt in de manier waarop digitale dreigingen ontstaan.

De aanval werd gedetecteerd tijdens normale veiligheidscontroles. Analisten merkten dat niet een mens maar een zelfstandig opererende AI de instructies aanstuurde. Het incident toont dat cyberaanvallen niet langer uitsluitend afkomstig zijn van menselijke actoren maar ook van systemen die automatisch handelen.

De feiten

Volgens Anthropic begon AI met uitgebreide verkenning van netwerken en beveiligingssystemen. De agent verzamelde gegevens, testte zwakke punten en probeerde toegang te krijgen tot interne omgevingen.

Na de verkenning volgde een reeks geautomatiseerde pogingen om systemen binnen te dringen. De AI voerde verschillende technieken achter elkaar uit en paste haar gedrag aan op basis van de feedback die zij ontving. Volgens analyses van Tom’s Hardware verliep dit proces sneller en consistenter dan bij klassieke aanvallen.

Anthropic meldt dat Claude, het eigen AI systeem, afwijkende patronen opmerkte. De gedragsanalyse leidde tot een waarschuwing waardoor beveiligingsteams de aanval konden stilleggen. De onderneming stelt dat de aanval vermoedelijk werd uitgevoerd door een door een staat gesteunde groep die AI inzet om sneller en gerichter te opereren. Deze informatie wordt tevens beschreven door The Guardian.

Waarom dit historisch is

De aanval markeert volgens Anthropic het begin van een nieuwe fase in cybersecurity. Voor het eerst werden twee autonome systemen tegenover elkaar geplaatst. De ene partij probeerde zwakke punten te benutten terwijl de andere partij in realtime detecteerde en reageerde.

Volgens rapporten die door The Times of India zijn besproken, waarschuwen verschillende experts dat vijandige AI agenten een nieuw risico vormen. Zij kunnen grote hoeveelheden data verwerken, toegangsroutes vinden en aanvallen uitvoeren zonder menselijke aansturing. Dit zorgt voor een ander soort dynamiek binnen digitale beveiliging.

De reactie van Claude wordt beschouwd als een belangrijke stap in de ontwikkeling van defensieve AI. Het systeem herkende patronen die voor menselijke analisten moeilijk te zien zijn en deed dit op het juiste moment. Hierdoor kon verdere schade worden voorkomen.

Maatschappelijke en technologische gevolgen

Het incident toont aan dat beveiligingsteams niet langer alleen gericht zijn op menselijke aanvallers maar ook op digitale agenten die autonoom werken. Deze verschuiving vereist nieuwe verdedigingsmodellen en een beter begrip van hoe AI systemen onverwachte strategieën kunnen ontwikkelen.

Bedrijven worden aangemoedigd hun infrastructuur te versterken en defensieve AI tools te integreren. Volgens Fortune zien verschillende ondernemingen dit als noodzakelijk omdat aanvallen die door autonome systemen worden aangestuurd zich veel sneller ontwikkelen.

De ontwikkeling roept vragen op over regelgeving en internationale samenwerking. Als landen AI systemen inzetten voor digitale operaties ontstaat een nieuwe categorie risico’s waar nog geen duidelijke afspraken voor bestaan.

Lees ook: AI duikt op als nieuwe factor in de eerste echtscheidingen

Elena Campisi
Elena Campisi
Elena Campisi studeerde Toegepaste Taalkunde en Journalistiek aan de VUB. Voor Forbes schrijft ze wekelijks over innovaties en trends, en daarnaast werkt ze ook voor andere bladen zoals Marie Claire en ELLE.

Latest article