Het wordt steeds duidelijker dat AI-tools als ChatGPT kunnen worden gebruikt om malware te schrijven waarmee de veiligheid van systemen kan worden bedreigd. Vorige week meldde Check Point Research dat er op het dark web al volop wordt geëxperimenteerd met ChatGPT. Beveiligingsbedrijf CyberArk is er naar eigen zeggen inmiddels zelfs in geslaagd om kwaadaardige code te laten muteren en zo beveiliging te omzeilen.
CyberArk Labs laat zien hoe ze het contentfilter van de AI-dienst hebben omzeild en tegen de eigen regels in toch malware kunnen maken die, in runtime queries, ChatGPT kwaadaardige code laat laden. De malware bevat hierdoor zelf geen kwaadaardige code, omdat het de code van ChatGPT ontvangt. Bovendien wordt deze gevalideerd (controleren of de code correct is), en vervolgens uitgevoerd zonder een spoor achter te laten. Daarnaast is het CyberArk Labs gelukt om ChatGPT te vragen de code te muteren.
De zogeheten ‘naked malware’ of polyforme malware, die hiermee ontstaat bevat geen kwaadaardige modules en wordt daardoor niet door security-tools opgemerkt. Dit is in eerdere onderzoeken nog niet gelukt.
Eran Shimony, onderzoeker bij CyberArk Labs: “Polymorfe malware is zeer moeilijk aan te pakken voor beveiligingsproducten omdat je ze niet echt kunt herkennen. Bovendien laten ze meestal geen sporen achter op het bestandssysteem, omdat hun kwaadaardige code alleen in het geheugen wordt verwerkt. Bovendien, als men het uitvoerbare bestand zelf bekijkt, ziet het er waarschijnlijk onschuldig uit.”
De berichten van de laatste tijd tonen aan dat er op het gebied van security en AI nog flinke stappen moeten worden gezet.