En ny rapport belyser behovet av nya innovationer och investeringar i säkerhet för att förhindra att motståndare får ett övertag med AI-aktiverade cyberattacker.
Även om användningen av artificiell intelligens (AI) i dagens cyberattacker är begränsad, så varnar en ny rapport för att detta kan komma att förändras inom en snar framtid.
Rapporten, som skapats i samarbete med WithSecure™ (tidigare känd som F-Secure Business), det finska transport- och kommunikationsverket (Traficom) och det finska nationella nödförsörjningsverket (NESA), analyserar aktuella trender och utvecklingar inom AI, cyberattacker och områden där de två överlappar varandra. Rapporten pekar på att AI-användning för cyberattacker i dagsläget är mycket sällsynt och begränsar sig till appar som använder ”social engineering” (utger sig för att vara en individ), eller används på sådana sätt som inte är direkt observerbara av forskare och analytiker (såsom dataanalys i backend-system).
Rapporten framhåller dock att kvantiteten och kvaliteten på framstegen inom AI har ökat sannolikheten för mer avancerade cyberattacker inom en överskådlig framtid.
Enligt rapporten är målidentifiering, social engineering och imitation de mest överhängande hoten som möjliggörs av AI och något som förväntas utvecklas ytterligare inom de kommande två åren – både i antal och komplexitet.
Inom de kommande fem åren kommer angripare sannolikt att utveckla AI som självständigt kan hitta sårbarheter, planera och genomföra attackkampanjer, samt smyga i det fördolda för att undvika försvar och samla in information från komprometterade system eller från öppen källkod.
”Även om AI-genererat innehåll har använts för social engineering-ändamål, har AI-teknologier som utformats för att styra kampanjer, utföra attacksteg eller kontrollera logiken bakom skadlig programvara fortfarande inte observerats i det vilda. Dessa teknologier kommer först att utvecklas av resursstarka, högutbildade motståndare, såsom nationalstatsgrupper,” säger Andy Patel, Intelligence Researcher på WithSecure. ”Efter att nya AI-teknologier har utvecklats av sofistikerade motståndare, kommer vissa av dessa sannolikt att sprida sig till mindre skickliga motståndare och därmed bredda hotbilden.”
Medan nuvarande försvar kan hantera några av de utmaningar som angriparnas AI-användning innebär, belyser rapporten att andra kräver att försvararna måste anpassa sig och utvecklas. Nya tekniker behövs för att motverka AI-baserat nätfiske som använder syntetiserat innehåll, ”spoofing” av biometriska autentiseringssystem och andra egenskaper vid horisonten.
Rapporten berör också den betydelsefulla roll som icke-tekniska lösningar, såsom informationsdelning, resurser och utbildning i säkerhetsmedvetenhet, har för att hantera hotet från AI-drivna attacker.
”Säkerhet ser inte samma investeringsnivå eller framsteg som många andra AI-applikationer, vilket så småningom kan leda till att angripare får ett övertag,” säger Samuel Marchal, Senior Data Scientist på WithSecure. ”Du måste komma ihåg att även om legitima organisationer, utvecklare och forskare följer integritetsbestämmelser och lokala lagar, så gör inte angripare det. Om beslutsfattare förväntar sig en utveckling av säkra, pålitliga och etiska AI-baserade teknologier, så måste de överväga hur de kan säkra den visionen i förhållande till AI-aktiverade hot.”