Tyrėjų komanda atskleidė, jų teigimu, pirmą kartą pranešta apie dirbtinio intelekto panaudojimą, siekiant nukreipti įsilaužimo kampaniją iš esmės automatizuotu būdu.
Dirbtinio intelekto bendrovė Anthropic šią savaitę pranešė, kad sutrikdė kibernetinę operaciją, kurią jos tyrėjai susiejo su Kinijos vyriausybe. Operacija apėmė dirbtinio intelekto sistemos naudojimą, kad būtų galima nukreipti įsilaužimo kampanijas, kurias mokslininkai pavadino nerimą keliančia plėtra, galinčia labai išplėsti dirbtinio intelekto įsilaužėlių pasiekiamumą.
Nors susirūpinimas dėl dirbtinio intelekto naudojimo kibernetinėms operacijoms nėra naujas, nerimą kelia tai, kiek AI sugebėjo automatizuoti kai kuriuos darbus, sakė mokslininkai.
„Nors mes numatėme, kad šie pajėgumai ir toliau vystysis, mus išskyrė tai, kaip greitai jie tai padarė dideliu mastu“, – rašė jie savo ataskaitoje.
Operacija buvo skirta technologijų įmonėms, finansų įstaigoms, chemijos įmonėms ir vyriausybinėms agentūroms. Tyrėjai rašė, kad įsilaužėliai užpuolė „maždaug trisdešimt pasaulinių taikinių ir kai kuriais atvejais jiems pavyko“. Anthropic operaciją aptiko rugsėjį ir ėmėsi veiksmų ją nutraukti bei informuoti nukentėjusias šalis.
Anthropic pažymėjo, kad nors dirbtinio intelekto sistemos vis dažniau naudojamos įvairiose darbo ir laisvalaikio aplinkose, jas taip pat gali panaudoti įsilaužimo grupės, dirbančios užsienio priešams. Anthropic, generatyvaus AI pokalbių roboto Claude kūrėjas, yra viena iš daugelio technologijų kompanijų, siūlančių dirbtinio intelekto „agentus“, kurie viršija pokalbių roboto galimybes pasiekti kompiuterinius įrankius ir imtis veiksmų asmens vardu.
Gaukite naujausias nacionalines naujienas
Jei norite gauti naujienų, turinčių įtakos Kanadai ir visam pasauliui, prisiregistruokite gauti naujausių naujienų įspėjimus, kurie jums bus pristatyti, kai tik jos įvyks.
„Agentai yra vertingi kasdieniam darbui ir produktyvumui, bet netinkamose rankose jie gali žymiai padidinti didelio masto kibernetinių atakų gyvybingumą”, – padarė išvadą mokslininkai. „Tikėtina, kad šių išpuolių veiksmingumas tik padidės.
Kinijos ambasados Vašingtone atstovas iš karto neatsiuntė pranešimo, prašydamas pakomentuoti pranešimą.

Šių metų pradžioje „Microsoft“ perspėjo, kad užsienio priešai vis labiau imasi dirbtinio intelekto, kad jų kibernetinės kampanijos taptų veiksmingesnės ir imlesnės darbo jėgos. OpenAI saugos grupės, turinčios teisę sustabdyti ChatGPT kūrėjo dirbtinio intelekto kūrimą, vadovas neseniai naujienų agentūrai „The Associated Press“ sakė, kad žiūri į naujas AI sistemas, kurios piktybiniams įsilaužėliams suteikia „daug didesnių galimybių“.
Amerikos priešai, taip pat nusikalstamos grupuotės ir įsilaužimo įmonės išnaudojo dirbtinio intelekto potencialą, automatizuodami ir tobulindami kibernetines atakas, skleisdami uždegančią dezinformaciją ir prasiskverbdami į jautrias sistemas. Pavyzdžiui, dirbtinis intelektas gali išversti prastai suformuluotus sukčiavimo el. laiškus į sklandžią anglų kalbą, taip pat generuoti skaitmeninius vyresniųjų vyriausybės pareigūnų klonus.
Anthropic teigė, kad įsilaužėliai galėjo manipuliuoti Claude’u, naudodami „įkalinimo“ metodus, kurie apima AI sistemos apgaudinėjimą, kad ji apeitų jos apsauginius turėklus nuo žalingo elgesio, šiuo atveju teigdami, kad jie yra teisėtos kibernetinio saugumo įmonės darbuotojai.
„Tai rodo didelį iššūkį, susijusį su AI modeliais, ir tai neapsiriboja Claude’u, ty modeliai turi sugebėti atskirti, kas iš tikrųjų vyksta su situacijos etika, ir vaidmenų žaidimo scenarijus, kuriuos gali norėti sukurti įsilaužėliai ir kiti“, – sakė „Citizen Lab“ vyresnysis mokslo darbuotojas Johnas Scottas-Railtonas.

AI naudojimas automatizuoti ar nukreipti kibernetines atakas taip pat patiks mažesnėms įsilaužėlių grupėms ir vienišiems vilkų įsilaužėliams, kurie gali panaudoti AI išplėsti savo atakų mastą, teigia Adamas Arellano, technologijų įmonės, kuri naudoja dirbtinį intelektą, kad padėtų klientams automatizuoti programinės įrangos kūrimą, CTO.
„AI teikiamas greitis ir automatizavimas yra tai, kas šiek tiek baisu“, – sakė Arellano. „Užuot gerai ištobulintus įgūdžius turinčio žmogaus, kuris bando įsilaužti į užkietėjusias sistemas, AI pagreitina tuos procesus ir nuosekliau įveikia kliūtis.
AI programos taip pat vaidins vis svarbesnį vaidmenį ginantis nuo tokių atakų, sakė Arellano, parodydamas, kaip AI ir jo leidžiama automatizacija bus naudinga abiem pusėms.
Reakcija į „Anthropic“ atskleidimą buvo nevienareikšmė – vieni tai vertino kaip rinkodaros triuką, skirtą „Anthropic“ požiūriui į kibernetinio saugumo gynimą, o kiti džiaugėsi jo pažadinimo skambučiu.
„Tai mus sunaikins – greičiau nei manome – jei rytoj AI reguliavimo nepaversime nacionaliniu prioritetu“, – socialinėje žiniasklaidoje rašė JAV senatorius Chrisas Murphy, Konektikuto demokratas.
Tai sulaukė kritikos iš „Meta“ vyriausiojo dirbtinio intelekto mokslininko Yanno LeCuno, „Facebook“ patronuojančios bendrovės atvirojo kodo AI sistemų, kurios, skirtingai nei „Anthropic“, pagrindinius komponentus padaro viešai prieinamus tokiu būdu, kurį kai kurie AI saugos šalininkai laiko pernelyg rizikinga.
„Tave vaidina žmonės, norintys perimti reguliavimą“, – atsakyme Murphy rašė LeCunas. „Jie gąsdina visus abejotinais tyrimais, kad atvirojo kodo modeliai nebebūtų reguliuojami.
&kopija 2025 „The Canadian Press“.