Lielbritānijas amatpersonas apgalvo, ka mākslīgā intelekta tērzēšanas roboti var radīt kiberriskus

Lielbritānijas amatpersonas brīdina organizācijas par mākslīgā intelekta vadītu tērzēšanas robotu integrēšanu uzņēmumos, norādot, ka pētījumi arvien biežāk liecina, ka tos var maldināt veikt kaitīgus uzdevumus.

Lielbritānijas Nacionālais kiberdrošības centrs (NCSC) pāris bloga ierakstos, kas tiks publicēti trešdien, norāda, ka eksperti vēl nav apguvuši potenciālās drošības problēmas, kas saistītas ar algoritmiem, kuri var radīt cilvēciski izklausītas mijiedarbības – tā dēvētie lielie valodas modeļi jeb LLM.

Mākslīgā intelekta darbinātie rīki jau tiek izmantoti kā tērzēšanas roboti, kas, kā daži paredz, aizstās ne tikai meklēšanu internetā, bet arī klientu apkalpošanas darbu un pārdošanas zvanus.

NCSC norādīja, ka tas var radīt riskus, jo īpaši, ja šādi modeļi tiek pieslēgti citiem organizācijas uzņēmējdarbības procesu elementiem. Akadēmiķi un pētnieki ir vairākkārt atraduši veidus, kā apgāzt tērzēšanas robotus, padodot tiem negodīgas komandas vai apmānīt tos, lai tie apietu sev iebūvētos aizsargmehānismus.

Piemēram, ar mākslīgo intelektu darbināmo intelektu, ko izmanto banka, čatbotu var maldināt veikt neatļautu darījumu, ja hakeris pareizi strukturē savu pieprasījumu.

“Organizācijām, kas veido pakalpojumus, kuri izmanto LLM, ir jābūt uzmanīgām tāpat kā tad, ja tās izmanto produktu vai koda bibliotēku, kas ir beta versijā,” NCSC norādīja vienā no saviem bloga ierakstiem, atsaucoties uz eksperimentālām programmatūras versijām.

“Viņi varētu neļaut šim produktam iesaistīties darījumu veikšanā klienta vārdā un, cerams, tam pilnībā neuzticētos. Līdzīga piesardzība būtu jāattiecina arī uz LLM.”

Iestādes visā pasaulē cīnās ar LLM, piemēram, OpenAI ChatGPT, izplatību, ko uzņēmumi iekļauj dažādos pakalpojumos, tostarp pārdošanā un klientu apkalpošanā. Joprojām tiek pievērsta uzmanība arī mākslīgā intelekta ietekmei uz drošību, un ASV un Kanādas iestādes apgalvo, ka ir novērojušas, ka hakeri ir izmantojuši šo tehnoloģiju.

Leave a Comment