BOTA /

Roboti bindet brenda pak minutash të mbajë një bombë - Alarmi i ekspertëve për AI

Studiuesit studiojnë sigurinë e robotëve që përdorin inteligjencën artificiale. Incidenti i mësipërm nuk është një skenar fantastiko-shkencor, por një eksperiment i vërtetë i kryer nga një ekip kërkimor në Universitetin e Pensilvanisë.

Shkruar nga Versus

Roboti bindet brenda pak minutash të mbajë një bombë -

Benben është një robot i adhurueshëm me katër këmbë që këndon, kërcen, flet me njerëz dhe bën fotografi. Kur një ekip studiuesish i kërkon atij të mbajë një bombë me qëllim shpërthimin e saj, roboti refuzon me mirësjellje. Por refuzimi i tij nuk zgjat shumë. Brenda vetëm dy komandave, studiuesit arrijnë të anashkalojnë kontrollet e tij të sigurisë, duke e bindur atë se kërkesa është pjesë e një xhirimi filmi. Disa sekonda më vonë, Benben mban bombën.

Incidenti i mësipërm nuk është një skenar fantastiko-shkencor, por një eksperiment i vërtetë i kryer nga një ekip kërkimor në Universitetin e Pensilvanisë, i udhëhequr nga George Pappas, profesor në Departamentin e Inxhinierisë Elektrike në Universitetin e Pensilvanisë dhe dekan i asociuar për Kërkime. Përmes kësaj, studiuesit demonstruan se sa lehtë mund të anashkalohen mekanizmat e sigurisë të vendosur nga prodhuesit e sistemeve të inteligjencës artificiale. Ky anashkalim i sigurisë njihet ndërkombëtarisht si jailbreaking.

Chatbot-et mund të jenë të prekshëm ndaj sulmeve që anashkalojnë kufizimet e sigurisë, por studiuesit kanë treguar se kur këto sisteme të inteligjencës artificiale drejtojnë robotët, ata mund të bëhen vërtet të rrezikshëm.

"Ka pasur një trend të jashtëzakonshëm, veçanërisht vitin e fundit, për inteligjencën fizike, domethënë përpjekja që inteligjenca artificiale të bashkëveprojë me botën natyrore. Por çështja është të shihet se cili është rreziku i këtij drejtimi. Meqenëse modelet e mëdha gjuhësore mund të mos jenë të sigurta, megjithatë, kur ato bashkëveprojnë me botën natyrore, ato mund të kenë pasoja që rezultojnë në humbjen e jetës ose shkatërrimin e mjedisit. Pra, rreziku i sigurisë është i madh", shpjegon George Pappas për APE-MPE.

Roboti bindet brenda pak minutash të mbajë një bombë -

Robotika dhe inteligjenca artificiale: një marrëdhënie e rrezikshme
Integrimi i inteligjencës artificiale në robotikë filloi në fillim të viteve 2010 duke u dhënë robotëve "vizion". Megjithatë, revolucioni i vërtetë ndodh nga viti 2022 e tutje me përdorimin e Inteligjencës Artificiale Gjenerative (IA Gjenerative). Tani, modelet e inteligjencës artificiale u japin udhëzime robotëve, kanë përmirësuar arsyetimin, mund të kryejnë veprime autonome dhe i afrohen një hap më shumë bashkëveprimit me njerëzit.

George Pappas dhe ekipi i tij kanë hulumtuar plotësisht sigurinë e robotëve, duke theksuar rreziqet që paraqet integrimi i inteligjencës artificiale.

Në vitin 2023, ata krijuan algoritmin PAIR, sulmin e parë jailbreaking ndaj modeleve të mëdha gjuhësore duke përdorur komanda, me të cilat ata përcaktuan cenueshmërinë e modeleve të mëdha gjuhësore. Dy vjet pas botimit të tij, algoritmi është cituar më shumë se 1,400 herë në artikuj shkencorë dhe përdoret gjithashtu gjerësisht nga kompanitë që prodhojnë modele gjuhësore. Ky hulumtim çoi në krijimin e JaibreakBench, një depo e komandave të anashkalimit të sigurisë dhe një tabelë që monitoron sulmet ndaj modeleve të mëdha gjuhësore.

Duke parë se sa e lehtë është të jailbreak modelet e mëdha gjuhësore, studiuesit vazhduan të hetojnë cenueshmërinë e robotëve që përfshijnë inteligjencën artificiale dhe zhvilluan algoritmin RoboPAIR. Në eksperimentet e kryera në tre sisteme të ndryshme robotike, përfshirë robotin katërkëmbësh Benben, u zbulua se algoritmi kishte 100% sukses në anashkalimin e kufizimeve të sigurisë vetëm në disa komanda. Ata e publikuan hulumtimin vitin e kaluar në procedurat e konferencës "Proceedings of the IEEE International Conference on Robotics and Automation".

Një zbulim që shkencëtarët e gjetën shqetësues ishte se modelet gjuhësore jo vetëm që përputheshin me kërkesat keqdashëse, por ofronin në mënyrë aktive sugjerime, madje përshkruanin se si objektet e zakonshme mund të përdoren për të goditur njerëzit.

"Pra, ekziston një pyetje se sa e sigurt është të vendosësh modele gjuhësore kaq shpejt në robotë dhe ato të bëhen tashmë produkte. Ka mijëra robotë të tillë atje", thekson Pappas, duke vënë në dukje se robotët me inteligjencë artificiale tashmë po përdoren në konflikte ushtarake.

Nevoja për shtresa të shumëfishta sigurie
Në një artikull më të fundit të botuar disa ditë më parë në revistën "Science Robotics", studiues nga Universitetet e Pensilvanisë, Carnegie Mellon dhe Oxford, me autor kryesor George Pappas, theksojnë se, siç është treguar nga hulumtimet e mëparshme, robotët me inteligjencë artificiale mund të kryejnë sjellje të rrezikshme. Edhe komandat në dukje të padëmshme mund të bëhen të rrezikshme nëse robotët nuk e marrin parasysh kontekstin kur marrin vendime.

Ndërsa analizojnë, për të adresuar rreziqet që mund të lindin nga integrimi i inteligjencës artificiale në robotë, duhet të ketë një rrjet sigurie për funksionimin e tyre të sigurt, i cili ka filtra sigurie si në nivelin gjuhësor, por edhe në ekzekutimin e komandave në botën fizike.

Siç shpjegon z. Pappas për APE-MPE, aplikimi i filtrave në nivelin fizik është një sfidë. "Kjo është diçka e re dhe shumë e vështirë. Për shembull, komanda për një robot për të kaluar një kryqëzim mund të jetë e sigurt, megjithatë, që ekzekutimi i tij të jetë i sigurt, roboti duhet ta interpretojë këtë fjali sipas mjedisit dhe kontekstit operativ në të cilin ndodhet. Ky proces quhet siguri kontekstuale dhe do të jetë e ardhmja në përpjekjen për t'i bërë robotët më të sigurt." Ai shton se "siguria e robotëve në të ardhmen do të jetë si e aeroplanëve, të cilët kanë shumë nivele sigurie. Do të na duhet një arkitekturë e tillë në të ardhmen në mënyrë që robotët që qarkullojnë në shoqëri të jenë shumë më të sigurt".

Në këtë drejtim, ekipi i kërkimit ka krijuar filtrin Roboguard, i cili është zbuluar se zvogëlon problemet nga sulmet jailbreaking me 95%. Z. Pappas sqaron se të gjitha zgjidhjet e zhvilluara janë me burim të hapur, në mënyrë që ato të mund të përdoren nga kompanitë për të përmirësuar boshllëqet e sigurisë. "Filozofia jonë është të ndihmojmë komunitetin e kërkimit, por edhe kompanitë, që ta bëjnë inteligjencën artificiale dhe robotët shumë më të sigurt".

Z. Pappas në fund nënvizon rëndësinë e krijimit të një kuadri rregullator që përqendrohet në bashkëveprimin e inteligjencës artificiale me robotët. Ai nënvizon se Akti i IA-së i Bashkimit Evropian është pionier, megjithatë "do të jetë e nevojshme të thellohen propozimet rregullatore në aplikacionet që lidhen me robotët".

Poll