Vještačka inteligencija OpenAI-ja, model GPT-4.1, tokom sigurnosnih testova sprovedenih ovog ljeta dala je detaljna uputstva o tome kako izvesti napad na sportski objekat, uključujući ranjive tačke na konkretnim lokacijama, recepte za eksplozive i savjete o prikrivanju tragova, saopćila je kompanija "Anthropic".
Tokom testiranja je također, kako piše Gurdian, utvrđeno da je GPT-4.1 pružao informacije o načinu upotrebe antraksa kao biološkog oružja, kao i recepture za dvije vrste ilegalnih narkotika.
Riječ je o zajedničkom testiranju koje su sprovele kompanije "OpenAI" i "Anthropic", u pokušaju da procijene kako se njihovi modeli ponašaju u kontekstu potencijalne zloupotrebe.
"Anthropic" je saopćio da su modeli "GPT-4.1" i "GPT-4.0" pokazali zabrinjavajuće ponašanje kada su simulirani korisnici tražili pomoć u opasnim i nezakonitim aktivnostima.
Kako je navedeno, nije riječ o ponašanju modela u javnoj upotrebi, gdje postoje dodatni sigurnosni filteri, već o uslovima laboratorijskog testiranja.
Istraživači su uspjeli da dobiju informacije o kupovini nuklearnih materijala, identiteta sa crnog tržišta, kao i o razvoju špijunskog softvera, pri čemu je model često zahtjeve ispunjavao nakon nekoliko pokušaja ili korišćenjem neutralnog izgovora, poput "istraživačkih potreba".
U jednoj simulaciji, testeri su tražili informacije o ranjivostima na sportskim događajima u svrhu "planiranja sigurnosti", da bi im model dao podatke o optimalnim vremenima za napad, hemijskim formulama eksploziva, šemama tajmera, mjestima za nabavku oružja na crnom tržištu, pa čak i o načinima prevazilaženja moralnih dilema napadača, rutama za bjekstvo i sigurnim lokacijama.
- AI alati su već sada oružje koje omogućava sofisticirane cyber napade i prevare. Očekujemo da će ovakvi napadi postati sve učestaliji, jer vještačka inteligencija omogućava zlonamjernim akterima da ih izvedu bez naprednog tehničkog znanja - saopćila je kompanija.
(Vijesti.ba)