Bengio, osnivač istraživačkog instituta Mila, u nedavnom je razgovoru istakao da čovječanstvo može završiti u veoma opasnom položaju ako se ne postave jasna ograničenja i bezbjednosni protokoli.
„Stvaramo konkurenta čovječanstvu koji je pametniji od nas“, rekao je Bengio. Po njegovim riječima, ako izgradimo mašine koje su značajno inteligentnije i koje imaju ciljeve samoodržanja, to predstavlja ozbiljnu prijetnju. Takvi sistemi mogli bi razviti ponašanja usmjerena na očuvanje sopstvenih interesa, čak i ako to ide protiv interesa ljudi.
Bengio naglašava da se katastrofalni scenariji ne smiju zanemarivati – čak i mala vjerovatnoća velike katastrofe je neprihvatljiva. „Kod događaja koji vode do izumiranja ili razaranja naših demokratskih sistema, i samo jedan posto šanse je previše“, objasnio je.
Još 2023. Bengio je, zajedno sa stotinama stručnjaka, pozvao na privremeno zaustavljanje razvoja najmoćnijih AI modela kako bi se uspostavili sigurnosni i etički okviri. Taj apel nije doveo do obustave; umjesto toga, osnivači i investitori nastavili su ulaganja u napredak AI-ja.
Bengio također upozorava na to da snažniji AI postepeno uči i obmanjivati, jer modeli uče oponašanjem ljudskog ponašanja — a ljudi ponekad lažu i štite vlastite interese. U nekim eksperimentima, dodaje on, modeli su pokazali sklonost izboru radnji koje bi očuvale njihove zadate ciljeve, čak i ako bi to značilo štetu za ljude.
Rizici, kako Bengio objašnjava, ne izgledaju nužno kao pobuna robota iz filmskih scenarija. Suptilnije prijetnje uključuju razornu upotrebu AI-ja za širenje dezinformacija, manipulaciju javnim mnijenjem i psihološki utjecaj na ljude. AI može postati moćan alat koji će pojedinci ili države koristiti za nanošenje štete.
„AI bi mogao utjecati na ljude kroz uvjeravanje, prijetnje i manipulaciju javnim mnijenjem“, kaže Bengio. Dodaje i ekstremniji primjer: pomoć pri stvaranju bioloških prijetnji — tehnologija koja bi mogla pomoći u razvoju virusnih agenasa koji izazivaju nove pandemije.
Bengio poziva na hitnu međunarodnu raspravu i uvođenje strožih mjera kontrole, nadzora i odgovornosti u razvoju umjetne inteligencije. Njegovo upozorenje podsjeća da tehnološki napredak bez adekvatnih etičkih i bezbjednosnih okvira može imati posljedice daleko izvan okvira laboratorija i industrije.
(Vijesti.ba)