Prema najnovijoj studiji, modeli vještačke inteligencije koji se sve češće koriste za pružanje zdravstvenih savjeta imaju značajan problem. Podložni su dezinformacijama ako su one upakovane u format koji imitira naučni autoritet.
Istraživanje je pokazalo da AI čettbotovi i veliki jezički modeli često ne uspijevaju da razlikuju provjerene medicinske činjenice od laži.
Glavni problemi identifikovani u studiji su:
• AI modeli daju veći značaj strukturi teksta i autoritativnom tonu nego stvarnoj provjeri podataka kroz baze kliničkih dokaza.
• Pošto se sve veći broj ljudi oslanja na AI za samoliječenje i razumijevanje simptoma, sposobnost tehnologije da “povjeruje” u dezinformacije predstavlja ozbiljan rizik po javno zdravlje.
• Studija upozorava da kreatori lažnih vesti koriste upravo ove slabosti AI sistema kako bi progurali opasne medicinske savjete u same odgovore koje generišu popularni AI asistenti.
• Stručnjaci koji su radili na istraživanju ističu da trenutni zaštitni mehanizmi nisu dovoljni. Iako kompanije kao što su OpenAI, Google i Meta stalno unapređuju svoje modele, studija sugeriše da je neophodan radikalno drugačiji pristup u načinu na koji AI vrednuje izvore informacija.
Uči iz neistina
“Problem nije samo u tome što AI može da pogreši, već u tome što on aktivno uči iz sofisticirano plasiranih neistina koje imitiraju nauku”, navodi se u izvještaju, a prenosi GlasSrpske.
Dok se tehnologija ne usavrši, ljekari i istraživači apeluju na građane da AI alate koriste isključivo kao informativnu pomoć. Za bilo kakvu dijagnozu ili terapiju treba da se obrate kvalifikovanim medicinskim stručnjacima i provjerenim institucijama.
Možda vas interesuje i ovo: