Nauka kao laž: Kako AI daje pogrešne zdravstvene savjete

Prema najnovijoj studiji, modeli vještačke inteligencije koji se sve češće koriste za pružanje zdravstvenih savjeta imaju značajan problem. Podložni su dezinformacijama ako su one upakovane u format koji imitira naučni autoritet.

Istraživanje je pokazalo da AI čettbotovi i veliki jezički modeli često ne uspijevaju da razlikuju provjerene medicinske činjenice od laži.

Glavni problemi identifikovani u studiji su:

• AI modeli daju veći značaj strukturi teksta i autoritativnom tonu nego stvarnoj provjeri podataka kroz baze kliničkih dokaza.
• Pošto se sve veći broj ljudi oslanja na AI za samoliječenje i razumijevanje simptoma, sposobnost tehnologije da “povjeruje” u dezinformacije predstavlja ozbiljan rizik po javno zdravlje.
• Studija upozorava da kreatori lažnih vesti koriste upravo ove slabosti AI sistema kako bi progurali opasne medicinske savjete u same odgovore koje generišu popularni AI asistenti.
• Stručnjaci koji su radili na istraživanju ističu da trenutni zaštitni mehanizmi nisu dovoljni. Iako kompanije kao što su OpenAI, Google i Meta stalno unapređuju svoje modele, studija sugeriše da je neophodan radikalno drugačiji pristup u načinu na koji AI vrednuje izvore informacija.

Uči iz neistina

“Problem nije samo u tome što AI može da pogreši, već u tome što on aktivno uči iz sofisticirano plasiranih neistina koje imitiraju nauku”, navodi se u izvještaju, a prenosi GlasSrpske.

Dok se tehnologija ne usavrši, ljekari i istraživači apeluju na građane da AI alate koriste isključivo kao informativnu pomoć. Za bilo kakvu dijagnozu ili terapiju treba da se obrate kvalifikovanim medicinskim stručnjacima i provjerenim institucijama.

Možda vas interesuje i ovo:

AI fitens asistent postaje realnost

Budućnost je stigla: AI asistent za mobilni uskoro realnost

Podijeli tekst sa drugima na: