
Orodja umetne inteligence, kot je priljubljeni ChatGPT, niso dobra pri postavljanju diagnoz, je pokazala najnovejša raziskava, objavljena v reviji Nature Medicine. Izvedli so jo na vzorcu 1300 ljudi v Združenem kraljestvu in izkazalo se je, da več modelov umetne inteligence, kot so ChatGPT, Llama (Meta) ali Command R+, ne dosega boljših rezultatov kot običajno spletno iskanje razlage simptomov.
"Okoli modelov umetne inteligence vlada veliko navdušenje, vendar preprosto niso pripravljeni nadomestiti zdravnika," je v sporočilu za javnost poudarila Rebecca Payne, raziskovalka z Univerze v Oxfordu in soavtorica študije.
Udeleženci raziskave niso bili dejansko bolni. Sodelovali so v nekakšni igri vlog: raziskovalci so jim dodelili deset različnih sklopov simptomov, o katerih v medicinski skupnosti obstaja soglasje o pripadajoči diagnozi, piše Index.hr. Le tretjini udeležencev je bila postavljena pravilna diagnoza. To ni nič bolje kot v skupini, ki se je morala zadovoljiti s klasičnim spletnim iskanjem.

Kljub temu so nekatere raziskave pokazale, da lahko ChatGPT in drugi modeli uspešno opravijo medicinske izpite: postavljeni v vlogo študenta medicine, denimo pred vprašanji z več možnimi odgovori, se sistemi umetne inteligence dobro znajdejo.
Vendar nova raziskava kaže, da se zadeve spremenijo, ko gre za interakcijo z resničnimi ljudmi, ki so lahko premalo natančni pri opisu svojih simptomov in ne navedejo vseh ključnih elementov, navajajo raziskovalci. Kljub temu je treba upoštevati tudi, da je v raziskavi šlo za fiktivne scenarije in fiktivne diagnoze. Uporabljeni modeli so bili medtem v veliki meri tudi že zamenjani z učinkovitejšimi različicami.
Toda to je zelo pomembna raziskava, ki poudarja, da klepetalni roboti predstavljajo resna medicinska tveganja za širšo javnost, je ocenil David Shaw, strokovnjak za bioetiko z Univerze v Maastrichtu na Nizozemskem.







