Zna ChatGPT postaviti diagnozo? Previdno, najnovejša raziskava dokazuje, da ne zna

VA
09.02.2026 21:58

"Okoli modelov umetne inteligence vlada veliko navdušenje, vendar preprosto niso pripravljeni nadomestiti zdravnika," poudarja soavtorica študije, v kateri je sodelovalo 1300 ljudi.

Do knjižnice priljubljenih vsebin, ki si jih izberete s klikom na ♥ v članku, lahko dostopajo samo naročniki paketov Večer Plus in Večer Premium.
NAROČI SE
Glasovno poslušanje novic omogočamo samo naročnikom paketov Večer Plus in Večer Premium.
NAROČI SE
Poslušaj
Fotografija je ilustrativna.

Orodja umetne inteligence, kot je priljubljeni ChatGPT, niso dobra pri postavljanju diagnoz, je pokazala najnovejša raziskava, objavljena v reviji Nature Medicine. Izvedli so jo na vzorcu 1300 ljudi v Združenem kraljestvu in izkazalo se je, da več modelov umetne inteligence, kot so ChatGPT, Llama (Meta) ali Command R+, ne dosega boljših rezultatov kot običajno spletno iskanje razlage simptomov.

"Okoli modelov umetne inteligence vlada veliko navdušenje, vendar preprosto niso pripravljeni nadomestiti zdravnika," je v sporočilu za javnost poudarila Rebecca Payne, raziskovalka z Univerze v Oxfordu in soavtorica študije.

Udeleženci raziskave niso bili dejansko bolni. Sodelovali so v nekakšni igri vlog: raziskovalci so jim dodelili deset različnih sklopov simptomov, o katerih v medicinski skupnosti obstaja soglasje o pripadajoči diagnozi, piše Index.hr. Le tretjini udeležencev je bila postavljena pravilna diagnoza. To ni nič bolje kot v skupini, ki se je morala zadovoljiti s klasičnim spletnim iskanjem.

Profimedia

Kljub temu so nekatere raziskave pokazale, da lahko ChatGPT in drugi modeli uspešno opravijo medicinske izpite: postavljeni v vlogo študenta medicine, denimo pred vprašanji z več možnimi odgovori, se sistemi umetne inteligence dobro znajdejo.

Vendar nova raziskava kaže, da se zadeve spremenijo, ko gre za interakcijo z resničnimi ljudmi, ki so lahko premalo natančni pri opisu svojih simptomov in ne navedejo vseh ključnih elementov, navajajo raziskovalci. Kljub temu je treba upoštevati tudi, da je v raziskavi šlo za fiktivne scenarije in fiktivne diagnoze. Uporabljeni modeli so bili medtem v veliki meri tudi že zamenjani z učinkovitejšimi različicami.

Toda to je zelo pomembna raziskava, ki poudarja, da klepetalni roboti predstavljajo resna medicinska tveganja za širšo javnost, je ocenil David Shaw, strokovnjak za bioetiko z Univerze v Maastrichtu na Nizozemskem.

Želite dostop do Večerovih digitalnih vsebin?
Izberite digitalni paket po vaših željah in si zagotovite dostop do spletnih vsebin na vecer.com že za 1,49 €
Želim dostop

povezani prispevki

Sposojene vsebine

Več vsebin iz spleta