Davanje zdravstvenih podataka četbotu je užasna ideja
2026-03-11 - 09:08
Svake nedjelje, više od 230 miliona ljudi traži od ChatGPT-ja savjete o zdravlju i blagostanju, pokazuju podaci kompanije "OpenAI". U kompaniji kažu da mnogi vide četbota kao „saveznika“ koji će im pomoći da se snađu pri plaćanju ili ostvarivanju osiguranja, podnošenju raznih zahtjeva i da se osposobe da se izbore za svoja prava. Zauzvrat, kompanija se nada da ćete vjerovati njenom četbotu i otkriti mu detalje o vašim dijagnozama, ljekovima, rezultatima testova i drugim privatnim medicinskim informacijama. Iako razgovor sa četbotom može početi da liči na onaj iz ljekarske ordinacije, on to nikako nije. Tehnološke kompanije ne podliježu istim zakonima kao medicinski pružaoci usluga. Stručnjaci kažu za sajt The Verge da bi bilo mudro da pažljivo razmotrite da li želite da predate svoj karton vještačkoj inteligenciji na uvid. Zdravlje i rad na sebi u cilju unapređenja fizičkog i mentalnog stanja ubrzano se izdvajaju kao ključno bojno polje za laboratorije vještačke inteligencije i glavni test koliko su korisnici spremni da puste ove sisteme u svoje živote. Četbot ne smije da bude izabrani ljekar Prošlog mjeseca, neki od najvećih igrača u industriji koja razvija vještačku inteligenciju otvoreno su pokušali da se probiju na teren medicine. "OpenAI" je predstavio ChatGPT Health, poseban odjeljak u okviru bota ChatGPT, dizajniran tako da korisnici postavljaju pitanja u vezi sa zdravljem u, kako navode, bezbjednijem i personalizovanijem okruženju. "Anthropic" je predstavio Claude for Healthcare, proizvod za koji kažu da ga mogu koristiti bolnice, zdravstveni radnici i potrošači. Primjetno je da je odsutan „Gugl“, čiji je četbot Gemini jedan od najkompetentnijih i najšire korišćenih AI alata na svijetu, iako je kompanija najavila ažuriranje svog MedGemma medicinskog modela za programere zasnovanog na VI. "OpenAI" aktivno podstiče korisnike da dijele osjetljive informacije poput sadržaja medicinskih kartona, laboratorijskih rezultata i podataka o zdravlju i fizičkoj kondiciji iz aplikacija kao što su Apple Health, Peloton, Weight Watchers i MyFitnessPal sa alatom ChatGPT Health u zamjenu za dublji uvid. Eksplicitno se navodi da će zdravstveni podaci korisnika biti povjerljivi i da se neće koristiti za obuku modela zasnovanog na VI, i da su preduzeti koraci da se podaci obezbijede i zaštiti privatnost. "OpenAI" kaže da će se ChatGPT Health razgovori takođe održavati u posebnom dijelu aplikacije, a korisnici će moći da vide ili obrišu Health „istoriju“ u bilo kom trenutku. Alati zasnovani na VI mogu da pomognu i ljekarima i pacijentima Uvjeravanja kompanije "OpenAI" da će čuvati osjetljive podatke korisnika u velikoj mjeri su podržane pokretanjem identičnog proizvoda sa strožim bezbjednosnim protokolima gotovo istovremeno kada i ChatGPT Health. Alat, ChatGPT for Healthcare (ChatGPT za zdravstvenu dobrobit), dio je šireg asortimana proizvoda koji su namijenjeni podršci preduzećima, bolnicama i klinikama koji direktno rade sa pacijentima. Funkcionalnosti koje "OpenAI" predlaže uključuju pojednostavljivanje administrativnih poslova poput izrade izvještaja ljekara specijalista i otpusnih lista, kao i pomoć ljekarima u prikupljanju najnovijih medicinskih dostignuća kako bi se poboljšala njega pacijenata. Kao i kada su u pitanju drugi proizvodi namijenjeni za poslovnu upotrebu koji su u ponudi kompanije "OpenAI", obezbijeđen je veći stepen zaštite nego što je to slučaj sa opštim potrošačima i posebno sa korisnicima besplatnih modela. Takođe, "OpenAI" kaže da su proizvodi dizajnirani tako da poštuju pravila o privatnosti koje se zahtijevaju u medicinskom sektoru. S obzirom na slična imena i datume lansiranja – ChatGPT for Healthcare je najavljen dan nakon ChatGPT Health-a – lako je pomiješati ova dva proizvoda i pretpostaviti da proizvod namijenjen potrošačima ima isti nivo zaštite kao i onaj koji je za klinike. Međutim, koju god garanciju bezbjednosti od dvije navedene da pogledamo, ona je daleko od nepogrješive. Korisnici alata poput ChatGPT Health često su nedovoljno zaštićeni od kršenja regulativa ili neovlašćene upotrebe bez obzira na ono što je navedeno u uslovima korišćenja i politikama privatnosti, kažu stručnjaci za portal The Verge. Pošto većina država nije usvojila sveobuhvatne zakone o privatnosti, zaštita podataka za alate zasnovane na vještačkoj inteligenciji poput ChatGPT Health-a „u velikoj mjeri zavisi od toga šta kompanije obećavaju u svojim politikama privatnosti i uslovima korišćenja“, kaže Sara Gerke, profesorka prava na Univerzitetu Ilinois u regionu Urbana-Šampejn. Sve što imate je riječ "OpenAI"-ja Čak i ako vjerujete obećanju kompanije da će zaštititi vaše podatke, a OpenAI kaže da podrazumijevano šifruje zdravstvene podatke, kompanija bi mogla da se predomisli. „Iako ChatGPT u važećim uslovima korišćenja navodi da će ove podatke čuvati povjerljivim i da ih neće koristiti za treniranje svojih modela, niste zaštićeni zakonom i dozvoljeno je da se uslovi korišćenja mijenjaju tokom vremena“, objašnjava Hana van Kolfšuten, istraživačica digitalnog zdravstvenog prava na Univerzitetu u Bazelu u Švajcarskoj. „Moraćete da vjerujete da ChatGPT to ne čini.“ Karmel Šahar, asistentkinja kliničkog profesora prava na Pravnom fakultetu Harvard, ističe da postoji veoma ograničena zaštita: „Dio toga je njihova riječ, ali uvijek mogu da promijene politiku privatnosti“. Uvjeravanja da je proizvod u skladu sa zakonima o zaštiti podataka koji regulišu sektor zdravstvene zaštite, kao što je Zakon o prenosivosti i odgovornosti zdravstvenog osiguranja (Health Insurance Portability and Accountability Act – HIPAA), takođe ne bi trebalo da nude mnogo utjehe, kaže Šahar. Iako su ti zakoni odlični kao neka vrsta vodiča, malo će pomoći ako kompanija koja se dobrovoljno pridržava propisa to ne učini, objašnjava Šaharova i dodaje da dobrovoljno nije isto što i obavezno poštovanje propisa. Kada je riječ o ovakvim podacima, u pitanju je više od same privatnosti. Postoji razlog zašto je medicina strogo regulisana oblast – greške mogu biti opasne, čak i smrtonosne. Ima bezbroj primjera koji pokazuju da četbotovi samouvjereno iznose lažne ili obmanjujuće zdravstvene informacije, kao kada je čovjek razvio rijetko stanje nakon što je pitao ChatGPT o uklanjanju soli iz ishrane, a četbot mu je predložio da so zamijeni natrijum bromidom, koji se nekada koristio kao sedativ. Ili kada je „Guglova“ funkcija Google AI Overviews pogrešno savetovala ljudima sa rakom pankreasa da izbjegavaju hranu sa visokim sadržajem masti, što je upravo suprotno od onoga što bi trebalo da rade. "OpenAI" eksplicitno navodi da je njihov alat namijenjen potrošačima dizajniran tako da je potrebna bliska saradnja sa ljekarima i da nikako nije namijenjen za uspostavljanje dijagnoze i sprovođenja liječenja. Alati namijenjeni za dijagnozu i liječenje označeni su kao medicinski uređaji i podliježu mnogo strožim propisima, kao što su klinička ispitivanja kako bi se dokazalo da rade onako kako je proizvođač opisao i praćenje bezbjednosti primjene. Da li je potrebna regulativa kao za medicinske uređaje Iako su u "OpenAI"-u potpuno svjesni i otvoreni da se ChatGPT mnogo koristi za traženje informacija o zdravlju i blagostanju korisnika (sjetimo se 230 miliona ljudi koji svake nedjelje traže savjet), tvrdnja kompanije da nije namijenjen da se koristi kao medicinski uređaj ima veliku težinu kod regulatora, objašnjava profesorka Gerke. „Navedena namjena proizvođača je ključni faktor u klasifikaciji medicinskih uređaja“, kaže profesorka, što znači da će kompanije koje kažu da alati nisu za medicinsku upotrebu u velikoj mjeri izbeći nadzor čak i ako se proizvodi koriste u medicinske svrhe. To dovodi u fokus izazove koje regulatorna tijela mogu da imaju sa tehnologijom poput četbotova. Za sada, makar, ovakvo deklarisanje proizvoda sa negiranjem potrebe za odgovornošću drži ChatGPT Health van djelokruga regulatora poput Uprave za hranu i ljekove, ali Hana van Kolfšuten kaže da je sasvim razumno pitati se da li bi alati poput ovog zaista trebalo da budu klasifikovani kao medicinski uređaji i regulisani kao takvi. Važno je poroučiti kako se proizvod koristi, kao i šta kompanija govori, objašnjava Van Kolfšuten. Kada je najavio proizvod, "OpenAI" je predložio da se ChatGPT Health koristi za tumačenje laboratorijskih rezultata, praćenje zdravstvenog ponašanja ili kao pomoć pri donošenju odluka o liječenju. Ako proizvod to radi, moglo bi se razumno tvrditi da bi mogao da potpadne pod američku definiciju medicinskog uređaja, kaže istraživačica, sugerišući da bi jači regulatorni okvir mogao biti razlog zašto još nije dostupan u Evropi. Uprkos tvrdnji da ChatGPT nije predviđen za postavljanje dijagnoza ili predlaganje liječenja, "OpenAI" je uložio mnogo truda da dokaže da je četbot prilično sposoban medicinski uređaj, kao i da podstakne korisnike da ga koriste za zdravstvene upite. Kompanija je istakla zdravlje kao glavnu oblast upotrebe prilikom pokretanja verzije GPT-5, a izvršni direktor Sem Altman je čak pozvao pacijentkinju oboljelu od raka i njenog muža na scenu da govore o tome kako joj je alat pomogao da razumije svoju dijagnozu. Kompanija kaže da procjenjuje medicinsku sposobnost ChatGPT-ja u odnosu na standard koji je sama razvila sa više od 260 ljekara iz desetina specijalizacija, alat HealthBench, koji „testira koliko dobro modeli vještačke inteligencije funkcionišu u realnim zdravstvenim scenarijima“, iako kritičari napominju da nije baš transparentan. Druge studije – često male, ograničene ili one koje sprovodi sama kompanija – takođe nagovještavaju medicinski potencijal ChatGPT-ja, pokazujući da u nekim slučajevima može da položi ispite za medicinsku licencu, bolje komunicira sa pacijentima i da može da nadmaši ljekare u dijagnostikovanju bolesti, kao i da pomogne ljekarima da prave manje grešaka kada ga koriste kao alat. Kada ćemo imati povjerenja u četbotove kao u domove zdravlja Napori "OpenAI"-a da predstavi ChatGPT Health kao autoritativan izvor zdravstvenih informacija takođe bi mogli da potkopaju sve pokušaje da skine odgovornost sa sebe koji uključuju savjetovanje korisnika da alat ne upotrebljavaju u medicinske svrhe, kaže Van Kolfšuten. „Kada sistem ostavlja utisak personalizovanog i ima ovu auru autoriteta, tvrdnje kompanije da alat nije namijenjen u medicinske svrhe neće nužno dovesti u pitanje povjerenje ljudi u sistem.“ Kompanije poput "OpenAI"-a i „Antropika“ nadaju se da će imati to povjerenje dok se bore za istaknuto mjesto na onome što vide kao sljedeće veliko tržište za vještačku inteligenciju. Brojke, koje pokazuju koliko ljudi već koristi četbotove za pitanja o zdravlju, sugerišu da su VI kompanije možda na pravom putu, a s obzirom na velike nejednakosti u zdravstvu i teškoće sa kojima se mnogi suočavaju u pristupu čak i osnovnoj njezi, ovo bi mogla da bude dobra stvar. Barem bi mogla biti, ako je to povjerenje dobro utemeljeno. Povjeravamo svoje privatne podatke zdravstvenim ustanovama jer je ta profesija zaslužila to povjerenje. Još nije jasno da li je industrija sa reputacijom brzog kretanja i lažnog razvoja zaslužila isto.