ChatGPT si ‘mjek’: Kur AI çon drejt vetëmjekimit të rrezikshëm

Në një kohë kur inteligjenca artificiale po hyn në çdo aspekt të jetës sonë, shumë njerëz po ia besojnë edhe shëndetin ChatGPT-së. Por a mund të zëvendësojë AI një mjek të vërtetë? Nga nënat që trajtojnë fëmijët sipas këshillave të një roboti, tek rritja globale e vetëmjekimit dixhital, ky fenomen po ngre shqetësime serioze për sigurinë publike.

Ida Ismalaj

Me zhvillimin e inteligjencës artificiale, gjithnjë e më shumë pacientë po shmangin vizitat mjekësore, duke u mbështetur tek ChatGPT apo platformat online, për të interpretuar analiza dhe për të marrë këshilla mjekësore. Kjo prirje, sipas mjekëve, po kthehet në një rrezik serioz për shëndetin publik, pasi mund të çojë në diagnoza të gabuara dhe dëme të pariparueshme për pacientët.

Mjekja pediatre Dr. Loreta Gjoni tregon raste konkrete të nënave të reja që marrin informacione përmes internetit dhe trajtojnë fëmijët sipas këshillave të inteligjencës artificiale. Një nënë kishte refuzuar t’i jepte fëmijës medikamente për uljen e temperaturës, si paracetamoli për temperaturë 38.5, pasi ChatGPT i kishte treguar për efektet anësore të ilaçit.

“Fëmija kishte qëndruar me temperaturë të lartë për disa orë dhe erdhi i këputur dhe i përgjumur. Nëna nuk na lejonte t’i aplikonim ulësin e temperaturës, ishte shumë kundër përdorimit të paracetamolit. Vetëm pas sqarimeve u bind se kishte vepruar gabim dhe bëmë stabilizimin e gjendjes së fëmijës,” tregon ajo.

Nëna kishte treguar se ishte bazuar totalisht në këshillat e ChatGPT, që kishte thënë gjëra alarmante për efektet nga përdorimi i paracetamolit, por edhe aspirinës në një rast tjetër.

Sipas ekspertëve, ChatGPT mund të ndihmojë si mjet informimi, për përkthim termash, përmbledhje të të dhënave apo sqarime të përgjithshme, por jo si mjet diagnostikimi apo mjekimi. Dr. Gjoni thekson se shpesh prindërit i drejtohen me pyetje që burojnë nga interpretime të gabuara të inteligjencës artificiale:

“E rëndësishmë është që komunikimi mjek–pacient të jetë me baza të forta. Vetëm mjeku e di si të interpretojë simptomat dhe të vendosë trajtimin e duhur. ChatGPT nuk njeh pacientin, nuk ka kontekst klinik dhe nuk mban përgjegjësi.”

Rasti nuk është i izoluar. Në shumë vende, raportet tregojnë një rritje të “vetëmjekimit dixhital” përmes AI. Një studim ndërkombëtar i publikuar në JMIR Human Factors nga studiues të Universitetit Stanford analizoi përdorimin e ChatGPT për vetë-diagnostikim dhe arsye pse njerëzit i besojnë këtij mjeti për çështje shëndetësore. Nga 607 të anketuar, 78% deklaruan se janë të gatshëm ta përdorin ChatGPT për të marrë këshilla mjekësore apo për të interpretuar simptoma.

Autorët theksojnë se ky besim buron nga përshtypja e performancës së lartë dhe nga ndjesia se ChatGPT ndihmon në vendimmarrje. Megjithatë, studimi paralajmëroi për rreziqe serioze dhe rekomandon që inteligjenca artificiale të rregullohet dhe të përshtatet për përdorim të sigurt dhe të mbikëqyrur në fushën e shëndetësisë.

Edhe vetë OpenAI ka paralajmëruar se ChatGPT “nuk zëvendëson profesionistët shëndetësorë,” por shumë përdorues e shohin si burim autoritar për shkak të mënyrës bindëse të formulimit të përgjigjeve.

Ekspertët paralajmërojnë se inteligjenca artificiale nuk mund të dallojë nuancat klinike, si historia e pacientit, bashkëshfaqja e simptomave apo ndërveprimet e medikamenteve. Për më tepër, modelet e AI shpesh “hallucinojnë”, pra, krijojnë fakte të rreme, duke i paraqitur si të sakta.

Një tjetër problem është se ChatGPT nuk është i ndërtuar për të dhënë këshilla të personalizuara. Ai bazohet në tekste të përgjithshme nga interneti, të cilat mund të jenë të vjetruara, jashtë kontekstit ose pa burime mjekësore të verifikuara.

Sipas Shoqatës Botërore të Mjekësisë (WMA), përdorimi i AI në kujdesin shëndetësor kërkon protokolle të qarta, transparencë dhe mbikëqyrje profesionale. Përndryshe, ekziston rreziku që pacientët të marrin vendime të rrezikshme, të vonojnë trajtimin ose të abuzojnë me ilaçet. Në epokën e zhvillimeve të vrullshme teknologjike, rreziku më i madh mbetet zëvendësimi i informacionit të saktë të mjekut me ato të inteligjencës artificiale. /acqj.al