Inteligența artificială este mai răspândită în domeniul sănătății decât vă puteți da seama. Ar putea fi chiar o parte a următoarei colonoscopii, o procedură de depistare a cancerului colorectal.
Dr. Joe Frasca, un gastroenterolog, și echipa sa de la RUSH University Medical Center au acum sprijin suplimentar în noile lor suite de endoscopie, sub forma unui sistem informatic numit „GI Genius”.
„De fapt, evaluează aceeași imagine pe care o vedem pe ecran. Și a fost programat într-un mod în care poate detecta de fapt polipii pe care îi căutăm”, a spus Frasca.
Alimentat de inteligența artificială, sistemul informatic afișează o casetă verde pe monitor atunci când detectează ceva la care chirurgul ar trebui să se uite îndeaproape.
„Îl văd ca pe un instrument suplimentar pentru a ne asigura că nu ne scăpă ceva”, a spus Frasca, spunând că vede puține dezavantaje, dacă există, pentru asistentul AI. „Tehnologia vede doar ceea ce vezi tu. Deci mai trebuie să faci o treabă bună. Încă trebuie să fii, știi, ochii pe ecran, dar este acolo pentru a te ajuta.”
„Geniul GI” dintr-o suită de endoscopie este o aplicație practică AI, dar algoritmii dictează mult mai mult în medicină.
Platforma globală de date, Statista, a evaluat piața de asistență medicală cu inteligență artificială la 11 miliarde de dolari în 2021 și a estimat că va avea o valoare de 187 de miliarde de dolari în anul 2030.
„Inteligenta artificiala poate fi un prieten grozav, dar poate fi si ceva care ne poate face rau”, a spus dr. Marshall Chin, profesor de etică a asistenței medicale Richard Parrillo în cadrul Departamentului de Medicină de la Universitatea din Chicago.
Chin este un expert în etica asistenței medicale și spune că un pericol cu AI este riscul de a exacerba disparitățile rasiale care există deja în medicină.
Chin se referă la un studiu distinctiv, realizat cu câțiva ani în urmă, care a descoperit că o formulă defectuoasă îi împiedica pe oamenii de culoare să obțină servicii suplimentare oferite de unele spitale.
„Unul dintre algoritmii majori pe care îi folosesc companiile comerciale a fost părtinitor. Și astfel încât, din nou, dacă ești afro-american, a trebuit să fii mai bolnav pentru a te califica pentru programul de management de caz decât dacă ai fi o persoană albă”, a spus Chin.
De aceea, Chin insistă pentru transparență.
„Deci știm cum au fost dezvoltați acești algoritmi. Datele au fost părtinitoare sau nu? Algoritmii sunt părtinitori sau nu?” spuse Chin.
Când vine vorba de supraveghere, Chin admite că aceasta este una dintre provocări în acest moment.
„Este ca în vestul sălbatic unde nu există standarde clare”, a spus Chin. „Trebuie să avem toți partenerii pentru a se reuni, industria privată, guvernul, pacienții, comunitățile trebuie să fie o masă în mare măsură. Profesioniștii din domeniul sănătății, oamenii care creează acești algoritmi, așa că toată varietatea de oameni trebuie să fie la masă pentru a veni cu cele mai bune soluții.”
Între timp, Chin îi îndeamnă pe toată lumea să pună întrebări despre îngrijirea lor, inclusiv dacă AI face parte din procesul decizional al furnizorului.
„Dacă nu are sens pentru tine, nu îl înțelegi, trebuie să vorbești”, a spus Chin.