
Lumea este intr-o continua schimbare, iar in ultimii ani tehnologia a dus la o accelerare incredibila a ritmului. Inteligenta artificiala a cunoscut o dezvoltare fara precedent, fiind incorprata in varii domenii, inclusiv in cercetare si medicina. De curand, Elon Musk, recunoscut pentru viziunea sa indrazneata, a propus utilizarea unui chatbot AI pentru a pune diagnostice online, pe baza rezultatelor investigatiilor medicale.
Mai exact, antreprenorul american le-a solicitat utilizatorilor retelei sociale X (fosta Twitter), pe care o detine, sa incarce imagini cu testele lor imagistice, precum RMN, CT, radiografii sau tomografii cu emisie de pozitroni (PET), in chatbot-ul pe care incearca sa-l dezvolte, numit Grok. Acesta ar urma sa invete sa interpreteze rezultatele testelor medicale si sa stabileasca diagnostice. Cu alte cuvinte, a lansat ideea inlocuirii rolului medicilor.
Ei bine, potrivit expertilor, desi inovatoare, initiativa ridica multiple intrebari etice si tehnice.
Provocarile tehnice ale AI in medicina
Chiar daca tehnologia AI a demonstrat progrese in diverse domenii, aplicarea acesteia in diagnosticare nu este inca la nivelul dorit, spun specialistii. „A existat deja o anumita experienta cu inteligenta artificiala si voi spune doar ca a fost un drum lung pana la precizie”, a afirmat Arthur L. Caplan, expert in etica medicala al Scolii de Medicina Grossman de la New York University (NYU), din S.U.A., intr-o luare de pozitie pe platforma Medscape.
In timp ce Musk sugereaza ca, printr-o baza larga de date, AI ar putea invata sa fie mai „priceput” in stabilirea diagnosticului, Caplan il contrazice. „Daca iei informatii aleatorii trimise de o subpopulatie, care nu reprezinta intreaga populatie, vei obtine multe concluzii false. Desi am vazut unele succese in utilizarea AI pentru analizarea probelor de sange, am vazut si cum AI a interpretat gresit scanarile mamare, testele de tuberculoza si testele Papanicolau”, a atentionat eticianul.
Probleme de etica medicala

Potrivit expertului, inteligenta artificiala nu ar avea cum sa preiea o sarcina atat de complexa si dificila, in aceste conditii. „AI nu este nici pe departe pregatita pentru prime time. Elon Musk probabil va fi de acord si va spune: «Acesta este exact motivul pentru care vreau sa imi trimiteti aceste informatii, pentru ca trebuie sa imbunatatim lucrurile; trebuie sa ne asiguram ca le facem mai bine»”, a comentat Caplan.
In continuare, el a enumerat si o serie de aspecte care contravin normelor etice. „In primul rand, daca doar mergi pe X si spui «Trimite-mi imagini», nu stii cine trimite imaginile. Nu stii daca sunt corecte. Nu stii daca persoanele care le folosesc sunt reprezentative pentru populatie. Nu este o sursa de date fiabila pentru a invata despre diagnosticele medicale. Trebuie sa ai un esantion adecvat. Trebuie sa te asiguri ca nu primesti o gramada de mostre de la barbati albi sanatosi sau tineri, care sunt pe X mai mult decat altii, daca asta e adevarat. A cere oamenilor sa-si trimita propriile rezultate ale testelor – cine stie daca sunt corecte sau daca spun adevarul? Sa hranesti Grok cu informatii eronate nu va produce o alternativa inteligenta la un radiolog sau alta forma de diagnostician medical. Astfel, este necesar un esantion reprezentativ si controlat de date pentru a antrena un sistem AI, care sa fie fiabil in ceea ce priveste diagnosticarea”, a explicat specialistul.
Altfel spus, fara o baza de date valida, antrenarea unui sistem AI care sa poata fi folosita in diagnosticare nu va duce decat la rezultate inexacte si riscante.
Problemele de confidentialitate si securitate a datelor
Un alt aspect ingrijorator al propunerii tine de protectia datelor personale ale utilizatorilor. Intr-o era digitala in care confidentialitatea datelor este un subiect intens discutat, utilizatorii nu au nicio garantie ca informatiile lor medicale vor fi protejate. „Musk este legat de domeniul sanatatii, iar daca ii trimiteti teste imagistice si date medicale, nu exista promisiuni clare de confidentialitate absoluta”, a subliniat Caplan.
Problemele legate de confidentialitatea datelor nu sunt noi. „Asemenea 23andMe, compania genetica care a cerut oamenilor sa trimita probe de ADN, s-a dovedit a nu fi capabila sa protejeze confidentialitatea atunci cand a intrat in faliment. Nu exista nicio garantie ca trimitandu-ti imaginile si scanarile ca pacient vei avea vreo forma de protectie pe viitor, in cazul in care terte parti vor dori sa verifice ce a acumulat Grok”, a adaugat Caplan.
AI poate sa ajute, nu sa inlocuiasca medicul
In timp ce initiativele tehnologice ale lui Musk sunt adesea revolutionare, aceasta propunere pentru utilizarea AI in diagnosticare ridica mari semne de intrebare. Desi tehnologia AI ar putea ajuta la diagnosticare, ea nu este pregatita pentru a inlocui complet medicii. „Daca nu exista un baseline si oamenii trimit la intamplare teste medicale, nu vei avea un diagnostician AI corect; vei avea un haos”, a avertizat Caplan.
Avand in vedere toate aceste aspecte, specialistul indeamna oamenii sa nu dea curs unor astfel de solicitari. In opinia sa, tehnologia ar putea aduce beneficii in viitor, dar pentru a ajunge la un punct in care AI sa fie un partener valoros in procesul de diagnosticare, trebuie sa fie respectate standarde riguroase de confidentialitate si calitate a datelor, precum si o abordare mai responsabila a implicarii financiare.