fbpx

Umetna inteligenca lahko zazna pacientovo raso, ne da bi bila za to programirana – to zanika trditev, da je rasa “družbeni konstrukt”

Foto: Freepik

Spletna stran Kavarna Hayek je objavila članek z naslovom “Kaj se zgodi, če skupina znanstvenikov, ki si želi avtomatizacijo interpretacij rentgenskih slik, samoučeči umetni inteligenci (AI) raso predstavi “kot družbeni, politični in pravni konstrukt”? Šokirane (in zgrožene) znanstvenike. Ta se nanaša na nedavno študijo raziskovalne skupine, ki je iz rezultatov svoje študije ugotovila, da umetna inteligenca lahko zazna pacientovo raso iz  rentgenskega posnetka, čeprav za to ni bila programirana.

V svojem članku Kavarna Hayek navaja članek portala Quillette “Več kot le družbeni konstrukt”, kjer so navedeni številni primeri, ko je prepričanje, da rasa nima biološke podlage, ogrozilo življenja bolnikov. Da bi se izognile “sistemskemu rasizmu in v imenu politične korektnosti so številne ameriške ustanove (Ameriško zdravniško združenje ali Ameriška akademija za pediatrijo) v zadnjih letih sprejele tezo, da je rasa “družbeni konstrukt”, namenjen marginalizaciji in hierarhični rasni kvalifikaciji in ne biološka danost, temu pa je podlegla tudi večina medicinskih raziskav. Nedavna raziskava in rezultati preciznosti umetne inteligence pa kažejo drugačno sliko, ki je precej neverjetna.

Dajanje napačnih navodil algoritmom je kritičen problem. Ko umetna inteligenca odraža nezavedne misli, rasizem in pristranskost ljudi, ki so ustvarili te algoritme, lahko s tem povzroči resno škodo. Po poročanju MIT News so računalniški programi v preteklosti pri temnopoltih obdolžencih označili dvakrat večjo verjetnost ponovitve kaznivega dejanja kot pri belcih. Ko je umetna inteligenca uporabila stroške kot približek zdravstvenih potreb, je temnopolte paciente označila za bolj zdrave kot enako bolne bele, saj je bilo zanje porabljenega manj denarja. Celo umetna inteligenca se je v tem primeru glede na navodila zanašala na uporabo “škodljivih” stereotipov.

Občutljive funkcije sicer lahko odstranimo ali prilagodimo. Kaj pa se zgodi, ko to ni dovolj?
Primeri pristranskosti pri obdelavi naravnega jezika so neomejeni – vendar so znanstveniki MIT raziskali še eno pomembno, večinoma premalo raziskano modalnost: rentgenske slike. Z uporabo zasebnih in javnih naborov podatkov je skupina znanstvenikov ugotovila, da lahko umetna inteligenca samo na podlagi rentgenskih slik natančno napove raso bolnikov, s katero se identificirajo sami. Z uporabo slikovnih podatkov rentgenskih posnetkov prsnega koša, rentgenskih posnetkov okončin, CT-pregledov prsnega koša in mamografov je skupina usposobila model globokega učenja za identifikacijo rase kot bele, črne ali azijske – čeprav same slike niso vsebovale izrecne omembe pacientove rase. To je podvig, ki ga ne zmorejo niti najbolj izkušeni zdravniki, in ni jasno, kako je modelu to uspelo.

Da bi rešili to enigmo, so izvedli vrsto poskusov in preučili spremenljivke kot so razlike v anatomiji, gostoti kosti, ločljivost slik, modeli pa so še vedno prevladovali z visoko sposobnostjo zaznavanja rase iz rentgenskih žarkov prsnega koša ne glede na to, ali so bile slike dobro ali slabše vidne. V kliničnem okolju so algoritmi v pomoč, saj znajo določiti, ali je bolnik kandidat za kemoterapijo in ali potrebuje intenzivno nego. Znanstveniki so bili prepričani, da algoritmi gledajo le na vitalne znake ali laboratorijske teste, “vendar je očitno možno tudi, da lahko vidijo raso, narodnost, spol, ali ste zaprti ali ne – tudi če so vse te informacije skrite,” pravi soavtor prispevka Leo Anthony Celi, glavni raziskovalec v IMES na MIT in izredni profesor medicine na Harvard Medical School. Reultati so bili enaki v vsakem poskusu, za primer zanesljivosti pa navajajo tudi primer “natančnost AI je presegala 91 odstotkov (za primerjavo: spol je AI ugotovila z 99-odstotno zanesljivostjo)”.

Foto: Freepik

Glede na rezultate so bili po navedbah članka na portalu Quillete znanstveniki tako šokirani in prestrašeni, da jih ne bi zaradi ugotovitev kdo obtožil rasizma, da so se celo opravičili in zapisali, da zadeva predstavlja “tveganje za vse modele uporabe v medicinskem slikanju”.

“Tisti, ki trdijo, da odločitve o zdravljenju na podlagi rase ohranjajo strukturni rasizem, običajno ne predložijo nobenih dokazov v podporo tej trditvi. Zdi se, da takšni argumenti temeljijo zgolj na ideologiji in preprosto zanemarjajo vse več empiričnih dokazov o nasprotnem. V primerih “zdravljenja na podlagi rase”, o katerih sem razpravljal, je praksa povzročila izboljšanje kliničnih rezultatov za temnopolte bolnike, kar bi moral biti cilj učinkovite in humane medicinske prakse. Če želimo zmanjšati zdravstvene razlike, bomo morali začeti s priznavanjem biološke resničnosti rase,”,  je tekst zaključil Robert J. Morris, navaja Kavarna Hayek.

Tanja Brkić