Umělá inteligence může objektivizovat toleranci bolesti

Může umělá inteligence eliminovat nerovnosti v poskytované zdravotní péči?

Umělá inteligence může objektivizovat toleranci bolesti


Ptal se vás někdy lékař, ať ohodnotíte bolest na škále od nuly do desítky? Tolerance bolesti je vysoce subjektivní, proto někdy bývá obtížné určit její příčinu. Co někoho bolí „na osm“, může někoho jiného bolet jen „na tři“.

Nová studie zveřejněná v lékařském měsíčníku Nature Medicine se věnuje právě tomuto tématu. Výzkumníci využili umělou inteligenci k analýze rentgenových snímků kolene, aby odhadla, jak moc bolestivá je pro pacienty osteortróza kolenního kloubu. Do výzkumu jich zapojili víc než čtyři tisíce.

Počítačová analýza přitom mohla poukázat na detaily, které radiolog přehlédl.

„Netrénovali jsme algoritmus k tomu, aby odhadl, jak rentgen zhodnotí doktor,“ uvádí jeden z autorů studie Ziad Obermeyer. „Ale k tomu, aby odhadl, co o své bolesti řekne pacient.“

Jde o důležitou perspektivu, jelikož způsob, jak lékaři hodnotí bolest, je mnohdy spjat s diskriminací a dokonce i s rasismem. Někteří lékaři totiž mají zjevné tendence brát určité skupiny obyvatel méně vážně, což následně ovlivňuje i následně způsob léčby. Jistá americká studie například ukázala, že lékaři zkoumající zdánlivě stejné případy artritidy zjistili, že černošští pacienti uváděli větší míru bolestivosti než ti bělošští.

Jak však vyjevil algoritmus, případy si až tak podobné nebyly. A protože pacienti vykazující větší bolest měli v parametrech algoritmu vyšší skóre – ale nižší v oficiálních systémech hodnocení – byli zpravidla černošští, zdá se, že tradiční diagnostika může být problematická.

„Algoritmus tu bolest dokázal lépe zdůvodnit,“ říká profesor Obermeyer. „Což je dobrá zpráva zejména pro černošské pacienty.“ Totéž dle něj ale platí i pro pacienty z nižších socioekonomických vrstev, s nižší úrovní vzdělání nebo pro lidi, pro které není angličtina mateřským jazykem.

Výzkumníci však zatím nedokázali plně zdůvodnit, co přesně umělá inteligence dokáže na snímcích vypozorovat, co by lékaři za běžných okolností přehlédli. Není tedy například ani jasné, jestli by operace na základě diagnózy takto provedené umělou inteligencí pacientům ulevila.

Studie je však zajímavá i z toho důvodu, že samotná umělá inteligence bývá často podezírána z diskriminace.

„Představte si, že máte minoritní populaci,“ vysvětluje Jimeng Sun, počítačový vědec z Univerzity v Illinois. „A pak máte model trénovaný na datasetu, v němž je tato minorita zastoupena jen okrajově.“

Výsledný algoritmus by dle něj byl méně přesný, pokud by byl aplikován právě na tuto minoritu. To potvrzuje také doktorka Sandra Hobsonová z Emoryho Univerzity v Atlantě, dle které mohou podobné systémy vybavené adekvátními datasety být v budoucnu enormně přínosné.

„Historicky vzato, studie občas nezahrnují třeba ženy nebo pacienty odlišného původu. Podle mě ale umělá inteligence nabízí příležitost zahrnout větší objem dat, včetně pacientů z různých společenských vrstev nebo z různých koutů světa.“ V důsledku by tak taková univerzálnost umělé inteligence mohla v budoucnu pomoci snížit nerovnosti v poskytované zdravotní péči.

Úvodní foto: © Sergey Nivens - Fotolia.com










Komentáře