blank

När pandemin slog till våren 2020, i mars, så stod många sjukhus och vårdpersonal lite handfallna för hur alla patienter som kom in skulle behandlas. Sjukvården erbjöds då snabbt hjälp med teknik och AI-program. Program utvecklades men så här i efterhand när programmen utvärderats så är resultatet att få av programmen bidrog till att stoppa Covid.

Fokus lades på att utveckla program som skulle hjälpa vården att ställa snabbare diagnoser – stödprogram som med hjälporganisationer av AI skulle lära sig att hitta och identifiera Covid-patienter.

In the end, many hundreds of predictive tools were developed. None of them made a real difference, and some were potentially harmful.

That’s the damning conclusion of multiple studies published in the last few months. In June, the Turing Institute, the UK’s national center for data science and AI, put out a report summing up discussions at a series of workshops it held in late 2020. The clear consensus was that AI tools had made little, if any, impact in the fight against covid

MIT technology Review

Inget

Hundratals utvecklade program – inget visade sig bidra till vårdens hantering av den globala pandemin. Sammanlagt så analyserades 232 algoritmer men ingen av dem visade sig lämplig för klinisk användning. Bara två av algoritmerna bedömdes vara ”lovande” men inte mer. AI-programmen kunde inte användas för diagnoser och de fungerade inte heller som stöd för vårdpersonalen.

Resultaten och analyserna bygger inte på en enda enskild studie utan förutom Maastricht University i Nederländerna så har även University of Cambridge gått igenom och analyserat program, algoritmer och AI-lösningar.

Wynants’s study is backed up by another large review carried out by Derek Driggs, a machine-learning researcher at the University of Cambridge, and his colleagues, and published in Nature Machine Intelligence. This teamzoomed in on deep-learning models for diagnosing covid and predicting patient risk from medical images, such as chest x-rays and chest computer tomography (CT) scans. They looked at 415 published tools and, like Wynants and her colleagues, concluded that none were fit for clinical use.

MIT technology Review