Machine-learning-algorithmen und künstliche Intelligenz software-Hilfe-Organisationen zu analysieren, große Mengen von Daten zu verbessern, die Entscheidungsfindung, und diese Werkzeuge sind immer in Krankenhäusern eingesetzt, um Leitfaden-Behandlung von Entscheidungen und die Effizienz zu verbessern. Die algorithmen „lernen“ durch die Identifizierung von mustern in den Daten, die über viele Jahre hinweg. Also, was passiert, wenn die Daten analysiert, reflektiert historische Vorurteile gegenüber schutzbedürftigen Bevölkerungsgruppen? Ist es möglich, diese algorithmen weiter zu fördern bias, was zu Ungleichheit in der Gesundheitsversorgung?
Marshall Chin, Richard Parrillo Familie Professor für Ethik im Gesundheitswesen an der Universität von Chicago-Medizin, arbeiten, um sicherzustellen, Gerechtigkeit in allen Bereichen des Gesundheitswesens, einschließlich der Analyse der Daten. Er arbeitet seit drei Jahrzehnten zu untersuchen und Lösungen entwickeln, die Bewältigung der gesundheitlichen Ungleichheiten. Kinn kürzlich zusammen mit einer Gruppe von Daten, die die Wissenschaftler von Google, einen Artikel zu schreiben in den Annalen der Internen Medizin, der beschreibt, wie Gesundheits-Anbieter, können diese leistungsstarke neue algorithmen fairer und gerechter. Wir Sprachen mit ihm über das verwenden von machine learning im Gesundheitswesen und wie ärzte und Patienten aufbauen können fairness in jedem Schritt des Entscheidungsprozesses.
Wie weit sind diese Arten von algorithmen verwendet, die im Gesundheitswesen jetzt?
Es variiert über verschiedene Einstellungen, aber Sie sind zunehmend für die klinische Versorgung, wie das Lesen von Röntgenaufnahmen und Bilder zu diagnostizieren Erkrankungen wie Krankheiten des Auges oder der Haut Krebs. Sie sind auch aus betriebswirtschaftlicher Sicht zu analysieren, medizinischen Aufzeichnungen und Ansprüche auf Versicherungsleistungen zur Erhöhung der Effizienz der Organisation und geringere Kosten.
Glaubst du, die Menschen erkennen, wie software und algorithmen werden verwendet, um zu bestimmen, Ihre Pflege?
Der Begriff „big data“ ist beliebt, weil es gibt so viele Daten gesammelt, auf uns alle, ob es die gesundheitliche Daten oder über das internet. Große Daten sind ein mächtiges Werkzeug, aber wir müssen klar und explizit erörtern die ethischen Implikationen, wie software analysiert werden kann, und die Nutzung von big data. Diese Fragen sind noch verborgen für die meisten Menschen.
Was ist ein Beispiel, wie algorithmen können zu einer Ungleichheit in der Gesundheitsversorgung?
Ich werde Ihnen ein Beispiel geben wir in unserem Artikel. Es ist ein herausragendes data analytics group an der University of Chicago Medizin, und eines der Dinge, die Sie tun, ist das erstellen von algorithmen zum analysieren der Daten in die elektronische Patientenakte. Eines der Projekte, die Sie arbeiten, zu helfen, verringern Sie die Länge des Aufenthaltes für die Patienten, denn es ist in jedermanns Interesse, haben die Patienten nach Hause gehen, sobald Sie bereit sind, zu verlassen. Der Gedanke war, wenn wir uns identifizieren können Patienten, die wahrscheinlich zu früh entlassen werden, können wir weisen Sie ein Fall-manager, um sicherzustellen, gibt es keine weiteren Blockaden oder Barrieren, die verhindern könnten, dass Sie verlassen das Krankenhaus in einer fristgerechten Weise.
Die Daten, die analytics-Gruppe entwickelt, die algorithmen basierend auf klinischen Daten, und dann fanden Sie, dass das hinzufügen der PLZ in denen der patient lebt, verbessert die Genauigkeit des Modells identifiziert jene Menschen, die würden für kürzere Aufenthaltsdauer. Das problem ist, wenn Sie fügen Sie eine Postleitzahl ein, wenn Sie Leben in einer schlechten Nachbarschaft oder eine überwiegend Afro-amerikanische Viertel, Sie waren eher die längere Dauer des Aufenthalts. So würde der Algorithmus führten zu dem paradoxen Ergebnis des Krankenhauses die Bereitstellung zusätzlicher case-management-Ressourcen, um ein überwiegend weißer, gebildeter, wohlhabender Bevölkerung, um Sie aus dem Krankenhaus früher, anstatt zu einer sozial at-risk-Bevölkerung, die wirklich sein sollte, diejenigen, die erhalten mehr Hilfe.
Was geschah, nachdem Sie das entdeckt?
Um Ihre Kredit -, wenn die Daten-Analyse-team, das sahen, waren Sie entsetzt über die Auswirkungen, was passiert wäre, haben. Sie landete mit James Williams, der Direktor der Vielfalt, Integration und Gerechtigkeit, und unsere Vielfalt und unsere Equity Committee der UCM. Sie wurde Meister der Entwicklung formaler Systeme, um sicherzustellen, dass diese equity-Fragen sind explizit Gedanken darüber, wie Sie entwickeln algorithmen, wie Sie könnten, proaktiv zu verwenden maschinelles lernen zur Verbesserung der Eigenkapitalausstattung.
Also mit diesem lokalen Beispiel, es wurde klar, dass dies nicht nur eine abstrakte, theoretische Angelegenheit. Es ist hier passiert und wahrscheinlich viele andere Orte unter dem radar. Ich denke, eine Menge von Organisationen im Gesundheitswesen sind nicht absichtlich versuchen zu tun, Dinge zu verschlechtern Unterschiede, aber klar es gibt eine Menge von unbeabsichtigten schlechten Dinge, die passieren können. Wahrscheinlich sehr wenige Unternehmen, die proaktiv mit diesen Werkzeugen zu besseren Ergebnissen für alle.
Wie wirkt sich Ungleichheit kriechen in algorithmen? Ist es, weil der input-Daten sind nicht repräsentativ sind verschiedene Gruppen von Menschen? Oder gibt es die historische Voreingenommenheit?
Man könnte denken, drei Eimer, die die Probleme verursachen. Das eine ist die Daten selbst. Das zweite ist, der algorithmen, und die Dritte ist, wie die algorithmen verwendet werden.
Sie haben erwähnt, dass die Daten eventuell verfälscht werden. Für Beispiel, Arme Bevölkerung kann mehr verstreut, fragmentiert Pflege. Sie können kommen hier für einige Krankenhauseinweisungen und gehen Sie zu Stroger Cook County Hospital für etwas anderes, im Gegensatz zu einigen der wohlhabenden Patienten, die eine kontinuierliche Quelle der Pflege hier. Also, wenn Sie erstellen algorithmen, basierend auf nur UCM-Daten, Sie würden ein vollständiger Datensatz für die wohlhabenderen Patienten. Es ist wahrscheinlich, dass was auch immer Vorhersagen, die Sie entwickeln, auf die unvollständigen Daten nicht so genau.
Es gibt auch die Frage der Erhaltung historischer Vorurteile. Zum Beispiel, der Rasse und der ethnischen Minderheit der Patienten präsentieren kann, anders als das lehrbuch, psychiatrische Definitionen von psychischen Erkrankungen. Also, wenn Sie fehlerhaft Kriterien, um mit zu beginnen, Sie zu verewigen, falsche Diagnosen. Ein weiteres Beispiel wäre so etwas wie koronare Herzkrankheit, wo Frauen tendenziell unter diagnostiziert im Vergleich zu Männern. Wenn Sie mit den Kriterien, die unter der diagnose Frauen, Sie bauen in Ihre Formel ein ewig voreingenommen underdiagnosis von Frauen.
Wie verhindern Sie, dass diese unfairen Ergebnissen passiert?
Denken Sie zurück an die drei Eimer die Daten, die Formeln selbst, und wie die Formeln werden verwendet. Erstens, bewusst sein, dass Daten ein problem sein könnte. Arbeiten Sie mit gültigen Daten-sets? Sie haben unvollständige Daten für die at-risk-Bevölkerung? Verwenden Sie Daten auf der Grundlage von fehlerhaften Diagnosen und fehlerhafte Etiketten? Das ist ein wichtiger Erster Schritt.
Der zweite Schritt wäre zu untersuchen, wie sich die Modelle eigentlich entwickelt ist. Hier gibt es technische Möglichkeiten der Gestaltung der algorithmen Voraus bestimmte Prinzipien der ethischen Gerechtigkeit. Können Sie erstellen algorithmen, die eine gleiche Ergebnisse in zwei Populationen, und Sie können sicherstellen, dass die technische Leistung des Modells ist fair. Also, wenn es ein problem gibt, wo algorithmen werden unter der Diagnose Afro-Amerikaner für eine bestimmte Bedingung, die Sie ändern können Sie die Parameter der Formeln, um Sie genauer.
Ein weiterer Weg zur Förderung von Gerechtigkeit ist die Anpassung der Rezepturen, so haben Sie gleich die Allokation von Ressourcen. Im vorherigen Beispiel über die Zuordnung von Fall-Managern zu helfen, die Leute nach Hause gehen aus dem Krankenhaus früher ist ein gutes Beispiel. Sie können ändern, die Schwellenwerte für die, die qualifiziert in diesen Formeln ausgleichen, die Zuordnung der jeweiligen Ressourcen der verschiedenen Gruppen.
Woher weißt du das es funktioniert?
Sie können Ihr bestes tun, zu entwickeln versuchen eine gute Formel, aber Sie haben noch zu überwachen, was passiert im wirklichen Leben, den Dritten Eimer für die Verhinderung von unfairen Ergebnissen. Das beinhaltet die überwachung der Daten für die Ungleichheiten und sprechen auch die Anbieter von Gesundheitsleistungen, den Patienten und den Administratoren zu bestimmen, wenn Sie sehen, keine fairness-Probleme. Eine Sache, die wir empfehlen, ist, dass Patienten auf dem Tisch, wie gestalten wir diese algorithmen, wird letztlich Auswirkungen auf Ihr Leben.
Software spiegelt die Menschen, die es schreiben, so ist es wichtig, diese fairness-Fragen beachten. Bei jedem Schritt auf dem Weg, wir sollten überprüfen, ob der Algorithmus führt zu einem ungerechten Ergebnis. Die schlechten Dinge, die unbeabsichtigt passieren konnte und wie können wir proaktiv Backen in einer Weise, die allen zugute kommen? Und das erfordert sorgfältige Aufmerksamkeit für jeden Schritt: aufnehmen der Daten, der Entwicklung der Formel, und dann implementieren Sie den Algorithmus und das monitoring, wie es verwendet wird.