Vanderbilt University Medical Center ist einer der ersten Anbieter Organisationen zu entwickeln, ein voice assistant für die elektronische Patientenakte, geben können mündliche Zusammenfassungen zurück auf die Anbieter mit der Verarbeitung natürlicher Sprache.
Mit VEVA, die Vanderbilt EHR Sprach-Assistenten, das Gesundheits-system wird mithilfe von NLP künstlichen Intelligenz von Nuance zur Interpretation der voice-Anfragen, und der HL7-SMART auf standard FHIR zu ziehen relevanten Daten und liefern relevante Zusammenfassungen.
Beratung mit Epic
„Wir sind auch mit Beratungs-Epos, die Entwicklung einer voice assistant-Anwendung zum abrufen und anzeigen einige relevante Patientendaten wie Labors, Notizen und lebenswichtigen Organen“, sagt Dr. Yaa Kumah-Crystal, Kern-design-Berater an der Vanderbilt University Medical Center. „Epic voice assistant auch einige Medikamente bestellen-Funktionalität in zukünftigen Versionen.“
Leider ist der Weg von EHR-Systemen konzipiert sind, kann es sehr herausfordernd und frustrierend, relevante Informationen zu finden, sagte Kumah-Kristall. Manövrieren, das system zu finden, etwas so einfaches wie eine lab-Wert umfasst mehrere Klicks, drop-downs und Schriftrollen.
„Es ist eine zeitaufwendige und tactually komplizierte Bemühung des Patienten zu verstehen-Geschichte“, erklärte Sie. „Oft wissen Sie, welche information Sie wollen, aber gezwungen sind, zu Futter über eine grafische Benutzeroberfläche entwickelt, von jemandem, der nicht versteht, Ihren klinischen workflow. Dies kann eine leidige Erfahrung und einer der Gründe, EHR-Systemen Häufig zitiert werden als Mitwirkende zu Arzt Burn-out.“
„Stimme ist ein intrinsisch menschliche Art und Weise der Suche und übermittlung von Informationen, die wir brauchen, um mehr Vorteil in der Computerbranche.“
Dr. Yaa Kumah-Kristall, Vanderbilt University Medical Center
EHR hat auch zu ein Eingriff Dritter in den Prüfungsraum. „Um die relevanten Informationen aus dem EHR, die ein Anbieter gezwungen, sich von Ihren Patienten und starren auf Ihren computer-Bildschirm, um zu bestätigen, dass die Tastenanschläge, die Sie eintragen“, sagte Sie.
„Eine Besondere Instanz die ich mich erinnern kann aus meiner eigenen Erfahrung war, als ich wurde die Durchführung einer körperlichen Untersuchung auf meine Patienten in der pädiatrischen Endokrinologie-Klinik“, fügte Sie hinzu und erklärt, dass Sie bemerkt hatte, dass etwas ungewöhnliches während der patient Klausur und wollte Ihnen die Rückkehr für Blut Arbeit in ein paar von Monate. Der patient Mutter erzählte dem Arzt, dass Sie glaubte, der patient hatte einen Gegenbesuch an der Vanderbilt kommen, aber konnte sich nicht erinnern, das Datum.
Erhebliche Ineffizienz
„In Ordnung für mich, um dann festzustellen, dass Stück von Informationen und der Koordination der Pflege für die Familie, die ich hatte, zu lösen, zu tun, die körperliche Untersuchung, gehen Sie zu mein computer, der relaunch der EHR, die schien, für immer zu nehmen, dann klicken Sie auf und Blättern Sie durch Ihre Grafik, um endlich zu finden, die ein Stück von Informationen, die ich gesucht hatte – Wann Sie das nächste mal besuchen würde,“ Kumah-Crystal sagte.
„All das, während ich bei mir dachte, ‚Was, wenn ich könnte, Fragen Sie einfach den computer, wenn es ist, Sie bei Ihrem nächsten Besuch, und der computer könnte Antworten, „ich sehe eine bevorstehende Dermatologie Besuch geplant für den 8. Januar um 2 Uhr'“
Mit der einfachen Sprache der Interaktion mit der EHR, der Arzt hätte durch Ihre Patienten Seite, weiterhin die Durchführung Ihrer Prüfung, und blieb engagiert bei Ihrer Mutter, anstatt sich zu entschuldigen für das brechen Weg, um Informationen zu finden, fügte Sie hinzu.
“Der faszinierende Aspekt dieser Arbeit ist, dass wir endlich angekommen an einem Ort, wo die Technologie hinter unseren Verarbeitung natürlicher Sprache hat die Parität mit dem menschlichen Verständnis“, sagte Kumah-Kristall.
„Wir haben jetzt das Vertrauen, dass die Computer verstehen können, die Worte, die wir sagen,“ erklärte Sie. „Wir haben jetzt alltäglich Modelle dieser Wechselwirkungen in den consumer-Reich wie Siri und der Amazon echo kann die Menschen verstehen die verbale Anfragen und Antworten fast menschlich.“
Stimme durchsetzen wird
Obwohl Sie noch nicht viele gesehen, andere Organisationen neben Vanderbilt, Epische und eClinicalWorks Wagen in die EHR-voice assistant arena entfernt, erwartet Sie dieses Konzept schnell durchsetzen wird, und dass noch weitere spannende Entwicklungen in der Branche.
„Wir brauchen Menschen, die die Entwicklung von Sorten von Fähigkeiten und Interaktionen für diese neue voice-user-interfaces veranschaulichen die verschiedenen use-cases und helfen, herauszufinden, die Lücken, so können wir weiterhin innovativ zu sein“, sagte Sie.
Eine andere Sache Kumah-Crystal würde gerne sehen, ist ein patient-facing EHR Sprach-Assistenten, um Patienten zu helfen, finden Sie Informationen über Ihren Laboren und erhalten Anleitung zu deren Pflege.
„Dies ist ein Gebiet, in dem wir beginnen zu bewerten, als ein Mittel, um Informationen zu liefern Zugang zu Menschen, die vielleicht nicht so bewandert sind mit standard-computer-Schnittstellen“, sagte Sie. „Die Stimme ist eine Natürliche Art der Kommunikation haben wir alle in der Lage, seit wir Kleinkinder sind. Es ist ein ganz menschlicher Art und Weise der Suche und übermittlung von Informationen, die wir brauchen, um mehr Vorteil in der Computerbranche.“
Der tech, der unsere Träume
„Die Stimme ist die nächste Schnittstelle, und es ist schon hier,“ Kumah-Kristall angegeben. „Voice ist eine Schnittstelle, die viele von uns geträumt haben, mit unseren Computern seit Jahren, und jetzt ist die Technik endlich gefangen mit unserer Vorstellungskraft.“
Ein forward-thinking healthcare-CIO wird Wege finden, um Investitionen in Forschung und Entwicklung dieser neuen Plattformen, sagte Sie. Die aktuelle generation der voice-Assistenten befasst sich mit strukturierten Informationen, und wenn CIOs können, nehmen die Dinge auf die nächste Stufe der Verdichtung von frei-text-Inhalte, die diese Interaktionen gehen, um sein Spiel ändern, Sie stritten.
„Aber wir werden dorthin nur mit einer vision für diese innovation“, sagte Sie. „Ich möchte Sie ermutigen Gesundheitswesen CIOs investieren in Forschung und Plattformen, die zulassen, dass Ihre Dienstleister verwenden Ihre Stimme, um die Informationen zu finden, das Sie suchen und mündigen Patienten, sich mit Ihrer Gesundheit. Das Gesundheitswesen ist immer so weit hinterher mit der Technik, und dies ist eine Gelegenheit für uns, an vorderster Front zu sein. Voice user interfaces sind ein wesentlicher Schritt zur Humanisierung der EHR.“
Kumah-Crystal-Reports bieten mehr Einblicke in HIMSS19 in einer Sitzung mit dem Titel „Transforming EHR-Interaktionen Mit Hilfe von Voice-Assistenten.“ Es ist geplant für Mittwoch, den 13. Februar von 2:30-3:30 Uhr im Raum W307A.
Twitter: @SiwickiHealthIT
E-Mail der Autorin: [email protected]