Health Data – transatlantisch austauschen & voneinander lernen
Das Bundesgesundheitsministerium hat führende Wissenschaftler, Politiker, Ärzte und Ethiker zur Data for Health Conference 2023 (1) gebeten, um gemeinsam nach Wegen zu suchen, wie sich Gesundheitsdaten innerhalb und außerhalb der europäischen Grenzen besser nutzen lassen. Auch zwei Experten aus dem Kreis der Healthcare Shapers waren eingeladen, Mina Luetkens und Günther Illert, der Gründer des Netzwerks.
Prof. Karl Lauterbach hob in seiner Einführung hervor, dass in Deutschland demnächst die Daten von 150.000 Praxen, 20.000 Apotheken, 2.000 Krankenhäusern und 70 Millionen Versicherten für die Forschung zur Verfügung stünden, wenn die geplanten Gesetzesinitiativen der Bundesregierung zur Digitalisierung der Gesundheitsversorgung greifen. Die exponentielle technische Entwicklung, etwa bei großen Sprachmodelle wie ChatGPT mache die Auswertung dieser medizinischen Daten immer einfacher und intuitiver, was neue Chancen für den Erkenntnisgewinn in Forschung und Versorgung durch Nutzung von Gesundheitsdaten eröffnete.
Gemeinsam mit Prof. Jochen Lennerz von der Harvard Medical School in Boston (USA) hat Karl Lauterbach die hochkarätig besetzte Konferenz zum transatlantischen Austausch initiiert. Beispiele aus den USA sollten verdeutlichen, welchen Nutzen die Auswertung medizinischer Daten schon heute mit sich bringt. Bereits kleinste genetische Schnipsel genügten, so Lennerz, um Erkrankungsrisiken und die Erfolgswahrscheinlichkeiten von Therapien selbst für sehr seltene Erkrankungen zu prognostizieren. In Deutschland könne derzeit von systematischer Datennutzung aber noch kaum die Rede sein, Daten lägen hier häufig noch unsortiert auf „DDR-Dachböden“. Von den unglaublichen Schätzen, die dort schlummern, wisse kaum jemand und der Zugang zu diesen Daten sei extrem schwierig (2). Auf der anderen Seite bestünde ein großer Bedarf: Alleine in Deutschland erkranken jedes Jahr rund 500.000 Menschen neu an Krebs. Die Notwendigkeit, Gesundheitsdaten für bessere Therapieentscheidungen und eine schnellere Versorgung dieser Patienten zu nutzen, ist damit höchst relevant. Wer soll wie auf Gesundheitsdaten zugreifen können und welche ethischen Grundsätze sind dabei maßgeblich? Wie kann aus dem heutigen Flickenteppich an Regeln ein einheitlicher regulatorischer Rahmen entstehen, der diesseits und jenseits des Atlantiks verbindlich angewendet werden kann? Wie lässt sich das mit dem im Aufbau befindlichen European Health Data Spaces (3) verzahnen?

Wir brauchen einen “pre-competitive space”
Diese Fragen diskutierten am 20. und 21. Juni rund 300 geladene Experten in Berlin und im Live-Stream. Neben den hochkarätig international besetzten Paneldiskussionen wurden in parallelen Workshops konkrete Lösungsvorschläge erarbeitet. Rund 30 Forschungsprojekte wurden vorgestellt und diskutiert, die mit Methoden der künstlichen Intelligenz (KI) die Digitalisierung in der Gesundheitswirtschaft vorantreiben. Diesen „pre-competitive Space“ brauchen wir, damit es zu einem echten Austausch komme, betonte Lennerz. Die Data for Health Conference 2023 beginne daher dort, wo die meisten anderen Konferenzen aufhören, mit einem intensiven Dialog, der im Herbst in Boston fortgesetzt werde.
Deutschland – Chance auf modernste Dateninfrastruktur Europas
Das Timing sei entscheidend, betonte Lauterbach. Als die Konferenz geplant wurde, war der Hype um ChatGPT noch nicht absehbar, der rasante technologische Fortschritt und die von seinem Ministerium gerade vorgelegten Entwürfe zum Digitalgesetz, zum Gesundheitsdatennutzungsgesetz (GDNG) und zum Digitalagenturgesetz böten Deutschland jetzt die Chance, die modernste Dateninfrastruktur in Europa aufzubauen.
Mehr Demokratisierung des Gesundheitswesens
Mina Luetkens, u.a. Gründerin von Patients4Digital (4), seit wenigen Wochen Partnerin im Netzwerk der Healthcare Shapers, setzt sich leidenschaftlich für die Demokratisierung des Gesundheitswesens ein. Im Panel „AI Applications and Innovation“ stellte sie die Frage, wie der Wert (Value) von KI-Anwendungen beurteilt und wie das Konzept von Value-based Healthcare (VBHC) im Zusammenhang mit KI umgesetzt werden könne. Die vier Säulen von Value-based Healthcare (personal, technical, societal and allocational) (5) in Balance zu halten, sei im Kontext der Daten, die man dafür erfassen und verarbeiten müsse, besonders herausfordernd.
Die Antworten der hochkarätigen Panellisten zeigen die Vielschichtigkeit des Themas:
- Giorgio Quer (Scripps Research Translational Institute) erklärte, der wichtigste Wert, den wir bieten müssen, sei der Wert für die einzelnen Beteiligten. Das bedeute, dass alle zunächst Zugang zu Daten erhalten, die sie sonst vielleicht nicht hätten, und dass alle Informationen, möglicherweise auch in verarbeiteter Form, an die Beteiligten zurückgespielt werden müssen. „We want the participant to be engaged with whatever we do“, war sein Schluss-Statement und ganz im Sinne von Mina Luetkens, die sich für ein partizipatives Gesundheitswesen engagiert.
- Charlotte Tschider (Loyola University Chicago School of Law) fordert, dass die Frage nach dem Wert eng mit der Frage verknüpft werden muss “Was ist gut genug?”, um messbare Verbesserungen zu erzielen und diese im Laufe der Zeit weiter optimieren zu können.
- Sebastian Schneeweiss (Harvard Medical School) sieht eine wesentliche Herausforderung darin, diese neuen Technologien, die auf den Markt kommen, zu bewerten. Seiner Meinung nach werde man mit sekundären Daten arbeiten. Er betont, dass Studien echte kausale Zusammenhänge aufzeigen müssten, anstelle bloßer Korrelationen, nicht nur bei Wirksamkeit und Sicherheit, sondern auch bezüglich des Nutzens und des „Values“.
- Für Norman Zerbe (Charité – Universitätsmedizin Berlin) stellt die rein monetäre Betrachtung eine große Hürde dar, wenn wir KI-Anwendungen in die klinische Routine bekommen wollen. Insbesondere in Deutschland müsse man im DRG-System (DRG = Diagnosis-related Groups) nachweisen, dass Prozesse, die Algorithmen nutzen, kostengünstiger seien, als solche, die ohne arbeiten. “So what does it mean? You proof that you save the money for a pathologists or some lab technicians? Or that you are quicker or that you are actually improving quality? Especially the last two ones are very hard to measure. So the question is: How can we do this?” Das DRG-System sei seiner Meinung nach problematisch, und er fordert zusammen mit den Kostenträgern und der Regierung eine Diskussion darüber zu führen, wie dieses Hindernis überwunden werden kann.
Value-based Healthcare – “gemeinsamer Strang” für alle Stakeholder
Die Antworten der Experten verdeutlichen, warum Value-based Healthcare der vielgeforderte „Northstar“ sein könnte, den wir für die bevorstehenden Umwälzungen und Neuordnungen in der Gesundheitsversorgung brauchen. „Diese Konzept ist quasi der “gemeinsame Strang”, an dem alle Stakeholder ziehen können. „Value-based Healthcare“ bedeutet einen Wertewandel. Bei der Umsetzung im Sinne der Vier-Säulen-Definition werden wir um einen gesellschaftlichen, demokratischen und partizipativen Diskurs nicht herumkommen,“ ist Mina Luetkens überzeugt.
Fazit aus Sicht der beiden Healthcare Shapers: Die Data for Health Conference 2023 – eine lohnenswerte Veranstaltung – zeitlich leider parallel zur Bits & Pretzels, aber der Geist des Kongresses stimmt zuversichtlich. Let’s shape healthcare – together!
Quellen:
- https://projekttraeger.dlr.de/media/events/dfh23/index.html
- https://www.youtube.com/watch?v=QhFi2YW0dmI&t=3s
- https://health.ec.europa.eu/ehealth-digital-health-and-care/european-health-data-space_en
- https://patients4digital.com/
- https://health.ec.europa.eu/document/download/eda2e039-5459-4d75-bdfd-f44ca3b76275_en?filename=2019_defining-value-vbhc_factsheet_en.pdf
- Veröffentlicht in Digitalisierung, Health-IT
EU AI Act – für eine bessere digitale Welt?
Der neuen EU AI Act (1) ist mehr als eine weitere Richtlinie, die das regulatorische Korsett für Unternehmen der Life Science- und MedTech-Branche einschnürt. Diese EU AI Act läutet, nach Einschätzung von Kevin Schawinski (2), Gründer der Modulos AG (3) und Experte für die Datenqualität von KI-Anwendungen, einen Shift ein hin zu einer vollkommen neuen Daten-Philosophie, so der Tenor beim HCS Live-Talk der Healthcare Shapers. Warum ist das so, und was heißt das für Unternehmen aller Branchen, die automatisierte Entscheidungssysteme entwickeln und nutzen möchten?
Es geht im Kern um den Schutz der Bürger. Denn automatisierte Entscheidungssysteme können Leben und Gesundheit maßgeblich beeinflussen, wenn aus großen Datenmengen mit Methoden der Künstlichen Intelligenz (KI) und des Maschinellen Lernens (ML) Empfehlungen abgeleitet werden, z. B. medizinische Diagnosen, die Eignung für Jobs, die Kreditwürdigkeit von Bürgern und Unternehmen etc.. Und die EU denkt dabei durchaus groß: Sie will mit dem EU AI Act den Grundstein legen für eine „bessere“, digitale Welt – auch außerhalb der EU.
„Faire“ KI-Anwendung – bessere, digitale Welt?
KI-Anwendungen sollen überall auf der Welt und in allen Lebensbereichen – Gesundheit, Finanzen, Infrastruktur und Bildung – die bürgerlichen Grundrechte wahren. Keine Bevölkerungsgruppe soll durch die Nutzung automatisierter, KI-gestützter Entscheidungssysteme benachteiligt werden. Das ist ein großer Anspruch, der den vielen Chancen und den großen potenziellen Risiken dieser neuen Anwendungen Rechnung tragen und der den Grundstein legen soll für Vertrauen und Akzeptanz in diese Systeme.
Für Entwickler heißt das: Wer KI-Systeme trainiert, muss dies mit Daten tun, die die höchstmögliche Qualität aufweisen, die valide sind, alle relevanten Bevölkerungsgruppen einschließen und Ergebnisse erzeugen, die mit den Grundrechten von EU-Bürgern vereinbar sind. Die erforderlichen Maßnahmen zur Einhaltung dieser Standards sind bereits im Entwicklungsprozess zu dokumentieren und bei unangekündigten Audits den Nationalen AI Regulatoren ggfls. offenzulegen, sonst drohen empfindliche Strafen.
KI – keine Spielwiese für Entwickler
Was bezweckt die EU damit? KI-Systeme sollen keine Spielwiese für Entwickler werden, denn die Gefahr ist viel zu groß, das Vertrauen in diese zukunftsweisenden Technologien zu verspielen. Deshalb wird Data Science grundsätzlich reguliert, wenn KI-Anwendungen mit „hohem Risiko“ entwickelt werden. Was „hohes Risiko“ genau bedeutet, bleibt gesetzgeberisch absichtlich vage, um Hersteller grundsätzlich für die hohen Anforderungen an die Qualität der verwendeten Daten zu sensibilisieren, auch wenn weniger risikobehaftete KI-Anwendungen entwickelt werden. Wer KI-Methoden in der Entwicklung von Produkten und Services nutzt, muss zeigen, dass er die Risiken sorgfältig analysiert hat und den Kontext umfassend einschätzen kann, in dem z. B. automatisierte Entscheidungshilfen genutzt werden. Fragen zur möglichen Verzerrung von Daten (Bias), zu potenziellen Störgrößen, die unliebsames “Grundrauschen” (Noise) verursachen, sowie zur Respräsentativität (Repräsentanz) der Daten muss der Hersteller überzeugend beantworten können. Potenzielle Risiken, die sich aus der KI-Anwendung für Bürger ableiten, müssen eingeschätzt und durch entsprechende Maßnahmen mitigiert werden können. Denn die Anwendungen sollen diskriminierungsfrei funktionieren, bei Frauen ebenso gut, wie bei Männern, unabhängig von Alter oder Hautfarbe, Bildungsstatus, Einkommen etc.
Damit ist der EU AI Act nach Einschätzung des Experten für Data-centric AI – Kevin Schawinski – nicht die Bremse, die durch hohe Regulierungshürden Innovation abwürgt. Vielmehr setzt dieser zukunftsweisende EU AI Act die schützenden Rahmenbedingungen, damit KI-Anwendungen ihre Potentiale zum Nutzen aller Bürger entfalten können. Der EU AI Act hat nach Einschätzung von Kevin Schawinski das Potential, als globaler Standard weltweit exportiert zu werden, wie die Europäische Datenschutzgrundverordnung. Die GDPR hat sich als Qualitätsstandard etabliert, der in globalen Märkten akzeptiert wird und als Gütesiegel für den Schutz der persönlichen Daten der Anwender gilt. Der EU AI Act kann der nächste Exportschlager werden und einen Beitrag leisten für „faire“ KI-Anwendungen in einer besseren, digitalen Welt.
Quellen:
- EU AI Act – Artificial Intelligence Act: Council calls for promoting safe AI that respects fundamental rights, Press Release Dec 2022
- Kevin Schawinski. LinkedIn Profile
- Modulos AG, Zurich. Data-centric AI enterprise platform that helps to find the errors, noise and bias in data so fairer and better AI can be built even faster.
Beim HCS Live Talk dabei sein?
Die HCS Live-Talks – einmal im Monat, 60 Minuten – bieten die Chance, sich mit Experten zu vernetzen und auszutauschen, oder selbst eine innovative Idee oder ein Produkt zur smarten Nutzung von Daten im Healthcare Kontext einzubringen. Gerne direkt anmelden oder bei Fragen Günther Illert, Dr. Ursula Kramer oder Brigitte Lippmann aus dem Netzwerk kontaktieren. Die Teilnahme an den HCS Live Talks ist kostenlos.
- Veröffentlicht in Digitalisierung, Healthcare Shapers LIVE Talk, Patientenorientierung
EU Artificial Intelligence Act (AIA) – Impact für Medizinprodukte-Hersteller?
Künstliche Intelligenz (KI), oder Englisch „Artificial Intelligence (AI)“, hat sich zu einem regelrechten Hype entwickelt. Und das nicht nur, weil es cool klingt, sondern weil man mit aktuellen Methoden der KI ganz praktische Aufgaben des täglichen Lebens unterstützen oder sogar automatisieren kann – Aufgaben, die bisher dem Menschen, und hier sogar absoluten Spezialisten, vorbehalten waren. Genau dieses – „die Maschine kann nun, was sonst nur Menschen konnten“- hat wohl die EU auf den Plan gerufen, denn auch Maschinen können und werden Fehler machen. Und genau wie bei Menschen, ist nicht jeder Maschine in jeder Angelegenheit blind zu vertrauen. Im April 2021 hat die EU-Kommission ihren Entwurf für eine Verordnung über Künstliche Intelligenz (Artificial Intelligence Act, AI Act) veröffentlicht. Die neue vorgeschlagene Regulierung erfasst sehr breit zahlreiche Produktbereiche, darunter Medizinprodukte gemäß EU 2017/745 (MDR) und In-Vitro-Diagnostika gemäß EU 2017/746 (IVDR). Wie viele der aktuell bereits auf dem Markt verfügbaren Medizinprodukte bereits KI einsetzen, ist schwer abzuschätzen. Betrachtet man das Marketing von Medizinprodukten, sind es bereits sehr viele, und die Zahl wird wahrscheinlich weiterhin stark zunehmen. Die Technik hat sich bewährt und hat bereits neue Anwendungsfelder erschlossen.
Sechs Fragen an Oliver Hilgers, Experte für Software als Medizinprodukt (Sofware as Medical Device, SaMD)
Frage 1: Die Regulierung spricht von KI-Produkten. Sind damit sämtliche Produkte gemeint, oder wie stelle ich fest, ob ich von der neuen Regulierung betroffen sein werde?
Die Regulierung umfasst eine sehr breite Spanne von Produkten aus den verschiedensten Anwendungsbereichen – vom Auto bis zur Kreditwürdigkeitsbestimmung-, darunter auch Medizinprodukte. Der Grad der Regulierung orientiert sich dann am Risiko der Anwendung: Von Geboten bei niedrigem Risiko bis zu Verboten von Anwendungen wie Social Scoring. Das Gros der Regulierung dreht sich um die sogenannten Hoch-Risiko-KI.
Konkret für Hersteller von Medizinprodukten bedeutet das vereinfacht: Wenn das Medizinprodukt Künstliche Intelligenz zur Erfüllung der Zweckbestimmung enthält, dann bin ich grundsätzlich von der neuen Regulierung betroffen. Die Definition von Künstlicher Intelligenz im AIA ist dabei überraschend breit gefasst und wird vermutlich noch Diskussionen aufwerfen (1,2).
In der vollen Breite der neuen Anforderungen, d.h. als Hoch-Risiko-KI, sind allerdings nur Medizinprodukte erfasst, die einem Konformitätsbewertungsverfahren durch Dritte unterliegen. Übersetzt bedeutet das, Medizinprodukte der Klasse IIa oder höher, die durch eine Benannte Stelle, z.B. dem TÜV, zertifiziert werden müssen.
Frage 2: Wenn Medizinprodukte-Hersteller ihr KI-Produkt bereits von einer Benannten Stelle überprüfen lassen müssen, reicht das nicht eigentlich aus, oder gibt es weitere Anforderungen, die über die Medizinprodukteverordnung hinausgehen?
Mit dem AIA kommen eine Reihe neuer Anforderungen an Prozesse und Dokumentation, welche zwar dem Stand der Technik bei der Entwicklung von KI-Algorithmen entsprechen, sich aber in diesem Umfang und Detail nicht unmittelbar aus der MDR ableiten lassen. Zum Beispiel wurden die Anforderungen zur Cybersecurity in KI spezifischen Bereichen konkretisiert, und im Bereich des Managements der Trainings- und Testdaten sind neue Anforderungen formuliert worden:

Frage 3: Gibt es unter den neuen Anforderungen welche, die dir besondere Sorgen bereiten?
Sagen wir, ich sehe einige Herausforderungen. Die Anforderungen bezüglich der menschlichen Aufsicht über die KI ist zumindest ein zweischneidiges Schwert. Einerseits ist es im höchsten Maße wünschenswert, der Maschine über die Schulter schauen zu können, um ggf. eingreifen zu können. Andererseits könnte es passieren, dass die Umsetzung von Echtzeitanwendungen erschwert oder sogar verhindert werden, da hier die menschliche Aufsicht nicht effektiv vor dem Wirken der KI umgesetzt werden kann. Hierzu wird es noch mehr Diskussionen zur Risiko-/Nutzen-Abwägung und zur konkreten Umsetzung für spezifische Produktkategorien geben müssen.
Frage 4: Ich habe als Hersteller ein Produkt der Klasse IIa, wie läuft dann die Zertifizierung der Anforderungen aus dem AIA ab?
Die Zertifizierung soll durch für den AIA benannte Stellen erfolgen. Benannte Stellen für Medizinprodukte sollen zusätzlich für die Zertifizierung der AIA qualifiziert und benannt werden. Man sollte sich also am besten eine Benannte Stelle suchen, die dann beides abdeckt. Wie viele der ohnehin schon wenigen für die MDR benannten Stellen die Zertifizierung für den AIA auf sich nehmen werden (3), ist schwer vorherzusagen, insbesondere, da sich bereits jetzt schon die Zertifizierungen nach der MDR bei den Benannten Stellen türmen.
Frage 5: Ab wann werden die Anforderungen verbindlich?
Das Gesetzgebungsverfahren ist noch nicht sehr weit fortgeschritten, hat aber bereits mehrere Runden durch den Rat der EU gedreht und einige Länder habe ihre Einwände eingereicht (1). Ein finales Publikationsdatum lässt sich derzeit schwer abschätzen. Es wird außerdem Übergangsregelungen geben ab Gültigkeitsdatum der AIA.
Frage 6: Was ist dein Rat an Medizinprodukte-Hersteller?
Jetzt anfangen! Auch wenn vielleicht manches Detail im Gesetzgebungsverfahren noch geändert wird, machen Sie sich zeitnah mit den neuen Anforderungen aus der AIA vertraut, und planen Sie die wesentlichen, neuen Dokumentationsinhalte und Funktionalitäten so früh wie möglich. Einiges lässt sich nachträglich nur schwer oder gar nicht nachrüsten. Viele der neuen Anforderungen werden voraussichtlich im Kern bestehen bleiben, da sie Forderungen anderer Experten, z.B. des Team NB ähnlich sind (2).
Außerdem mag es sinnvoll sein, sich über Verbände aktiv in das laufende Gesetzgebungsverfahren einzubringen. Einiges im AIA ist bisher nicht sehr klar beschrieben oder ist sehr strikt formuliert und kann unter Umständen die Entwicklung von bestimmten Medizinprodukten be- oder im schlimmsten Fall sogar verhindern.
Oliver Hilgers – Partner im Netzwerk der Healthcare Shapers- ist Mitglied in verschiedenen Normenausschüssen der EU. Er gestaltet mit seiner Expertise die Zulassungsprozesse von Software und digitalen Therapien, die als Medizinprodukte zertifiziert sind und vermehrt auch mit Methoden der Künstlichen Intelligenz arbeiten. Oliver Hilgers berät Unternehmen, wie sie ihre Innovationen als zertifizierte Medizinprodukte sicher und effizient in die Patientenversorgung bringen können.
Quellen:
- https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf
- Fragenkatalog „Künstliche Intelligenz bei Medizinprodukten“; https://www.ig-nb.de/dok_view?oid=824260
- Team-NB Position Paper; https://www.team-nb.org/wp-content/uploads/2021/10/Team-NB-PositionPaper-Artificial-Intelligence.pdf
- Vorschaubild: Artificial Neural Network with Chip, Wikimedia
- Veröffentlicht in Digitalisierung, Health-IT