Samstag, 23. Dezember 2017

Die vieldiskutierte Herrschaft der Algorithmen am Beispiel der Entscheidung über Leben und Tod. Ein Todes-Algorithmus "nur" als ein weiteres Geschäftsmodell?

Schon seit Jahren wird immer wieder über die "Herrschaft der Algorithmen" diskutiert. Nehmen wir aus der Medienberichterstattung als eines der vielen Beispiele einen Artikel aus dem Jahr 2010: Herrschaft der Algorithmen: Die Welt bleibt unberechenbar von Jürgen Kuri: »Algorithmen beherrschen die Welt, die Gesellschaft, unser Leben, online wie offline. HedgeFonds entscheiden über Wohl und Wehe von Märkten, Firmen und ganzen Volkswirtschaften anhand der Berechnungen, mit denen die Algorithmen der Finanzmathematik die Welt erklären. Die selbständigen Transaktionen der automatisierten Börsensoftware lösen Auf- und Abwärtsbewegungen der Aktienindizes, ja ihren plötzlichen Absturz aus ... Scoring-Algorithmen bestimmen anhand persönlicher Zahlungsmoral, individuellen Umfelds, Wohn- und Arbeitssituation die Kreditwürdigkeit eines Bürgers. In per W-Lan vernetzten Kraftfahrzeugen entscheiden Algorithmen, welche Autobahn die Strecke mit den wenigsten Staus verspricht und wie schnell oder langsam der Wagen fahren muss, um effizient und schnell ans Ziel zu kommen. Smartphone-Apps zeigen anhand von Bevölkerungsdaten und Kriminalitätsstatistik, ob es eine gute Idee ist, die schicke Wohnung ausgerechnet in diesem oder jenem Wohnviertel zu beziehen. Empfehlungsalgorithmen sagen uns, welche Musik wir hören wollen, welches Buch wir lesen möchten, welche Menschen wir treffen sollen.«

Das hat sich in den vergangenen Jahren immer weiter ausdifferenziert und für viele von uns ist die algorithmische Durchdringung des Alltags schon gar nicht mehr als solche wahrnehmbar, weil so selbstverständlich. Irritationen und ungute Gefühle kommen - wenn überhaupt - bei den meisten nur noch dann auf, wenn die Algorithmen (und die immer dahinter stehenden Menschen) in Grenzbereiche vorstoßen, die mit einem Rest an Eigensinn ausgestattet sind bzw. denen eine an sich der Kalkulation nicht zugängliche Wertigkeit zugeschrieben wird.

Dazu gehört sicher für die meisten Menschen die Frage von Leben und Tod. Aber auch hier muss man zur Kenntnis nehmen, dass das grundsätzlich keine geschützte Zone ist (außer man definiert, fixiert und verteidigt diese als solche). Und der eine oder andere ahnt es schon - angesichts der Geldsummen, die in diesem Grenzbereich durch medizinische Behandlung und Pflege ausgegeben werden, ist der sprichwörtliche Teufel nicht weit, der sich in unseren Zeiten gerne hinter scheinbar wertfreien und nur technisch daherkommenden Begrifflichkeiten wie Effizienz und Effektivität zu tarnen versucht, um hier Geschäftsmodelle aufzusetzen, an denen andere ein großes Interesse haben.

Und wer da welche Interessen hat, kann man schnell erkennen, wenn man solche Versprechen zur Kenntnis nimmt: "Wir können sagen, welche Patienten in einer Woche, sechs Wochen oder einem Jahr sterben. Wir können zu Behandlungsplänen sagen: Wie viel kostet der Patient?"
Diese Worte stammen von Bill Frist und das "wir" bezieht sich auf das auch von ihm gegründete US-Unternehmen Aspire Health. Darüber wird in diesem Artikel von Tina Soliman berichtet: Geschäftsmodell Lebenserwartung: Der Todes-Algorithmus. Das Thema wurde auch in einem Beitrag des Politikmagazins Panorama aufgegriffen.
»Das von Google mitfinanzierte Unternehmen wertet mithilfe von Algorithmen ärztliche Diagnosen von Patienten aus und gleicht das Krankheitsbild mit Mustern häufiger Therapien ab. So soll verhindert werden, dass Schwerkranke unnötige Behandlungen bekommen, die außerdem noch viel Geld kosten. Das spart teure Untersuchungen, wenn man zu wissen glaubt, dass es ohnehin bald um den Patienten geschehen ist. "Aspire Health" will Kosten senken. Rund 40 Prozent der Ausgaben für Behandlungen könnten eingespart werden, erwartet das US-Unternehmen, das sein Geld mit Palliativpflege verdient. Denn Pflege kostet weniger als Behandlung. Das klingt nach Effizienz.« 
Nun wird der eine oder andere an dieser Stelle einwenden, dass das alles doch nur auf statistischen Wahrscheinlichkeiten basiert - und die abstrahieren bekanntlich gerade vom Einzelfall. Lässt sich die Prognose über den Krankheitsverlauf eines Menschen anhand von Statistiken errechnen? Was ist mit nicht messbaren, aber entscheidenden Faktoren - wie etwa dem Überlebenswillen eines Patienten?
»Kevin Baum, Computer-Ethiker der Universität des Saarlandes, warnt vor Schwächen der Algorithmen. Sie urteilten nur auf der Basis der Daten, mit denen sie gefüttert würden, sagt er. "Sie bilden immer nur das Modell eines Menschen ab, nie den Menschen selbst." Nicht beachtete individuelle Eigenschaften, die aber durchaus relevant sein können - wie etwa der Kampfeswille - können somit übersehen werden. Maschinen lernen, aber sie denken und fühlen nicht.
"Was eine Maschine nicht kann, ist, eine Einzelfallentscheidung zu fällen", so Baum. Die Idee sei, dass ähnliche Fälle ähnlich funktionierten. "Das muss aber auch nicht unbedingt sein. Wir könnten uns zwei Patienten vorstellen, die beide auf dem Fragebogen die gleichen Antworten gegeben haben, deren Patientenakten genau gleich aussehen. Wir können annehmen, dass das alles in den Algorithmus eingeht. Und trotzdem können wir annehmen, dass der eine Patient nach sechs Monaten tot ist und der andere Patient noch 15 Jahre lebt."«
Übrigens wurde hier in diesem Blog über das Unternehmen und das Thema schon Anfang des Jahres berichtet, in dem Beitrag Der Algorithmus als Sensenmann? Umrisse der Gefahr einer totalen Ökonomisierung am Ende des Lebens vom 9. Januar 2017. In diesem Beitrag wird Adrian Lobe zitiert, der in seinem Artikel Der Algorithmus schlägt die letzte Stunde prägnant bilanziert hat:
»So funktioniert das Gesundheitswesen im neoliberalen Gleichungssystem: weniger Geld gleich mehr Leistung. Statt im Krankenhaus soll der Todgeweihte palliativmedizinisch zu Hause behandelt werden, wovon man sich Einsparungen für das Gesundheitssystem erhofft. Das ist der Ausstieg aus dem Solidarsystem. Der Hintergrund: Ein Viertel des jährlichen Budgets der amerikanischen Krankenversicherung Medicare, rund 150 Milliarden Dollar, fließt in die Behandlung von Patienten in ihrem letzten Lebensjahr.
Das Kalkül ist nun, dass man sich teure Untersuchungen sparen kann, wenn man zu wissen glaubt, dass es um den Patienten ohnehin bald geschehen sei. Für jeden Patienten wird ein medizinisches Ablaufdatum errechnet, das ihn als Risikopatienten oder hoffnungslosen Fall ausweist. Im Klartext heißt das: Ein Algorithmus bestimmt, wie jemand ärztlich versorgt wird.«
Die Nutzung von Algorithmen im Gesundheitswesen breitet sich immer mehr aus - und sie ist auch nicht grundsätzliche zu verdammen. "Wenn aber Algorithmen entwickelt werden von Firmen, die etwas verkaufen wollen oder die Kosten dämpfen wollen - dann ist das ein Punkt, der mir zu weit geht. Und den muss man in der Umsetzung verbieten", sowie wird einer zitiert, der sie selbst in seiner medizinischen Praxis anwendet, aber auf der Grundlage von selbst entwickelten Algorithmen, bei denen man die Basis kennt: der Onkologe Wolfgang Hiddemann von Klinikum Großhadern in München.

Vor diesem Hintergrund sollten sich einem sämtliche Nackenhaare sträuben, wenn man liest: »Start-Ups wie "Aspire Health" legen ihre Algorithmen nicht offen. So wird die Entscheidung über Leben und Tod an eine Firma ausgelagert, deren Manager und Strukturen nicht bekannt sind. Das Leben: ein Betriebsgeheimnis.«

Und ein weiters mehr als bedenkliches Beispiel wird genannt: Mit 23andMe gibt es eine US-Firma, die einen Gen-Selbsttest anbietet: »Man schickt eine Speichelprobe ein und bekommt eine Analyse des eigenen DNA-Bauplans. Man erfährt etwa, ob man unter einer Erbkrankheit leidet.« Es handelt sich - Überraschung - um eine ebenfalls auch von Google mitfinanzierte Start-Up, das die Entschlüsselung der Erbinformation anbietet. Längst arbeitet die Firma mit  internationalen Pharmafirmen zusammen. Bereist 2013 wurde davor eindringlich gewarnt: Erbgutanalysen: Arzneiprüfer warnen vor Gentests von 23andMe - und zwar seitens der US-Arzneimittelbehörde FDA. Nun schreiben wir das Jahresende 2017 und die Firma ist weiter auf dem Markt des Schreckens unterwegs.

Und sie wird mit großer Wahrscheinlichkeit eine dieser modernen Erfolgsgeschichten werden - denn ungeachtet aller völlig berechtigten grundsätzlichen, aber auch durch zahlreiche fehlerhafte Messungen empirisch begründeten Kritik kann man sich lebhaft vorstellen, dass Versicherungen und Arbeitgeber durchaus ein großes, ein sehr großes Interesse an den Daten haben und Wege suchen werden, an diese Daten zu kommen. Weil sich hier handfeste unterschiedliche ökonomische Interessen vermischen mit den (scheinbaren) Potenzialen der Welt der Algorithmen. Und je mehr wir uns daran gewöhnen und sie akzeptieren, desto schwieriger wird es sein, Dämme gegen die Kommerzialisierung und Instrumentalisierung zu bauen und diese zu sichern. Und neben den Gefahren einer klassischen Indienstnahme der Verfahren für finanzkräftige Interessen werden wir zunehmend konfrontiert mit einer Verselbständigung der Algorithmen, die selbst ihre Schöpfer immer öfter ratlos zurücklassen.

Und auch - ein höchst sensibles Thema - die Sterbehilfe muss an dieser Stelle aufgerufen werden. Dazu wurden in diesem Blog zahlreiche Beiträge veröffentlicht, in denen immer wieder darauf hingewiesen wurde, dass neben allem Verständnis für die individuelle und damit immer einzigartige Entscheidungssituation, die für die Inanspruchnahme der Sterbehilfe sprechen kann, eine gewaltige gesellschaftliche Drohkulisse am Zukunftshorizont in Umrissen erkennbar ist, wenn man denn hinschauen will. In dem Beitrag Wo soll das enden? Sterbehilfe als Wachstumsbranche und eine fortschreitende Verschiebung der Grenzen, der vor einem Jahr hier veröffentlicht wurde, kann man diesen Blick in die Glaskugel finden, der sich am Ende des Jahres 2017 genau so wieder aufrufen lässt:
In diesem Kontext sollte man auch so ein Urteil hinsichtlich seiner langfristigen Bedeutung sehen und kritisch diskutieren: Leben als Schaden, so hat Maximilian Amos seinen Artikel überschrieben, in dem er über eine Entscheidung des OLG München berichtet: »Das OLG München hat einen Arzt zur Zahlung von Schadensersatz verurteilt, weil er einen Patienten am Leben erhielt. Sein Vertreter sieht darin eine Wende in der Medizinethik.« Das Gericht hat einen Arzt verurteilt, weil er einen Patienten zu lange am Leben erhalten hatte (Urt. v. 21.12.2017, Az. 1 U 454/17). Schon das Landgericht (LG) München I hatte in erster Instanz daraufhin festgestellt, dass in der Aufrechterhaltung der lebenserhaltenden Maßnahmen ein Behandlungsfehler liege und dies einen Schaden herbeiführe. 
Wer verhindert (später) das Reinrutschen in eine gesellschaftliche Konstellation, in der "sozioökonomische Schwierigkeiten im Alter" als legitimer Grund für Sterbehilfe angesehen wird, weil die "Normalisierung" der aktiven Sterbehilfe, die am Anfang auf einige wenige und für die meisten Menschen durchaus nachvollziehbare schwerste Krankheitssituationen beschränkt war und damit eine Art "Erlösungsbonus" verbuchen konnte, zwischenzeitlich immer weiter ausgedehnt wurde und wird? Und kann es nicht auch sein, dass die gesellschaftlich immer größer werdende Akzeptanz der assistierten Selbsttötung eine Erwartungshaltung, diesen Weg zu gehen, ans Tageslicht befördert, um Probleme zu "entsorgen"? Angesichts dessen, was an Verteilungskonflikte aufgrund der Alterung der europäischen Gesellschaften noch auf uns zukommen wird, kann man an dieser Stelle eine große Beunruhigung empfinden.

Foto: Pixabay

Keine Kommentare: