Anzeige

Mensch vs. Künstliche Intelligenz „Denken ist unser Alleinstellungsmerkmal!“

e-Health Autor: Angela Monecke

Kritisches Denken, Erfahrungswissen, Einfühlen, Verstehen – das sind Stärken des Menschen, die KI-Tools nicht leisten können. Kritisches Denken, Erfahrungswissen, Einfühlen, Verstehen – das sind Stärken des Menschen, die KI-Tools nicht leisten können. © Gelpi – stock.adobe.com
Anzeige

Chatbots kommunizieren heute nicht nur wie menschliche Wesen, sondern spucken ihre Informationen auch noch sekundenschnell aus. Wie lange braucht es den Menschen also noch?

Auf eine erstaunliche Reise in die Welt von Geist und Gehirn nahm Prof. Dr. Volker Busch, Facharzt für Neurologie, Psychiatrie und Psychotherapie an der Universitätsklinik in Regensburg, sein Publikum beim ­diatec-Kongress 2024 in Berlin mit. Keine Statistik, kein Diagramm. Er wolle sein Publikum nicht langweilen, so der international ausgezeichnete Speaker, der sein Wissen rund um „KI, ChatGPT und ethische Fragen“ in anderthalb Stunden unterhaltsam vermittelte.

Der Neurologe stieg mit ernüchternden Fakten ins Thema ein: den drei psychologischen Enttäuschungen der Menschheit. Erstens: Der Astronom Nikolaus Kopernikus hatte recht mit seinen Berechnungen, dass nicht die Erde im Mittelpunkt des Universums steht, sondern die Sonne. Zweitens: Der Naturforscher Charles Darwin hatte recht mit seiner Überzeugung, dass wir keine dritte Linie sind neben Fauna und Flora, sondern mal Affen waren. Drittens: Der Philosoph René Descartes hatte unrecht, weil er den menschlichen Verstand überbetonte.  

Grundprinzip des Gehirns: Informationen wieder löschen

Denn inzwischen sei bekannt, dass das Löschen von Informationen eine der Hauptaufgaben unseres Gehirns sei, so Prof. Busch. Heute strengten wir den Vergleich mit Computern und Festplatten an, die sehr schnell rechnen und riesige Datenmengen speichern könnten. Doch das Grundprinzip des Gehirns bleibe die Löschung. „Wenn Sie den ganzen Abend RTL2 gucken, sind am nächsten Tag 95 % weg “, sagte er augenzwinkernd. Und während die Leistung eines Supercomputers im Mega-Watt-Bereich liege, schaffe es unser Hirn gerade mal auf eine halbe Glühbirne (20 bis 30 Watt).

Computer hätten uns eines voraus: Sie könnten Muster in vielen Datensätzen erkennen. Besonders in der Medizin sei dies hilfreich, betonte der Arzt. Mittlerweile gebe es gute Studien, die zeigten, dass radio­logische Bilder von einer Software, die darauf trainiert wurde, besser erkannt werden als von einem mittelmäßig erfahrenen Radiologen. Dass eine trainierte Maschine in diesem Punkt den Mensch übertrumpfe, „dafür müssen wir uns nicht schämen“, so der Wissenschaftler und Autor. Denn: „Mustererkennung ist noch lange kein Denken! Mustererkennung ist Mustererkennung.“ 

Als Beispiel führte er eine aktuelle Studie aus der Dermatologie an: Eine Software wurde mit Tausenden Bildern trainiert. Sie sollte Hautveränderungen, die durch maligne Melanome (hier: superfiziell spreitendes Melanom) ausgelöst wurden, treffsicher erkennen und von harmlosen unterscheiden. Legte man der Software nun Fotos von Hautveränderungen vor (die Größe der erkrankten Hautstelle wurde auf dem Bild anhand eines Lineals angezeigt), konnte die KI mit fast 100-prozentiger Sicherheit sagen, ob die Veränderung gefährlich ist oder nicht. 

Doch bei der Aufgabenstellung für die Software, einen realen Patienten mit direktem Blick auf die Haut zu beurteilen, sank die Trefferquote in dieser Studie plötzlich auf das Verhältnis eines Münzwurfs. Denn ohne es zu wollen, hatte die Maschine die Korrelation gelernt, dass auf den Fotos stets jene Hautveränderungen maligne sind, auf denen ein Lineal zur Erkennung der Tumorgröße daneben lag. Weil Patienten in der Regel aber „nicht mit einem Lineal um den Bauch“ herumliefen, fehle der KI der Kontext und damit der korrelierende Faktor, so Prof. Busch. „Die Maschine weiß nicht, was Krebs, was ein Karzinom ist. Sie lernt nur kontextuale Faktoren wahrzunehmen“,  und sei damit eine „perzeptive, keine verstehende Intelligenz“. 

Im Gegensatz zum Menschen. „Wir können den Sinn erkennen“, so der Autor. Intelligenz bedeute, „zwischen den Zeilen lesen“ (lateinisch: „intellegere“), also im Kontext etwas verstehen. „Der Mensch kann denken. Das geht weit über die Korrelation hinaus.“ Den Unterschied zwischen Korrelation und Kausalität demonstrierte er anhand einer Berechnung des Googlebots von 2018: Speiseeis verursacht Sonnenbrand. Nur weil im Sommer mehr Eiscreme verkauft wird, bedeutet das natürlich nicht, dass sich mehr Menschen die Haut durch starke Sonnenstrahlen verbrennen. Der tatsächliche Zusammenhang zum Anstieg in den beiden Bereichen liegt lediglich in den höheren Sommertemperaturen.

30 Musiker spielen ein Stück in zehn Minuten. Wie lange brauchen 60 Musiker? Mit dieser Frage stellete der Wissenschaftler ChatGPT auf die Probe, einen Chatbot, der KI nutzt, um menschliche Sprache zu verstehen. Das Ergebnis: fünf Minuten. Nonsens also. „Da muss ich mir doch keine Sorgen machen, dass die Menschheit ausstirbt, wenn die modernsten generativen Modelle immer noch solche Fehler machen.“ ChatGPT4 habe den Fehler allerdings inzwischen ausgeräumt. 

Informationsinzest: Unsinn wird vervielfältigt

Die generelle Gefahr bei Maschinen die KI-Tools nutzen, um Texte zu generieren: Sie geben ungeprüfte und unkorrigierte Informationen millionenfach weiter. „Man nutzt diese dann und beteiligt sich unwissend an einem Kreislauf der Vervielfältigung des Unsinns. Das nennt man Informationsinzest“, so der Psychiater. „Es gibt viele Studien, die zeigen, dass gerade junge Menschen eher googlen, statt selbst nachzudenken, ob irgendetwas Blödsinn sein könnte. Das ist schade.“ Dabei sei das Denken „unser Alleinstellungsmerkmal“. Mit seinen Studierenden veranstalte er deshalb Workshops, bei denen sie wissenschaftliche Studien „auseinandernehmen, um zu lernen zu zweifeln, skeptisch zu sein“, berichtete der Referent.

Während seines eigenen Medizinstudiums arbeitete er u.a. auf einer Kinder-Intensivstation. Er erinnert sich an eine Krankenschwester namens Agnes. „Sie war schon 30 Jahre in dem Job und vom Fachwissen her sehr autark. Sie rief mich oft heran und sagte zum Beispiel: ,Mit dem Kind stimmt was nicht.‘“ Er prüfte die Maschinen, die aber keinen  Alarm schlugen. „Ich habe viel mit ihr gestritten. Doch sie hatte meis­tens recht.“ 

Diese „Erfahrungsbibliothek“, befinde sich im Hippocampus des Gehirns, erklärte Prof. Busch. „Schwester Agnes verfügte beispielsweise über ein ganzes Regal, wie ein Säugling im Inkubator auszusehen hat.“ Denn ihr fiel etwas auf, was Maschinen nicht wahrnehmen: Ein anderes Bewegungsverhalten oder ein verändertes Hautkolorit des Kindes. Das Gehirn von Agnes prüfte dies in einem solchen Fall nach: Ist das Kind so, wie ich es kenne oder nicht? „Findet ein Mismatch statt, bekommen wir meist das Gefühl, dass etwas nicht stimmt. Das nennt man Intuition. Sie ist keine kosmische Eingebung und funktioniert nur mit Erfahrungswissen. Die Entscheidungsinstanz ist im Gehirn verankert.“ 

Bei Ärzten lasse sich z.B. messen, dass deren intuitive Kraft in jedem zweiten Berufsjahr um 3 % steige. Ein 50- bis 60-jähriger Mediziner, der seinen Job lange ausgeübt habe, könne mit seiner beruflichen Erfahrung gegenüber jüngeren Kollegen punkten. 

Das Bauchgefühl erfahrener Menschen liege bei 70 %, fügte Prof. Busch hinzu. Ein Wert, der sich auf 80 % steigern lasse – durch allabendliche Rückbesinnung (Reevaluation). „Man setzt sich am Ende des Tages hin und überlegt: Welche Entscheidungen hat man heute getroffen? Waren sie richtig? Was habe ich erwartet und wie war es wirklich? Damit kalibrieren Sie Ihr System.“

„Es geht Erfahrungswissen verloren, wenn wir nicht bereit sind, Erfahrungen selbst zu machen und aus Fehlern zu lernen“, sagte Prof. Busch. Das falle ihm besonders am Verhalten heutiger Assistenzärzte auf. Immer mehr junge Kollegen verließen sich z.B. lieber auf das Ergebnis eines Kernspintomografen, statt selbst die neurologische Untersuchung am Patienten vorzunehmen und dessen Reflexe eigenhändig zu prüfen. Man müsse Pupillen schon rund „1.000 Mal kontrolliert haben“, um mögliche Veränderungen „richtig einordnen zu können“, sagte der Neurologe. „Das kann man nicht einfach aus einem Buch lernen.“ Digitale Assistenzsys­teme könnten uns heute zwar gut unterstützen, wir sollten aber „immer auch unsere Erfahrungen ­machen“.

Quelle: diatec 2024

Prof. Dr. Volker Busch; Facharzt für Neurologie, Psychiatrie und Psychotherapie, Regensburg Prof. Dr. Volker Busch; Facharzt für Neurologie, Psychiatrie und Psychotherapie, Regensburg © privat
Anzeige