
- Forschung
Meldung vom: | Verfasser/in: Uta von der G?nna
Sie hilft bei der Beurteilung von R?ntgen- und MRT-Bildern, beim Schreiben von Arztbriefen und bei der Auswertung von Messdaten in der Forschung – die Künstliche Intelligenz, kurz KI, ist in der klinischen Praxis und in der biomedizinischen Forschung zu einem hilfreichen und m?chtigen Instrument geworden. So m?chtig, dass Hochschulen und Forschungsorganisationen Empfehlungen und Leitlinien zu ihrer Nutzung in der Wissenschaft formulieren.?
Wie berechtigt das ist, untermauert das Experiment einer Arbeitsgruppe am Universit?tsklinikum Jena (UKJ): Das Forschungsteam nutzte den ?ffentlich verfügbaren Deep-Learning-Algorithmus Stable Diffusion, um aus Trainingsdaten neue histologische Bilder zu erstellen. ?Wir verwendeten als Trainingsbilder einmal drei und einmal 15 echte Schnittbilder von angef?rbtem Gewebe aus M?usenieren“, so Studienleiter Prof. Dr. Ralf Mrowka. ?Bereits auf der Basis von drei Originalbildern entstanden schon recht überzeugende Bilder.“?
In einer Online-Umfrage testete das Forschungsteam, ob diese KI-generierten Histologiebilder von echten zu unterscheiden waren. Die über 800 Teilnehmenden der Umfrage wurden dafür in Experten oder Laien eingeteilt, je nachdem, ob sie Erfahrungen mit dem Beurteilen von histologischen Bildern hatten, wie etwa Medizinstudierende, oder nicht. Ihnen wurden nacheinander 16 einzelne Bilder – je acht echte und KI-generierte – gezeigt, jedes Bild sollte klassifiziert werden, bevor das n?chste erschien.
Neue Methoden zur Erkennung gef?lschter Daten notwendig
Die Expertengruppe ordnete gut zwei Drittel richtig ein. Der Laiengruppe gelang dies nur in gut der H?lfte der F?lle. Beide Gruppen konnten die auf wenigen Trainingsdaten beruhenden KI-Bilder h?ufiger enttarnen. Zehn Teilnehmende der Expertengruppe erkannten alle Bilder korrekt. ?ber alle Bilder- und Teilnehmergruppen hinweg fielen die Entscheidungen zumeist innerhalb der ersten halben Minute. ?Wir konnten auch feststellen, dass richtige Zuordnungen signifikant schneller getroffen wurden als falsche,“ stellt Erstautor Dr. Jan Hartung heraus. ?Eine Beobachtung, die mit g?ngigen Modellen der wahrnehmungsbasierten Entscheidungsfindung im Einklang steht“.
Ralf Mrowka: ?Unser Experiment zeigt, dass die Erfahrung hilft, gef?lschte Bilder zu erkennen; dass aber auch dann ein nicht geringer Anteil künstlicher Bilder nicht zuverl?ssig identifiziert wird.“ ?Dabei sind die technischen Hürden für jemanden mit der Absicht, Abbildungen zu f?lschen, relativ gering“, betont Jan Hartung. ?Man braucht nicht Hunderte von Beispielen zum Trainieren eines Algorithmus, ein Dutzend kann bereits ausreichend sein.“ Das Autorenteam sieht darin eine Herausforderung für die Wissenschaft, derer diese sich bewusst sein muss und die neuer Methoden zur Erkennung gef?lschter Daten in wissenschaftlichen Arbeiten bedarf.
Original-Publikation:
Hartung, J., Reuter, S., Kulow, V.A. et al.: Experts fail to reliably detect AI-generated histological data. Sci Rep 14, 28677 (2024). https://doi.org/10.1038/s41598-024-73913-8Externer Link
Am Klinikum 1
07747 Jena Google Maps – LageplanExterner Link