Aktuelle Meldungen

Skalierbares Open-Source-Software-Toolkit für die automatisierte Bilderfassung mit dSTORM

Superhochauflösung in der Fluoreszenzmikroskopie ermöglicht winzige Strukturen biologischer Proben in unglaublicher Detailgenauigkeit zu betrachten. Trotz ihres Potenzials bleibt die Erfassung hochmoderner, superhochaufgelöster Bilder aufgrund des erforderlichen technischen Fachwissens, der zeitintensiven Verfahren und der komplexen Analyse eine Herausforderung.

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.

In dieser Studie präsentiert die Neurologie gemeinsam mit dem Rudolf-Virchow-Zentrum – Center für Integrative und Translationale Bildgebung (RVZ) ein skalierbares Open-Source-Software-Toolkit, das die Bilderfassung mit dSTORM automatisiert. Durch die Nutzung von Deep Learning zur Segmentierung kann das Toolkit Objekte in verschiedenen biomedizinischen Proben präzise identifizieren und gezielt anvisieren, selbst solche mit geringem Kontrast. Diese Automatisierung beschleunigt die Workflows dieser Bildgebung erheblich. Durch die Bereitstellung einer breit zugänglichen, benutzerfreundlichen Lösung können Forscherinnen und Forscher verschiedener Disziplinen die Leistungsfähigkeit der Super-Resolution-Mikroskopie nutzen, ohne eine umfangreiche Spezialausbildung zu benötigen.

Das eigenständige Programm, das in der Fachzeitschrift Biophysical Reports präsentiert wird und sogar den Titel erhalten hat, ermöglicht die zuverlässige Segmentierung biomedizinischer Bilder und übertrifft bestehende Lösungen. Integriert in die Bildgebungs-Pipeline verarbeitet es hochaufgelöste Daten in Minutenschnelle und reduziert so den manuellen Arbeitsaufwand. Anhand biologischer Beispiele wie Mikrotubuli in Zellkulturen und dem βII-Spektrin in Nervenfasern zeigen Janis T Linke und Katrin Heinze vom RVZ gemeinsam mit Luise Appeltshauser und Kathrin Doppler aus der Neurologie, dass der Ansatz die superauflösende Bildgebung schneller, robuster und benutzerfreundlicher macht, auch für Mikroskopie-Laien. Dies erweitert die Anwendungsmöglichkeiten in der Biomedizin, einschließlich Hochdurchsatz-Experimenten.

Janis T Linke, Luise Appeltshauser, Kathrin Doppler, Katrin G Heinze. Deep learning-driven automated high-content dSTORM imaging with a scalable open-source toolkit. Biophys Rep (N Y). 2025 Jun 11;5(2):100201. https://doi.org/10.1016/j.bpr.2025.100201. Epub 2025 Feb 28. PMID: 40023500; PMCID: PMC11986538.

Zur Publikation bei PubMed

 

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.
Skalierbares Open-Source-Software-Toolkit für die automatisierte Bilderfassung mit dSTORM

Superhochauflösung in der Fluoreszenzmikroskopie ermöglicht winzige Strukturen biologischer Proben in unglaublicher Detailgenauigkeit zu betrachten. Trotz ihres Potenzials bleibt die Erfassung hochmoderner, superhochaufgelöster Bilder aufgrund des erforderlichen technischen Fachwissens, der zeitintensiven Verfahren und der komplexen Analyse eine Herausforderung.

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.

In dieser Studie präsentiert die Neurologie gemeinsam mit dem Rudolf-Virchow-Zentrum – Center für Integrative und Translationale Bildgebung (RVZ) ein skalierbares Open-Source-Software-Toolkit, das die Bilderfassung mit dSTORM automatisiert. Durch die Nutzung von Deep Learning zur Segmentierung kann das Toolkit Objekte in verschiedenen biomedizinischen Proben präzise identifizieren und gezielt anvisieren, selbst solche mit geringem Kontrast. Diese Automatisierung beschleunigt die Workflows dieser Bildgebung erheblich. Durch die Bereitstellung einer breit zugänglichen, benutzerfreundlichen Lösung können Forscherinnen und Forscher verschiedener Disziplinen die Leistungsfähigkeit der Super-Resolution-Mikroskopie nutzen, ohne eine umfangreiche Spezialausbildung zu benötigen.

Das eigenständige Programm, das in der Fachzeitschrift Biophysical Reports präsentiert wird und sogar den Titel erhalten hat, ermöglicht die zuverlässige Segmentierung biomedizinischer Bilder und übertrifft bestehende Lösungen. Integriert in die Bildgebungs-Pipeline verarbeitet es hochaufgelöste Daten in Minutenschnelle und reduziert so den manuellen Arbeitsaufwand. Anhand biologischer Beispiele wie Mikrotubuli in Zellkulturen und dem βII-Spektrin in Nervenfasern zeigen Janis T Linke und Katrin Heinze vom RVZ gemeinsam mit Luise Appeltshauser und Kathrin Doppler aus der Neurologie, dass der Ansatz die superauflösende Bildgebung schneller, robuster und benutzerfreundlicher macht, auch für Mikroskopie-Laien. Dies erweitert die Anwendungsmöglichkeiten in der Biomedizin, einschließlich Hochdurchsatz-Experimenten.

Janis T Linke, Luise Appeltshauser, Kathrin Doppler, Katrin G Heinze. Deep learning-driven automated high-content dSTORM imaging with a scalable open-source toolkit. Biophys Rep (N Y). 2025 Jun 11;5(2):100201. https://doi.org/10.1016/j.bpr.2025.100201. Epub 2025 Feb 28. PMID: 40023500; PMCID: PMC11986538.

Zur Publikation bei PubMed

 

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.
Skalierbares Open-Source-Software-Toolkit für die automatisierte Bilderfassung mit dSTORM

Superhochauflösung in der Fluoreszenzmikroskopie ermöglicht winzige Strukturen biologischer Proben in unglaublicher Detailgenauigkeit zu betrachten. Trotz ihres Potenzials bleibt die Erfassung hochmoderner, superhochaufgelöster Bilder aufgrund des erforderlichen technischen Fachwissens, der zeitintensiven Verfahren und der komplexen Analyse eine Herausforderung.

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.

In dieser Studie präsentiert die Neurologie gemeinsam mit dem Rudolf-Virchow-Zentrum – Center für Integrative und Translationale Bildgebung (RVZ) ein skalierbares Open-Source-Software-Toolkit, das die Bilderfassung mit dSTORM automatisiert. Durch die Nutzung von Deep Learning zur Segmentierung kann das Toolkit Objekte in verschiedenen biomedizinischen Proben präzise identifizieren und gezielt anvisieren, selbst solche mit geringem Kontrast. Diese Automatisierung beschleunigt die Workflows dieser Bildgebung erheblich. Durch die Bereitstellung einer breit zugänglichen, benutzerfreundlichen Lösung können Forscherinnen und Forscher verschiedener Disziplinen die Leistungsfähigkeit der Super-Resolution-Mikroskopie nutzen, ohne eine umfangreiche Spezialausbildung zu benötigen.

Das eigenständige Programm, das in der Fachzeitschrift Biophysical Reports präsentiert wird und sogar den Titel erhalten hat, ermöglicht die zuverlässige Segmentierung biomedizinischer Bilder und übertrifft bestehende Lösungen. Integriert in die Bildgebungs-Pipeline verarbeitet es hochaufgelöste Daten in Minutenschnelle und reduziert so den manuellen Arbeitsaufwand. Anhand biologischer Beispiele wie Mikrotubuli in Zellkulturen und dem βII-Spektrin in Nervenfasern zeigen Janis T Linke und Katrin Heinze vom RVZ gemeinsam mit Luise Appeltshauser und Kathrin Doppler aus der Neurologie, dass der Ansatz die superauflösende Bildgebung schneller, robuster und benutzerfreundlicher macht, auch für Mikroskopie-Laien. Dies erweitert die Anwendungsmöglichkeiten in der Biomedizin, einschließlich Hochdurchsatz-Experimenten.

Janis T Linke, Luise Appeltshauser, Kathrin Doppler, Katrin G Heinze. Deep learning-driven automated high-content dSTORM imaging with a scalable open-source toolkit. Biophys Rep (N Y). 2025 Jun 11;5(2):100201. https://doi.org/10.1016/j.bpr.2025.100201. Epub 2025 Feb 28. PMID: 40023500; PMCID: PMC11986538.

Zur Publikation bei PubMed

 

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.
Virtuelle Realität verbessert langfristiges Lernen in der Notfallmedizin

In den ersten Berufsjahren stehen junge Ärztinnen und Ärzte oft vor der Herausforderung, unter Zeitdruck schnell Entscheidungen zu treffen, Aufgaben richtig zu priorisieren und auf wichtige praktische Erfahrungen zurückzugreifen. Gerade in Notfallsituationen sind diese Fähigkeiten von entscheidender Bedeutung. Genau hier setzt die Technologie der virtuellen Realität (VR) an. Sie ermöglicht realistische und interaktive Lernszenarien, in denen Studierende risikofrei anhand standardisierter Notfallfälle trainieren können.

Studentin trägt VR-Brille und Handgeräte und bewegt sich damit im Untersuchungsraum der Lehrklinik; auf einer Liegt ist eine Puppe zur Untersuchung mit Patientenkittel.
VR-Simulation in der Lehrklinik des UKW

Die Arbeitsgruppe „Virtual Reality Simulation im Medizinstudium“ hat unter der Leitung von Tobias Mühling gemeinsam mit dem Münchner 3D-Visualisierungsunternehmen ThreeDee das VR-basierte Trainingsprogramm STEP-VR (Simulation-based Training of Emergencies for Physicians using Virtual Reality) entwickelt. In einer Studie wurden nun die kurz- und langfristigen Lerneffekte des VR-basierten Notfalltrainings untersucht. Die im renommierten Journal of Medical Internet Research veröffentlichten Ergebnisse zeigen, dass direkt nach dem Training die VR-Gruppe und die Kontrollgruppe beim Wissenstest ähnlich gut abschnitten. Nach 30 Tagen zeigte sich jedoch ein klarer Vorteil für die VR-Gruppe: Ihre Teilnehmerinnen und Teilnehmer konnten sich deutlich mehr Wissen merken. Insgesamt bewerteten die Studierenden das VR-Training auch als wirkungsvoller, spannender und hilfreicher.

Marco Lindner, Tobias Leutritz, Joy Backhaus, Sarah König, Tobias Mühling. Knowledge Gain and the Impact of Stress in a Fully Immersive Virtual Reality–Based Medical Emergencies Training With Automated Feedback: Randomized Controlled Trial. J Med Internet Res 2025;27:e67412, doi: 10.2196/67412, PMID: 40465566

Zur Publikation bei PubMed

Zur Pressemeldung

Studentin trägt VR-Brille und Handgeräte und bewegt sich damit im Untersuchungsraum der Lehrklinik; auf einer Liegt ist eine Puppe zur Untersuchung mit Patientenkittel.
VR-Simulation in der Lehrklinik des UKW
Virtuelle Realität verbessert langfristiges Lernen in der Notfallmedizin

In den ersten Berufsjahren stehen junge Ärztinnen und Ärzte oft vor der Herausforderung, unter Zeitdruck schnell Entscheidungen zu treffen, Aufgaben richtig zu priorisieren und auf wichtige praktische Erfahrungen zurückzugreifen. Gerade in Notfallsituationen sind diese Fähigkeiten von entscheidender Bedeutung. Genau hier setzt die Technologie der virtuellen Realität (VR) an. Sie ermöglicht realistische und interaktive Lernszenarien, in denen Studierende risikofrei anhand standardisierter Notfallfälle trainieren können.

Studentin trägt VR-Brille und Handgeräte und bewegt sich damit im Untersuchungsraum der Lehrklinik; auf einer Liegt ist eine Puppe zur Untersuchung mit Patientenkittel.
VR-Simulation in der Lehrklinik des UKW

Die Arbeitsgruppe „Virtual Reality Simulation im Medizinstudium“ hat unter der Leitung von Tobias Mühling gemeinsam mit dem Münchner 3D-Visualisierungsunternehmen ThreeDee das VR-basierte Trainingsprogramm STEP-VR (Simulation-based Training of Emergencies for Physicians using Virtual Reality) entwickelt. In einer Studie wurden nun die kurz- und langfristigen Lerneffekte des VR-basierten Notfalltrainings untersucht. Die im renommierten Journal of Medical Internet Research veröffentlichten Ergebnisse zeigen, dass direkt nach dem Training die VR-Gruppe und die Kontrollgruppe beim Wissenstest ähnlich gut abschnitten. Nach 30 Tagen zeigte sich jedoch ein klarer Vorteil für die VR-Gruppe: Ihre Teilnehmerinnen und Teilnehmer konnten sich deutlich mehr Wissen merken. Insgesamt bewerteten die Studierenden das VR-Training auch als wirkungsvoller, spannender und hilfreicher.

Marco Lindner, Tobias Leutritz, Joy Backhaus, Sarah König, Tobias Mühling. Knowledge Gain and the Impact of Stress in a Fully Immersive Virtual Reality–Based Medical Emergencies Training With Automated Feedback: Randomized Controlled Trial. J Med Internet Res 2025;27:e67412, doi: 10.2196/67412, PMID: 40465566

Zur Publikation bei PubMed

Zur Pressemeldung

Studentin trägt VR-Brille und Handgeräte und bewegt sich damit im Untersuchungsraum der Lehrklinik; auf einer Liegt ist eine Puppe zur Untersuchung mit Patientenkittel.
VR-Simulation in der Lehrklinik des UKW
Virtuelle Realität verbessert langfristiges Lernen in der Notfallmedizin

In den ersten Berufsjahren stehen junge Ärztinnen und Ärzte oft vor der Herausforderung, unter Zeitdruck schnell Entscheidungen zu treffen, Aufgaben richtig zu priorisieren und auf wichtige praktische Erfahrungen zurückzugreifen. Gerade in Notfallsituationen sind diese Fähigkeiten von entscheidender Bedeutung. Genau hier setzt die Technologie der virtuellen Realität (VR) an. Sie ermöglicht realistische und interaktive Lernszenarien, in denen Studierende risikofrei anhand standardisierter Notfallfälle trainieren können.

Studentin trägt VR-Brille und Handgeräte und bewegt sich damit im Untersuchungsraum der Lehrklinik; auf einer Liegt ist eine Puppe zur Untersuchung mit Patientenkittel.
VR-Simulation in der Lehrklinik des UKW

Die Arbeitsgruppe „Virtual Reality Simulation im Medizinstudium“ hat unter der Leitung von Tobias Mühling gemeinsam mit dem Münchner 3D-Visualisierungsunternehmen ThreeDee das VR-basierte Trainingsprogramm STEP-VR (Simulation-based Training of Emergencies for Physicians using Virtual Reality) entwickelt. In einer Studie wurden nun die kurz- und langfristigen Lerneffekte des VR-basierten Notfalltrainings untersucht. Die im renommierten Journal of Medical Internet Research veröffentlichten Ergebnisse zeigen, dass direkt nach dem Training die VR-Gruppe und die Kontrollgruppe beim Wissenstest ähnlich gut abschnitten. Nach 30 Tagen zeigte sich jedoch ein klarer Vorteil für die VR-Gruppe: Ihre Teilnehmerinnen und Teilnehmer konnten sich deutlich mehr Wissen merken. Insgesamt bewerteten die Studierenden das VR-Training auch als wirkungsvoller, spannender und hilfreicher.

Marco Lindner, Tobias Leutritz, Joy Backhaus, Sarah König, Tobias Mühling. Knowledge Gain and the Impact of Stress in a Fully Immersive Virtual Reality–Based Medical Emergencies Training With Automated Feedback: Randomized Controlled Trial. J Med Internet Res 2025;27:e67412, doi: 10.2196/67412, PMID: 40465566

Zur Publikation bei PubMed

Zur Pressemeldung

Studentin trägt VR-Brille und Handgeräte und bewegt sich damit im Untersuchungsraum der Lehrklinik; auf einer Liegt ist eine Puppe zur Untersuchung mit Patientenkittel.
VR-Simulation in der Lehrklinik des UKW
Optimiertes Protokoll zum Aufbau komplexer Atemwegsmodelle ersetzt Tierversuche

Seit vielen Jahren stellt das Forschungsteam rund um Maria Steinke komplexe Gewebemodelle der humanen Atemwegschleimhaut in vitro her. Diese Modelle ähneln sowohl morphologisch als auch funktionell dem Gewebe in vivo und werden unter anderem für die Infektions- und Aromaforschung genutzt. Bisher verwendete das Team als Basis zum Aufbau der Modelle eine dreidimensionale (3D) Extrazellulärmatrix, die durch Tierversuche an Schweinen gewonnen wurde.

Logo der WI3R-Initiative der Universitätsmedizin Würzburg Replace.Reduce.Refine
Das Universitätsklinikum Würzburg setzt sich gemeinsam mit der Universität Würzburg und dem Fraunhofer-Institut für Silicatforschung in der Würzburger Initiative 3R dafür ein, Tierversuche in der Forschung zu reduzieren und zu ersetzen. © AdobeStock / Fraunhofer ISC

In dem von der Deutschen Forschungsgemeinschaft (DFG) geförderten Graduiertenkolleg 2157 „3D Tissue Models for Studying Microbial Infections by Human Pathogens“ etablierten die Forscherinnen und Forscher nun gemeinsam mit Kollegen des Fraunhofer ISC und der Universität Würzburg ein Protokoll, mit welchem diese Tierversuche nun komplett ersetzen werden können: anstatt der tierischen Matrix kommt nun ein synthetisches 3D Fasergerüst aus hochporösem Polyamid 6 zum Einsatz, welches die physiologische Gewebestruktur imitiert. Diese Trägerstruktur ist biokompatibel und ermöglicht den Aufbau differenzierter humaner Atemwegsmodelle, die für die Infektions- und Aromaforschung sowie für viele weitere Fragestellungen verwendet werden können.

Niklas Pallmann, Elena Lajtha, Heike Oberwinkler, Tobias Weigel, Armin von Fournier, Agmal Scherzad, Jean-Marie Heydel, Stephan Hackenberg, Jochen Bodem, Maria Steinke. Improving Human Respiratory Mucosa Tissue Models with Polyamide 6 Scaffolds. Tissue Eng Part C Methods. 2025 Jun;31(6):203-210 doi: 10.1089/ten.tec.2025.0087. Epub 2025 Jun 4

Zur Publikation bei PubMed

Logo der WI3R-Initiative der Universitätsmedizin Würzburg Replace.Reduce.Refine
Das Universitätsklinikum Würzburg setzt sich gemeinsam mit der Universität Würzburg und dem Fraunhofer-Institut für Silicatforschung in der Würzburger Initiative 3R dafür ein, Tierversuche in der Forschung zu reduzieren und zu ersetzen. © AdobeStock / Fraunhofer ISC

Kontakt, Öffnungszeiten, Sprechzeiten

Öffnungszeiten

Terminvereinbarung Palliativdienst
Montag bis Donnerstag: 7:30 Uhr bis 16 Uhr
Freitag: 7:30 Uhr bis 14:30 Uhr

 

Telefon

Palliativstation
+49 931 201-28861

Palliativdienst
+49 931 201-28860

E-Mail

Palliativstation
palliativstation@ ukw.de

Palliativdienst
palliativdienst@ ukw.de

Fax

Palliativstation
+49 931 201-28886

Palliativdienst
+49 931 201-28873


Anschrift

Universitätsklinikum Würzburg | Interdisziplinäres Zentrum Palliativmedizin | Haus B1 | Josef-Schneider-Straße 11 | 97080 Würzburg