Zum Inhalt springen
Bezahlt Low-Code 🇺🇸 US-Server Geprüft: April 2026

MD.ai

MD.ai Inc.

3/5
Tool öffnen

MD.ai ist eine auf Radiologie spezialisierte KI-Plattform für strukturierte Bildannotation, Multi-Reader-Workflows und Peer-Review-Prozesse. Die Plattform ermöglicht es mehreren Radiologinnen und Radiologen, dieselben Bildsätze unabhängig zu befunden und die Abweichungen anschließend strukturiert auszuwerten.

Kosten: Preise auf Anfrage; Enterprise-Lizenzmodell je nach Studienvolumen und Nutzeranzahl

Stärken

  • DICOM-native Viewer mit radiologischen Hangingprotokollen
  • Strukturierte Annotationstemplates für standardisierte Befundklassifikation
  • Multi-Reader-Workflows mit automatischem Konsensus-Tracking
  • Audit-Logs für alle Befundentscheidungen — lückenlose Nachvollziehbarkeit
  • Integration mit gängigen PACS-Systemen

Einschränkungen

  • Keine deutsche Benutzeroberfläche und kein deutschsprachiger Support
  • Datenhaltung ausschließlich in US-amerikanischen Rechenzentren — DSGVO-Konformität muss durch AVV abgesichert werden
  • Enterprise-Preisgestaltung nicht transparent; für kleinere Abteilungen oft zu kostspielig
  • Schwerpunkt liegt auf strukturierter Bildannotation, nicht auf freier Befundtext-Analyse

Passt gut zu

Universitätskliniken und Krankenhäuser der Maximalversorgung mit hohem Studienvolumen Radiologieabteilungen, die KI-Modelltraining durch strukturierte Annotationsdaten unterstützen Forschungsprojekte, die Multi-Reader-Agreement-Studien benötigen

So steigst du ein

Schritt 1: Demo über die Website anfragen und klären, ob das Studienvolumen und die PACS-Integration mit eurer Infrastruktur kompatibel ist. Wichtig: DSGVO-Situation vorab ansprechen, da Datenhaltung in den USA erfolgt.

Schritt 2: Annotation-Templates für eure häufigsten Befundkategorien konfigurieren (z. B. Lunge: Rundherd-Charakterisierung nach Fleischner, Leber: LI-RADS, Brust: BI-RADS). MD.ai liefert Standardtemplates, die angepasst werden können.

Schritt 3: Multi-Reader-Studie starten: Identische Bildsätze an zwei oder mehr Radiologinnen und Radiologen vergeben, Abweichungen automatisch tracken und im integrierten Dashboard auswerten.

Ein konkretes Beispiel

Eine Universitätsradiologie mit 8 Fachärztinnen und Fachärzten möchte die Interrater-Variabilität bei der Klassifikation von Lungenrundherden messen. Über 500 CT-Thorax-Studien werden in MD.ai hochgeladen. Alle Befundenden klassifizieren unabhängig voneinander nach Fleischner. Das System berechnet Cohens Kappa automatisch: 0,42 — mäßige Übereinstimmung. Die Auswertung zeigt, dass die größten Abweichungen bei Herden zwischen 6 und 8 mm auftreten. Das Ergebnis wird im nächsten Qualitätszirkel präsentiert und führt zu einem internen Konsensusprotokoll.

Diesen Inhalt teilen:

Empfohlen in 1 Use Cases

Redaktionell bewertet · Preise und Funktionen können sich ändern.

Stimmt etwas nicht?

Preise geändert, Feature veraltet oder etwas fehlt? Wir freuen uns über Hinweise und Ergänzungen.

Feedback geben
Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar