Wissenschaftliche Arbeit, bewertet.
Automatisierte Bewertung wissenschaftlicher Arbeiten mit KI-Unterstützung. Großes RAG-System gegen kuratierte Wissensbasis, strukturierte Bewertungs-Rubrik, transparente Quellenangaben. In Konzeption.
Was war kaputt?
Wissenschaftliche Arbeiten zu bewerten ist zeitaufwendig und stark abhängig von der Tagesform. Naive LLM-Nutzung dafür ist gefährlich — das Modell halluziniert Quellen, vermischt Fakten, gibt souverän Falsches aus. Was fehlt, ist ein System, das nicht ersetzt, sondern strukturiert — konsistente Rubrik, nachvollziehbare Quellen, klare Konfidenz-Stufen.
Wie wurde es gelöst?
- Großes RAG-System gegen kuratierte Wissensbasis (Domain Supply Chain & Operations Management)
- Strukturierte Bewertungs-Rubrik (Methodik, Quellen-Qualität, Argumentations-Stärke, Limitationen)
- Transparente Quellenangaben pro Bewertungs-Punkt — kein "vertrau mir bro"
- Konfidenz-Schwellen — bei zu niedriger Konfidenz Zurückgabe an menschlichen Reviewer
- Audit-Trail über jede Bewertung
Was läuft heute?
Aktuell in Konzeption. Erste Architektur-Skizze und Wissensbasis-Kuratierung laufen. Pilot-Anwendung geplant in Domain Supply Chain & Operations Management — angesiedelt am Master-Hintergrund.
Warum dieser Stack?
Python als Default für RAG-Pipelines (Ökosystem für Embeddings, Vector-Search, Eval-Frameworks). LLM-agnostisch designt — heute Modell A, morgen Modell B, ohne Architektur-Umbau. Vector-Search lokal statt cloud-gehostet, weil Wissenschafts-Quellen oft Lizenz-restriktiv sind und nicht ungefragt zu US-Cloud-Anbietern fließen sollen.
Auf einen Blick
- Großes RAG-System mit kuratierter Wissensbasis
- Strukturierte Bewertungs-Rubrik
- Transparente Quellenangaben pro Bewertung
- Domain Supply Chain & Operations Management
Fragen zum Projekt? Schreib mir.
Direkter Austausch über Architektur, Technik oder Hintergründe ist gerne willkommen — per Email, ohne Sales-Funnel.