diff --git a/README.md b/README.md
index 581c1c7..7369b0c 100644
--- a/README.md
+++ b/README.md
@@ -47,8 +47,9 @@ Die Arbeit entstand im Kontext eines laufenden Forschungsprojekts unter der Betr
- đź”— GPT-4 (Closed Source; Ergebnisse ĂĽber Forschungskooperation verfĂĽgbar)
## Ergebnisse
-
-
+
+
+
| Modell | Accuracy | Precision | Recall | F1-Score |
|-------------------|----------|-----------|--------|----------|
@@ -69,6 +70,10 @@ Die Arbeit entstand im Kontext eines laufenden Forschungsprojekts unter der Betr
- Ein wesentlicher praktischer Befund dieser Arbeit ist, dass **die Laufzeit des Klassifikationsprozesses bei Gemma 2 und Llama 3.1 ohne angepasste Prompts um den Faktor 1,5 höher lag**. Grund dafür war, dass die Modelle ohne gezielte Prompt-Instruktion häufig ganze generative Textausgaben anstelle der erwarteten **binären Klassifikationen („yes“ / „no“)** zurücklieferten. Erst durch die Einbettung von vier präzisen Klassifikationsbeispielen im Prompt gelang eine stabile Ausgabeform, die zugleich die **semantische Kontexttreue und Modellpräzision erheblich verbesserte**. Besonders deutlich zeigte sich dies bei Gemma 2, das ohne diese Anpassung keinerlei verwertbare Klassifikationsergebnisse lieferte.
+
+
+
+
## Zielgruppen & Anwendungsfälle
- **Data Scientists & Machine Learning Engineers**, die LLMs im wirtschaftlichen Kontext einsetzen möchten