From d49d272ceb371b50612e66ff32c31649001b0120fa997e42e99b8023366fc39e Mon Sep 17 00:00:00 2001 From: Marcel Weschke Date: Fri, 30 May 2025 21:43:56 +0200 Subject: [PATCH] Update README.md --- README.md | 9 +++++++-- 1 file changed, 7 insertions(+), 2 deletions(-) diff --git a/README.md b/README.md index 581c1c7..7369b0c 100644 --- a/README.md +++ b/README.md @@ -47,8 +47,9 @@ Die Arbeit entstand im Kontext eines laufenden Forschungsprojekts unter der Betr - đź”— GPT-4 (Closed Source; Ergebnisse ĂĽber Forschungskooperation verfĂĽgbar) ## Ergebnisse - -![Modellergebnisse](results/green_pledges_LLM-results.png) +

+ Description +

| Modell | Accuracy | Precision | Recall | F1-Score | |-------------------|----------|-----------|--------|----------| @@ -69,6 +70,10 @@ Die Arbeit entstand im Kontext eines laufenden Forschungsprojekts unter der Betr - Ein wesentlicher praktischer Befund dieser Arbeit ist, dass **die Laufzeit des Klassifikationsprozesses bei Gemma 2 und Llama 3.1 ohne angepasste Prompts um den Faktor 1,5 höher lag**. Grund dafür war, dass die Modelle ohne gezielte Prompt-Instruktion häufig ganze generative Textausgaben anstelle der erwarteten **binären Klassifikationen („yes“ / „no“)** zurücklieferten. Erst durch die Einbettung von vier präzisen Klassifikationsbeispielen im Prompt gelang eine stabile Ausgabeform, die zugleich die **semantische Kontexttreue und Modellpräzision erheblich verbesserte**. Besonders deutlich zeigte sich dies bei Gemma 2, das ohne diese Anpassung keinerlei verwertbare Klassifikationsergebnisse lieferte. +

+ Description +

+ ## Zielgruppen & Anwendungsfälle - **Data Scientists & Machine Learning Engineers**, die LLMs im wirtschaftlichen Kontext einsetzen möchten