Update README.md

This commit is contained in:
2025-05-30 21:43:56 +02:00
parent cc3665ec8b
commit d49d272ceb

View File

@@ -47,8 +47,9 @@ Die Arbeit entstand im Kontext eines laufenden Forschungsprojekts unter der Betr
- 🔗 GPT-4 (Closed Source; Ergebnisse über Forschungskooperation verfügbar) - 🔗 GPT-4 (Closed Source; Ergebnisse über Forschungskooperation verfügbar)
## Ergebnisse ## Ergebnisse
<p align="left">
![Modellergebnisse](results/green_pledges_LLM-results.png) <img src="results/green_pledges_LLM-results.png" alt="Description" width="500">
</p>
| Modell | Accuracy | Precision | Recall | F1-Score | | Modell | Accuracy | Precision | Recall | F1-Score |
|-------------------|----------|-----------|--------|----------| |-------------------|----------|-----------|--------|----------|
@@ -69,6 +70,10 @@ Die Arbeit entstand im Kontext eines laufenden Forschungsprojekts unter der Betr
- Ein wesentlicher praktischer Befund dieser Arbeit ist, dass **die Laufzeit des Klassifikationsprozesses bei Gemma 2 und Llama 3.1 ohne angepasste Prompts um den Faktor 1,5 höher lag**. Grund dafür war, dass die Modelle ohne gezielte Prompt-Instruktion häufig ganze generative Textausgaben anstelle der erwarteten **binären Klassifikationen („yes“ / „no“)** zurücklieferten. Erst durch die Einbettung von vier präzisen Klassifikationsbeispielen im Prompt gelang eine stabile Ausgabeform, die zugleich die **semantische Kontexttreue und Modellpräzision erheblich verbesserte**. Besonders deutlich zeigte sich dies bei Gemma 2, das ohne diese Anpassung keinerlei verwertbare Klassifikationsergebnisse lieferte. - Ein wesentlicher praktischer Befund dieser Arbeit ist, dass **die Laufzeit des Klassifikationsprozesses bei Gemma 2 und Llama 3.1 ohne angepasste Prompts um den Faktor 1,5 höher lag**. Grund dafür war, dass die Modelle ohne gezielte Prompt-Instruktion häufig ganze generative Textausgaben anstelle der erwarteten **binären Klassifikationen („yes“ / „no“)** zurücklieferten. Erst durch die Einbettung von vier präzisen Klassifikationsbeispielen im Prompt gelang eine stabile Ausgabeform, die zugleich die **semantische Kontexttreue und Modellpräzision erheblich verbesserte**. Besonders deutlich zeigte sich dies bei Gemma 2, das ohne diese Anpassung keinerlei verwertbare Klassifikationsergebnisse lieferte.
<p align="left">
<img src="results/Gemma2_Llama3.1_Ergebnisvergleich.png" alt="Description" width="1100">
</p>
## Zielgruppen & Anwendungsfälle ## Zielgruppen & Anwendungsfälle
- **Data Scientists & Machine Learning Engineers**, die LLMs im wirtschaftlichen Kontext einsetzen möchten - **Data Scientists & Machine Learning Engineers**, die LLMs im wirtschaftlichen Kontext einsetzen möchten