Update README.md
This commit is contained in:
@@ -47,8 +47,9 @@ Die Arbeit entstand im Kontext eines laufenden Forschungsprojekts unter der Betr
|
||||
- 🔗 GPT-4 (Closed Source; Ergebnisse über Forschungskooperation verfügbar)
|
||||
|
||||
## Ergebnisse
|
||||
|
||||

|
||||
<p align="left">
|
||||
<img src="results/green_pledges_LLM-results.png" alt="Description" width="500">
|
||||
</p>
|
||||
|
||||
| Modell | Accuracy | Precision | Recall | F1-Score |
|
||||
|-------------------|----------|-----------|--------|----------|
|
||||
@@ -69,6 +70,10 @@ Die Arbeit entstand im Kontext eines laufenden Forschungsprojekts unter der Betr
|
||||
|
||||
- Ein wesentlicher praktischer Befund dieser Arbeit ist, dass **die Laufzeit des Klassifikationsprozesses bei Gemma 2 und Llama 3.1 ohne angepasste Prompts um den Faktor 1,5 höher lag**. Grund dafür war, dass die Modelle ohne gezielte Prompt-Instruktion häufig ganze generative Textausgaben anstelle der erwarteten **binären Klassifikationen („yes“ / „no“)** zurücklieferten. Erst durch die Einbettung von vier präzisen Klassifikationsbeispielen im Prompt gelang eine stabile Ausgabeform, die zugleich die **semantische Kontexttreue und Modellpräzision erheblich verbesserte**. Besonders deutlich zeigte sich dies bei Gemma 2, das ohne diese Anpassung keinerlei verwertbare Klassifikationsergebnisse lieferte.
|
||||
|
||||
<p align="left">
|
||||
<img src="results/Gemma2_Llama3.1_Ergebnisvergleich.png" alt="Description" width="1100">
|
||||
</p>
|
||||
|
||||
## Zielgruppen & Anwendungsfälle
|
||||
|
||||
- **Data Scientists & Machine Learning Engineers**, die LLMs im wirtschaftlichen Kontext einsetzen möchten
|
||||
|
||||
Reference in New Issue
Block a user