Update README.md
This commit is contained in:
@@ -47,8 +47,9 @@ Die Arbeit entstand im Kontext eines laufenden Forschungsprojekts unter der Betr
|
|||||||
- 🔗 GPT-4 (Closed Source; Ergebnisse über Forschungskooperation verfügbar)
|
- 🔗 GPT-4 (Closed Source; Ergebnisse über Forschungskooperation verfügbar)
|
||||||
|
|
||||||
## Ergebnisse
|
## Ergebnisse
|
||||||
|
<p align="left">
|
||||||

|
<img src="results/green_pledges_LLM-results.png" alt="Description" width="500">
|
||||||
|
</p>
|
||||||
|
|
||||||
| Modell | Accuracy | Precision | Recall | F1-Score |
|
| Modell | Accuracy | Precision | Recall | F1-Score |
|
||||||
|-------------------|----------|-----------|--------|----------|
|
|-------------------|----------|-----------|--------|----------|
|
||||||
@@ -69,6 +70,10 @@ Die Arbeit entstand im Kontext eines laufenden Forschungsprojekts unter der Betr
|
|||||||
|
|
||||||
- Ein wesentlicher praktischer Befund dieser Arbeit ist, dass **die Laufzeit des Klassifikationsprozesses bei Gemma 2 und Llama 3.1 ohne angepasste Prompts um den Faktor 1,5 höher lag**. Grund dafür war, dass die Modelle ohne gezielte Prompt-Instruktion häufig ganze generative Textausgaben anstelle der erwarteten **binären Klassifikationen („yes“ / „no“)** zurücklieferten. Erst durch die Einbettung von vier präzisen Klassifikationsbeispielen im Prompt gelang eine stabile Ausgabeform, die zugleich die **semantische Kontexttreue und Modellpräzision erheblich verbesserte**. Besonders deutlich zeigte sich dies bei Gemma 2, das ohne diese Anpassung keinerlei verwertbare Klassifikationsergebnisse lieferte.
|
- Ein wesentlicher praktischer Befund dieser Arbeit ist, dass **die Laufzeit des Klassifikationsprozesses bei Gemma 2 und Llama 3.1 ohne angepasste Prompts um den Faktor 1,5 höher lag**. Grund dafür war, dass die Modelle ohne gezielte Prompt-Instruktion häufig ganze generative Textausgaben anstelle der erwarteten **binären Klassifikationen („yes“ / „no“)** zurücklieferten. Erst durch die Einbettung von vier präzisen Klassifikationsbeispielen im Prompt gelang eine stabile Ausgabeform, die zugleich die **semantische Kontexttreue und Modellpräzision erheblich verbesserte**. Besonders deutlich zeigte sich dies bei Gemma 2, das ohne diese Anpassung keinerlei verwertbare Klassifikationsergebnisse lieferte.
|
||||||
|
|
||||||
|
<p align="left">
|
||||||
|
<img src="results/Gemma2_Llama3.1_Ergebnisvergleich.png" alt="Description" width="1100">
|
||||||
|
</p>
|
||||||
|
|
||||||
## Zielgruppen & Anwendungsfälle
|
## Zielgruppen & Anwendungsfälle
|
||||||
|
|
||||||
- **Data Scientists & Machine Learning Engineers**, die LLMs im wirtschaftlichen Kontext einsetzen möchten
|
- **Data Scientists & Machine Learning Engineers**, die LLMs im wirtschaftlichen Kontext einsetzen möchten
|
||||||
|
|||||||
Reference in New Issue
Block a user