Ohje, jetzt wird es aber kompliziert. Fühle mich gerade etwas überfordert. Hatte mit LLM noch nichts zu tun.
Und so ganz ohne Testdaten, ist es glaub ich nicht zu schaffen.
Wenn es das Umfeld erlaubt: Schau Dir mal GitHub Copilot oder so an. Und schau mal, was sich hinter Vibe Programming versteckt.
Die Idee ist da halt - grob gesagt - dass Du nur Anforderungen stellst, die KI macht alles. Das kann also relativ schnell und einfach zu Ergebnissen führen. Da kann man dann die Funktionalität testen und Fehler einfach an den Agent zurück geben. Man kann sich also prinzipiell komplett vom Code verabschieden - es ist Dir egal, was da genau drin ist.
Das ist natürlich so mit Problemen behaftet. Daher sollte man zur Qualitätssicherung natürlich das nicht so lassen. Aber hier geht es dann nicht darum, dass man selbst den Code anpasst und Refactorings macht sondern man gibt der KI Vorgaben oder weitere Prompts zur Anpassung. Der Weg über Vorgaben ist der beste Weg, aber hier kommt die Problematik der Kontextgröße zum tragen. Daher bleibt oft nur der Weg über weitere Prompts. Aber erstaunlich ist, dass die KI sehr viel kann. Also sowas wie OWASP und Co kennt es (bis zu einem bestimmten Zeitpunkt in der Vergangenheit).
Aber da tut sich sehr viel - bei OpenAI habe ich in den letzten Modellen gesehen, dass da eine Context Grösse von 1 Mio Token sowohl bei Eingabe als auch Ausgabe möglich sind! (Aber 1 Mio Token kosten 2$ / 8$ bei Ein- / Ausgabe). Und das sind dann natürlich auch Preise, die man bei anderen Angeboten mit bedienen muss (bzw. die nutzen da andere eigene Limits)