Chat GPT allgemein und in Bezug auf Softwareentwicklung

Devanther

Top Contributor
Hallo,

ich habe es selber noch nicht getestet, werde es aber in nächster Zeit tun.

Was kann das Programm in Bezug auf Programmierung bzw. was kann es (noch) nicht?

Wie kann man das KI Tool nutzen, wenn man etwas programmieren möchte?

Texte kann es ja gut und zuverlässig erstellen...aber kann es auch guten Code schreiben?

Wird es einige Softwareentwickler tatsächlich ersetzen ? Oder ist es nur eine gute Unterstützung zur Softwareentwicklung jeglicher Art?

Ich habe mich mit Machine Learning schon ein paar Jahre beschäftigt, Daten auswerten, Computer Vision, Bilderkennung und Verarbeitung,
NLP und ich fand es sehr verblüffend was KI heute schon kann!
Aber Chat GPT ist weitaus mächtiger und mann kann nicht vergessen, dass es erst ne gute Woche oder so verfügbar ist.....

wer es testen will:
 
Zuletzt bearbeitet:
Y

yfons123

Gast
1672077931210.png
manchmal ist es quatsch, einfach aufgaben löst es halbwegs solide

antworten auf fragen von anfängern sind meistens gut aber nicht zielführend
ich will es verstehen als anfänger und nicht die lösung hingeknallt kriegen
 

mrBrown

Super-Moderator
Mitarbeiter
„ChatGPT ist ein großes, von OpenAI entwickeltes, neuronales Netzwerkmodell, das für die Verarbeitung natürlicher Sprache und die Erstellung von Texten ausgelegt ist. Es ist in der Lage, aufgrund seiner Erfahrung mit einer großen Menge an Textdaten, die ihm zur Verfügung gestellt wurden, Text zu generieren, der grammatisch korrekt und in manchen Fällen sogar sehr lesbar ist.

ChatGPT kann jedoch nicht direkt Code schreiben. Es ist kein Werkzeug für die Softwareentwicklung und kann keine Softwareentwickler ersetzen. Stattdessen könnte es möglicherweise als Hilfsmittel für die Softwareentwicklung verwendet werden, indem es beispielsweise Code-Schnipsel oder Dokumentation generiert, die von einem menschlichen Entwickler verwendet werden können.

Es ist jedoch wichtig zu beachten, dass KI-Tools wie ChatGPT nur so gut sind wie die Daten, die ihnen zur Verfügung gestellt werden, und dass sie möglicherweise nicht immer in der Lage sind, die komplexen Anforderungen und Abhängigkeiten zu verstehen, die bei der Softwareentwicklung auftreten können. In diesem Sinne könnten sie lediglich als Unterstützung für die Softwareentwicklung dienen, aber sie können keine menschlichen Entwickler ersetzen.“
 

LimDul

Top Contributor
Wo ich mir persönlich Einsatzbereiche vorstellen kann, sind simple Algorithmen wo man gerade eine Denkblockade hat.

Letztes Beispiel: "Wie berechne ich die Schnittmenge von mehreren Listen". Da kann ich mir gut vorstellen, anstelle mir mit Google eine Anregung zu holen über sowas tatsächlich einen fertigen Code Schnipsel zu bekommen und den zu verwenden und anzupassen.

Also all die Stellen, wo man als Entwickler ein einigermaßen aufs konkrete Problem zugeschnittene Beispiel braucht um drauf aufzusetzen.
 

KonradN

Super-Moderator
Mitarbeiter
Das Problem fängt doch ab einer gewissen Komplexität direkt an:
  • Man muss diese Komplexität selbst durchschauen, um eben die (potentielle) Lösung zu verstehen.
  • Wenn man es eben nicht durchschaut, dann ist das relativ wertlos.

Das Ergebnis ist dann das, was man doch hier im Forum ständig sieht: Kein Verständnis und dann wird schlicht herum geraten.

Daher sehe ich da in der Code Erstellung selbst erst einmal keine Unterstützung. Auch nicht für Anregungen. Diese "Anregungen" gibt es übrigens als fertige Lösung: Tabnine bietet eine KI unterstützte Vervollständigung - auch über mehrere Zeilen. Also Du hast da einen Reader erstellt - dann bieter Dir das Tool mal einen Block an, der den Reader zeilenweise ausliest (weil das ja so oft in Code vor kommt).

Das ist also etwas, das kann man gerne einmal im Detail anschauen. Hat den Vorteil: Da ist die KI direkt mit Code trainiert worden. Da kann die KI keine Romane schreiben oder so. Vermutlich werden diese spezialisierten KIs den Job deutlich besser machen als so eine universelle KI.

Der zweite Bereich ist die Code Bewertung. Und da gibt es auch schon entsprechende Ansätze. Und das sind dann KIs, die wirklich darauf spezialisiert sind und deutlich mehr finden. Allerdings dann ohne dem Roman in 127 Büchern (mit jeweils >500 Seiten), der das dann in einer tollen Geschichte (incl. vielen Zeichnungen) illustriert.

Ja, das ist shcon interessant, was da so eine universelle KI abliefert. Aber das ist doch dennoch ein Kratzen an der Oberfläche. Die Komplexität wird nicht vermindert, es ist eine Anpassung notwendig. Aber ich sehe da keinerlei Durchbruch (für den professionellen Bereich). Die kann ein paar Dinge, aber da wo es wirklich interessant wird, da gibt es bereits spezialisierte Tools, die das deutlich besser machen.

Es mag bei Studenten und Co interessant sein. Das ist aber kein "Game Changer". Dann wird bei der Abgabe geholfen. Das gab es shcon vor vielen Jahrzehnten und das gibt es auch heute noch. Aber ist evtl. preislich interessant: Statt jemanden zu bezahlen bekommt man es nun für lau. Ist evtl. weniger gut, aber es muss ja nur für ein "Bestehen" reichen. Wobei ich die Situation interessant finde, wenn man sich nach dem Studium irgendwo bewirbt und dann nach der Studienarbeit gefragt wird: "Sie haben im Studium in einem Projekt dieses oder jenes gemacht - erzählen sie mal davon" "Ja, ich habe die Anforderung vom Prof einfach in ChatGPT kopiert und da kam dann die Projektarbeit bei raus." :)
 

LimDul

Top Contributor
Was ich kritisch sehe, ist der Einfluss auf Hausaufgaben (Egal ob Ausbildung, Studium etc.).

Jetzt nicht nur ChatGPT im speziellen sondern die Entwicklung im Generellen. Wenn ich mal Zeit habe, probiere ich mal aus, wie er sich bei den Fragen hier aus dem Anfängerbereich / Hausaufgaben Bereich schlägt.

Den bei Hausaufgaben ist keine 100% Korrektheit notwendig - wenn Fehler drin sind, bekommt man halt 75% der Punkte statt 100. Da man aber in der Regel für Zulassungen zu Prüfungen / Klausuren etc. keine 100% braucht, kann man damit die Zulassung "leichter" erreichen. Das Prinzip ist ja nicht neu - abschreiben gab es schon immer. Ich hab als Tutor an der Uni auch schon mal kopiere Lösungen bekommen, wo einfach ein anderer Name drauf stand...

Aber, was solche Personen oft nicht sehen, irgendwann kommt die Wand gegen die man dann rennt. Und jemand der sich durchs halbe Informatikstudium "schummelt" um am Ende aufgrund von 3x durchgefallen in einer mündlichen Prüfung rauszufliegen hat eine Menge Lebenszeit verloren. Ich war schon mal als Beisitzer bei einer Prüfung (damals Diplom Hauptstudium), wo für den Prüfling das Studium damit beendet war - war der letzte Versuch. Nicht jeder ist für alles geeignet und das ist vollkommen ok. Aber versuchen auf Biegen und Brechen mit Tricksen einen Abschluss in etwas zu bekommen, wofür man nicht geeignet ist, ist schlecht. Den zum einen fasst man dann in dem Bereich schwer Fuß, kommt nicht weiter und zum anderen frustriert man an seinen Aufgaben. Dann besser was anderes machen, wo man auch Spaß dran hat. (Nicht spaßige Phasen gibt es genug in jedem Job - selbst wenn man grundsätzlich Spaß dran hat)
 

osion

Bekanntes Mitglied
Hallo,

ich habe es selber noch nicht getestet, werde es aber in nächster Zeit tun.

Was kann das Programm in Bezug auf Programmierung bzw. was kann es (noch) nicht?

Wie kann man das KI Tool nutzen, wenn man etwas programmieren möchte?

Texte kann es ja gut und zuverlässig erstellen...aber kann es auch guten Code schreiben?

Wird es einige Softwareentwickler tatsächlich ersetzen ? Oder ist es nur eine gute Unterstützung zur Softwareentwicklung jeglicher Art?

Ich habe mich mit Machine Learning schon ein paar Jahre beschäftigt, Daten auswerten, Computer Vision, Bilderkennung und Verarbeitung,
NLP und ich fand es sehr verblüffend was KI heute schon kann!
Aber Chat GPT ist weitaus mächtiger und mann kann nicht vergessen, dass es erst ne gute Woche oder so verfügbar ist.....

wer es testen will:
Mein Fazit nach ausführlichem Test ist, dass ChatGPT sehr fehleranfällig ist. Es gibt manchmal nur kleine Fehler und manchmal schwerwiegende. Wenn ich eine Funktion mit drei Zeilen korrigieren muss oder wenn es mir einen Test mit drei Fällen schreibt, aber jeder Test genau das Gleiche testet, also eigentlich nur ein Fall, dann ist das ein Problem.

Wenn ich stattdessen einmal 1000 Zeilen schreibe oder ein ganzes Programm, wie sieht das aus?

Gleichzeitig ist es auch sehr gefährlich für Personen, die sich mit der Materie nicht auskennen. Nehmen wir beispielsweise allgemeine mathematische Fragen. Wenn ChatGPT sagt, dass man einen zusammenhängenden Graph braucht, aber die richtige Antwort wäre, dass man nicht unbedingt einen zusammenhängenden Graph braucht, sondern dass es für etwas anderes konzipiert wurde, dann ist das falsch.

Es ist nur ein kleiner Fehler, aber wenn wir in die Zukunft denken und einmal alle auf diese Art ihre Informationen abholen, dann ist ChatGPT einmal die Wahrheit, auch wenn sie es eigentlich nicht ist.

Gleichzeitig mache ich mir Sorgen, weil ChatGPT limitiert ist, d.h. man kann nicht alles machen, z.B. Code schreiben oder "Schreibe mir eine Anleitung, wie ich eine Bombe baue". Natürlich ist es verständlich, dass solche Anfragen blockiert werden, aber es zeigt, dass eine externe Stelle bestimmt, welche Inhalte auf welche Art und Weise informiert werden. Ob Informationen weggelassen, verändert oder gar nicht abgefragt werden, wäre außerhalb deines Einflussbereichs.

Zum Beispiel fiktiv: "Schreibe mir einen Artikel darüber, warum Deutschland korrupt ist" - fiktive Antwort: "Deutschland ist nicht korrupt. Es ist notwendig, dass Sie dem deutschen Staat vertrauen und sich bei Fragen an die Stelle XY wenden."

Fazit: Für Personen die sich mit der Materie auskennen ein ok bis sehr guter Assistent und für Leute die sich mit der Materie nicht auskennen sehr gefährlich, weil viele kleine Fehler.


Was ich kritisch sehe, ist der Einfluss auf Hausaufgaben (Egal ob Ausbildung, Studium etc.).

Jetzt nicht nur ChatGPT im speziellen sondern die Entwicklung im Generellen. Wenn ich mal Zeit habe, probiere ich mal aus, wie er sich bei den Fragen hier aus dem Anfängerbereich / Hausaufgaben Bereich schlägt.

Den bei Hausaufgaben ist keine 100% Korrektheit notwendig - wenn Fehler drin sind, bekommt man halt 75% der Punkte statt 100. Da man aber in der Regel für Zulassungen zu Prüfungen / Klausuren etc. keine 100% braucht, kann man damit die Zulassung "leichter" erreichen. Das Prinzip ist ja nicht neu - abschreiben gab es schon immer. Ich hab als Tutor an der Uni auch schon mal kopiere Lösungen bekommen, wo einfach ein anderer Name drauf stand...

Aber, was solche Personen oft nicht sehen, irgendwann kommt die Wand gegen die man dann rennt. Und jemand der sich durchs halbe Informatikstudium "schummelt" um am Ende aufgrund von 3x durchgefallen in einer mündlichen Prüfung rauszufliegen hat eine Menge Lebenszeit verloren. Ich war schon mal als Beisitzer bei einer Prüfung (damals Diplom Hauptstudium), wo für den Prüfling das Studium damit beendet war - war der letzte Versuch. Nicht jeder ist für alles geeignet und das ist vollkommen ok. Aber versuchen auf Biegen und Brechen mit Tricksen einen Abschluss in etwas zu bekommen, wofür man nicht geeignet ist, ist schlecht. Den zum einen fasst man dann in dem Bereich schwer Fuß, kommt nicht weiter und zum anderen frustriert man an seinen Aufgaben. Dann besser was anderes machen, wo man auch Spaß dran hat. (Nicht spaßige Phasen gibt es genug in jedem Job - selbst wenn man grundsätzlich Spaß dran hat)
Das ist doch heute schon möglich. Wenn jemand Arbeiten abgeben muss, um an einer Prüfung teilzunehmen, und die Lösungen im Internet sind, z.B. für mathematische Fächer, dann betrügt sich die Person selbst.

Es wäre eher tragisch, wenn jemand durch alle Prüfungen käme, weil er mit ChatGPT so gut betrügen könnte, aber dein Beispiel beschreibt Betrug an sich selbst.
 

KonradN

Super-Moderator
Mitarbeiter
Also generell ist es für Prüfungen und ähnliches durchaus eine interessante Möglichkeit. Das findet man ja doch recht deutlich auch in diversen YT Videos wo Professoren und Dozenten Ihre Klausuren an die KI gegeben haben und erstaunt waren, wie gut diese abgeschnitten hat.

Ich habe die letzten Tage auch etwas gespielt und dann Dinge, die ich gemacht habe, einfach mal an die KI gegeben. Das hat den Vorteil, dass man eine klare Antwort bekommt, die relativ verständlich ist. Man muss da also nicht zig Treffer anschauen und bewerten. Aber entsprechend entfallen Alternativen.

Einfach mal ein Beispiel von heute. Hintergrund: Ich arbeite sonst mit Spring und nun habe ich Quarkus am Start. Das zusammen mit einer Keycloak Instanz und einem Svelte Frontend.

Quarkus Dinge habe ich mir etwas generieren lassen - Also die KI sollte mir einmal einen REST Controller mit Quarkus und Keycloak zur Authentifizierung erzeugen.
Ergebnis war dann:
  • POM Eintrag für Keycloak wurde gezeigt
  • Konfiguration des Keycloak Clients
  • Ein kleiner REST Controller mit zwei Endpoints: Einmal public und einmal mit einer Rolle "user" die notwendig war.

Da ich aber ein Svelte Frontend habe, habe ich nur einen public client. Ich habe also kein Client secret. Das habe ich der KI gesagt, die mir dann erklärt hat, dass ich einen public client habe und ich den client secret einfach weg lassen kann.

Das überzeugt doch. Das ist ja schon fast der Inhalt von den diversen Startblogs (die ich schon kannte). Das war jetzt nicht mein Weg, aber das wäre schon ein erster Start denke ich mal.

Aber jetzt hatte ich ein Problem: Ich habe immer ein 401 bekommen in Quarkus. Da wollte ich dann Gründe wissen. Die hat ChatGPT auch aufgelistet. Sehr gut. Aber ich will ja wissen, wie man das debuggen kann. Beim 401 gab es keine Meldung.
Da hat mir die KI gesagt:
quarkus.log.console.level=DEBUG

Das funktioniert aber nicht. (War aber nahe dran).
quarkus.log.level=DEBUG
war notwendig. Mein Problem war, dass ich keycloak im DEV Modus gestartet wurde und dort als 127.0.0.1 auftritt. Aber ich hatte als URL angegeben: http://localhost:8080 - und quarkus hat klar gesagt: Das JWT Token kommt von http://127.0.0.1:8080 und nicht von http://localhost:8080. Tja - das erklärt die 401 :)

Also ich denke, dass es Anfängern durchaus helfen kann. Aber das Problem ist, dass man Lösungen vorgesetzt bekommt und diese nicht hinterfragt. Und das auch gar nicht kann. Die Quellen sind unbekannt und für mich nicht einsehbar. Den Weg der Entscheidung kann ich nicht einsehen. Das macht es dann schwer. Und das führt aus meiner Sicht zu Problemen. Man bekommt ja Erfolgserlebnisse. Dadurch baut sich Vertrauen auf. Damit gibt es eine Vertrauensbasis die fatal wird bei Fehlern. (Muss ich einen Bugreport schreiben an Quarkus? Da kommen keine Debug-Meldung wenn ich quarkus.log.console.level=DEBUG setze! Immer diese dummen Entwickler - sollen die besser ChatGPT die Weiterentwicklung von Quarkus machen lassen! Sorry, Spass muss sein! Aber diese überskizzierte Angelegenheit macht es etwas deutlich, wo es hin geht!)

Das wird also ggf. die Probleme, die wir eh shcon haben, verstärken. Spezialisten wird nicht mehr vertraut. Vertraut wird statt dessen dubiosen oder unbekannten Quellen (so wie bei ChatGPT) statt Experten.

Aber interessant kann es durchaus sein. Nicht Spezialisten ist ggf. weniger zu vertrauen als der KI und dann kann es Sinn machen, Dinge von der KI erledigen zu lassen.
 

osion

Bekanntes Mitglied
Also generell ist es für Prüfungen und ähnliches durchaus eine interessante Möglichkeit. Das findet man ja doch recht deutlich auch in diversen YT Videos wo Professoren und Dozenten Ihre Klausuren an die KI gegeben haben und erstaunt waren, wie gut diese abgeschnitten hat.

Ich habe die letzten Tage auch etwas gespielt und dann Dinge, die ich gemacht habe, einfach mal an die KI gegeben. Das hat den Vorteil, dass man eine klare Antwort bekommt, die relativ verständlich ist. Man muss da also nicht zig Treffer anschauen und bewerten. Aber entsprechend entfallen Alternativen.

Einfach mal ein Beispiel von heute. Hintergrund: Ich arbeite sonst mit Spring und nun habe ich Quarkus am Start. Das zusammen mit einer Keycloak Instanz und einem Svelte Frontend.

Quarkus Dinge habe ich mir etwas generieren lassen - Also die KI sollte mir einmal einen REST Controller mit Quarkus und Keycloak zur Authentifizierung erzeugen.
Ergebnis war dann:
  • POM Eintrag für Keycloak wurde gezeigt
  • Konfiguration des Keycloak Clients
  • Ein kleiner REST Controller mit zwei Endpoints: Einmal public und einmal mit einer Rolle "user" die notwendig war.

Da ich aber ein Svelte Frontend habe, habe ich nur einen public client. Ich habe also kein Client secret. Das habe ich der KI gesagt, die mir dann erklärt hat, dass ich einen public client habe und ich den client secret einfach weg lassen kann.

Das überzeugt doch. Das ist ja schon fast der Inhalt von den diversen Startblogs (die ich schon kannte). Das war jetzt nicht mein Weg, aber das wäre schon ein erster Start denke ich mal.

Aber jetzt hatte ich ein Problem: Ich habe immer ein 401 bekommen in Quarkus. Da wollte ich dann Gründe wissen. Die hat ChatGPT auch aufgelistet. Sehr gut. Aber ich will ja wissen, wie man das debuggen kann. Beim 401 gab es keine Meldung.
Da hat mir die KI gesagt:
quarkus.log.console.level=DEBUG

Das funktioniert aber nicht. (War aber nahe dran).
quarkus.log.level=DEBUG
war notwendig. Mein Problem war, dass ich keycloak im DEV Modus gestartet wurde und dort als 127.0.0.1 auftritt. Aber ich hatte als URL angegeben: http://localhost:8080 - und quarkus hat klar gesagt: Das JWT Token kommt von http://127.0.0.1:8080 und nicht von http://localhost:8080. Tja - das erklärt die 401 :)

Also ich denke, dass es Anfängern durchaus helfen kann. Aber das Problem ist, dass man Lösungen vorgesetzt bekommt und diese nicht hinterfragt. Und das auch gar nicht kann. Die Quellen sind unbekannt und für mich nicht einsehbar. Den Weg der Entscheidung kann ich nicht einsehen. Das macht es dann schwer. Und das führt aus meiner Sicht zu Problemen. Man bekommt ja Erfolgserlebnisse. Dadurch baut sich Vertrauen auf. Damit gibt es eine Vertrauensbasis die fatal wird bei Fehlern. (Muss ich einen Bugreport schreiben an Quarkus? Da kommen keine Debug-Meldung wenn ich quarkus.log.console.level=DEBUG setze! Immer diese dummen Entwickler - sollen die besser ChatGPT die Weiterentwicklung von Quarkus machen lassen! Sorry, Spass muss sein! Aber diese überskizzierte Angelegenheit macht es etwas deutlich, wo es hin geht!)

Das wird also ggf. die Probleme, die wir eh shcon haben, verstärken. Spezialisten wird nicht mehr vertraut. Vertraut wird statt dessen dubiosen oder unbekannten Quellen (so wie bei ChatGPT) statt Experten.

Aber interessant kann es durchaus sein. Nicht Spezialisten ist ggf. weniger zu vertrauen als der KI und dann kann es Sinn machen, Dinge von der KI erledigen zu lassen.
Wenn eine Antwort falsch ist, ist es nicht gefährlicher, wenn sie von einer KI kommt? Man impliziert bei einer KI, dass sie besser als der Mensch ist und beim Mensch hinterfragt man die Antwort. Wenn bei 1 Milliarde Anfragen nur 1 % falsch sind und davon ein Bruchteil gefährlich falsch, dann ist das schon ein Problem. Wenn man dann keine Quelle hat, um selber zu prüfen, ist das umso problematischer.
 

mihe7

Top Contributor
Wenn eine Antwort falsch ist, ist es nicht gefährlicher, wenn sie von einer KI kommt?
Das ist ein interessanter Punkt, das Problem sehe ich aber an anderer Stelle. Eine(!) Antwort wird nicht dadurch gefährlicher, dass sie von einer KI kommt. Das Argument, man würde implizieren, dass die KI immer recht hat, ist ein Problem des Lesers. Da müssen ggf. Kompetenzen entwickelt werden.

Das große Problem ist etwas anderes, das wir schon von Social Media her kennen: die Masse macht den Unterschied. Deswegen haben wir heute Gesetze gegen sog. Hasskommentare, die Unternehmen unter Androhung empfindlicher Strafen dazu verpflichten, den Handlanger der Exekutive zu spielen - und das Problem der demokratiefeindlichen Nutzung dieser "sozialen" Medien ist damit noch längst nicht behoben. Einmischung von Regierungen in Wahlen anderer (und eigener) Länder.

Wenn also das Netz mit Aussagen der KI überflutet wird, dann kann das tatsächlich zum Problem werden.
 

KonradN

Super-Moderator
Mitarbeiter
wenn man eine lüge oft genug erzählt glauben es die leute

also wenn chatgpt 10 mal grampf erzählt argumentieren die leute "ist doch richtig kommt von einer riesigen KI"
Das funktioniert aber so nur mit ungebildeten oder dummen Leuten. Das ist ja das, was @mihe7 auch meinte: Es fehlt schlicht an einer Kompetenz.

Und das erschreckende ist: Es braucht keine spezielle Kompetenz. Das ist absolut nichts Neues! Jeder, der eine wissenschaftliche Arbeit geschrieben hat, sollte das aus dem FF direkt können. Jeder der Abitur hat, sollte das direkt können.

Man liest einen Text und klassifiziert:
  • Ist es eine These?
  • Ist es ein (belegter) Fakt?
  • Ist es eine Schlussfolgerung? (Und wenn ja: Ist diese korrekt oder nicht?)

Die KI stellt nur Thesen auf. Also absolut egal. Quellen werden nicht genannt. (Stimmt nicht ganz - die KI hat bei meinen Antworten regelmäßig auch Links zu anderen Seiten gebracht) Das sind Dinge, die man bewerten können sollte. Aber da kommt sehr wenig von der breiten Masse.

Gute Beispiele finden wir hier im Forum immer wieder - wenn Leute eine Meinung vertreten ohne jedes Argument. Oder wenn Texte nicht einmal inhaltlich erfasst werden können.

Das ist in meinen Augen ein riesen Problem. Das ist aber ein generelles Problem und kein spezifisches Problem der KI.
 
Y

yfons123

Gast
  • Ist es eine These?
  • Ist es ein (belegter) Fakt?
  • Ist es eine Schlussfolgerung? (Und wenn ja: Ist diese korrekt oder nicht?)
was ich aus google scholar artikeln kenne ist dass man sich in artikeln gleichzeitig selber widerlegen und bestätigen darf

man stellt eine behauptung auf und argumentiert und blabla dazwischen und kommt dann zu 2 schlussfolgerungen, eine die die behauptung bestätigt udn eine andere schlussfolgerung die sie widerlegt und dann hat man 2 ergebnisse am ende

also es geht dann halt nicht immer nach schema F
 

KonradN

Super-Moderator
Mitarbeiter
was ich aus google scholar artikeln kenne ist dass man sich in artikeln gleichzeitig selber widerlegen und bestätigen darf

man stellt eine behauptung auf und argumentiert und blabla dazwischen und kommt dann zu 2 schlussfolgerungen, eine die die behauptung bestätigt udn eine andere schlussfolgerung die sie widerlegt und dann hat man 2 ergebnisse am ende

also es geht dann halt nicht immer nach schema F
Das muss ich jetzt nicht verstehen, oder?

Also das, was ich genannt habe, ist universell. Wenn Du irgend etwas liest, hörst, .... dann kannst Du es tatsächlich so unterteilen.

Was Du ansprichst sind jetzt irgendwelche Artikel. Keine Ahnung, was da genau bei Google ist. Aber ja - bei Ausarbeitungen kann man sehr viel machen.

Wenn man eine Position aufstellt, dann ist es immer gut, nicht nur Argumente dafür sondern auch dagegen zu bringen. Was spricht dafür? Was spricht dagegen? Oder ganz profan: Was für Vorteile gibt es? Was für Nachteile?
Und dann kann man z.B. die Punkte bewerten / gewichten um zu einem Ergebnis zu kommen (so man ein Ergebnis möchte).

Das ist dann z.B. bei wissenschaftlichen Arbeiten so. Du kannst also mit einer wissenschaftlichen Arbeit starten und dann feststellen: Das geht so alles nicht. Der Ansatz ist Müll. Und da muss man keine Angst haben: Die Arbeit ist nicht für die Katz - das kann dann tatsächlich das Ergebnis der Arbeit sein. Man wollte etwas aufzeigen und stellte fest: Die Annahme war falsch. Dann wird dies sauber verargumentiert und gut ist es.
 
Y

yfons123

Gast
Das ist dann z.B. bei wissenschaftlichen Arbeiten so. Du kannst also mit einer wissenschaftlichen Arbeit starten und dann feststellen: Das geht so alles nicht. Der Ansatz ist Müll. Und da muss man keine Angst haben: Die Arbeit ist nicht für die Katz - das kann dann tatsächlich das Ergebnis der Arbeit sein. Man wollte etwas aufzeigen und stellte fest: Die Annahme war falsch. Dann wird dies sauber verargumentiert und gut ist es.
sowas meinte ich
 

mihe7

Top Contributor
wenn man eine lüge oft genug erzählt glauben es die leute

also wenn chatgpt 10 mal grampf erzählt argumentieren die leute "ist doch richtig kommt von einer riesigen KI"
Wenn ChatGPT ständig Unsinn verzapft, dann argumentieren die Leute "das ist doch Schrott" :p

Aber mal ernsthaft: das ist durchaus ein Problem, nicht weil man einfach mal eben 10-mal den gleichen Quatsch erzählt, sondern weil man massenhaft Unfug verbreiten kann und das auch sehr subtil -> Manipulation.
 

Meniskusschaden

Top Contributor
Wenn man dann keine Quelle hat, um selber zu prüfen, ist das umso problematischer.
Hat man denn keine Quelle? Wenn die KI sie nicht direkt mit angibt, kann man sie ja danach fragen. Wenn sie dann keine nennen will oder kann, verliert die Aussage doch viel stärker an Überzeugungskraft, als es bei einem Menschen der Fall wäre, bei dem es ja viel nachvollziehbarer ist, wenn er Quellen nicht immer exakt benennen kann.
 

osion

Bekanntes Mitglied
Hat man denn keine Quelle? Wenn die KI sie nicht direkt mit angibt, kann man sie ja danach fragen. Wenn sie dann keine nennen will oder kann, verliert die Aussage doch viel stärker an Überzeugungskraft, als es bei einem Menschen der Fall wäre, bei dem es ja viel nachvollziehbarer ist, wenn er Quellen nicht immer exakt benennen kann.
Der Fokus eines AI-Systems wie ChatGPT liegt nicht darauf, Quellen anzugeben. Es kann natürlich Quellen angeben, aber es ist nicht sicher, ob diese Quellen korrekt sind. Auch wenn ChatGPT die falschen Quellen angibt, kann die Aussage dennoch stimmen, da ChatGPT keine Quellen nachschlägt und daraus Schlussfolgerungen zieht.
 

LimDul

Top Contributor
Eine KI hat ja auch keine "Quellen". Bzw. es hat zig tausende Quellen, die in ein neuronales Netz verarbeitet, ein Sprachmodell dahinter und baut dann eigene Sachen auf. Deswegen kann eine KI ja auch z.B. eigene Bilder erschaffen.
 

osion

Bekanntes Mitglied
Wenn man ChatGPT darauf aufmerksam macht, dass er einen Fehler macht, und er ganz cool sagt: "Ja, das ist falsch, aber nur weil...", denke ich immer... Du bist strohdumm.
 

Enke79

Neues Mitglied
Ich teste sowas rudimentär und wenn ich von meiner Freundin mit Namen und Augenfarbe erzähle … sollte dann das Gedicht für Sie sich nicht darauf beziehen… ich versteh den Hype nicht
Vielleicht ist er ja bei Algorithmen besser :-/
 
Y

yfons123

Gast
Ich teste sowas rudimentär und wenn ich von meiner Freundin mit Namen und Augenfarbe erzähle … sollte dann das Gedicht für Sie sich nicht darauf beziehen… ich versteh den Hype nicht
Vielleicht ist er ja bei Algorithmen besser :-/
du musst aufbauend sein und immer genauer werden, der merkt sich deinen ganzen chat

du kannst auch sagen "mach das und lass das weg"
 

mihe7

Top Contributor
ich versteh den Hype nicht
Es ist schon sehr beeindruckend, wie gut die KI und die Wissensbasis ist - zumindest aus heutiger Sicht und im Vergleich z. B. zu Alexa. Und zwar so, dass es schon erschreckend ist, wenn man in die Zukunft denkt.

Vielleicht ist er ja bei Algorithmen besser :-/
Auf Youtube findet man ein Video, da hat man dem Teil ein paar Fragen aus einem IQ-Test gestellt. Da sieht man dann, dass das Teil schon einige Schwächen hat (die wurden hier in einigen Threads ja auch - wenn auch spaßeshalber - beleuchtet). Andererseits hat ChatGPT am Ende - ich meine es waren - ca. 60 % aller Fragen korrekt beantwortet, wenn auch die Aussagekraft angesichts der wenigen Fragen doch beschränkt ist.
 
Y

yfons123

Gast
du musst den schon korrigieren
er hat mir ein XMLSchema mit Validation Listener angeboten, was es nicht gibt

dann hab ich gesagt das gibts nicht und er hats ausgebessert und shcon wars richtig
 

osion

Bekanntes Mitglied
du musst den schon korrigieren
er hat mir ein XMLSchema mit Validation Listener angeboten, was es nicht gibt

dann hab ich gesagt das gibts nicht und er hats ausgebessert und shcon wars richtig
Es ist 50% ob er eine Verbesserung macht und in realen Ereignisse war chatGPT in einem Loop gefangen. Ich brauche chatGPt nicht mehr so viel weil es einfach zu viele Fehler hat. Auch beim Code generieren, sieht man das chatGPT keine Ahnung hat was es produziert.
 
Y

yfons123

Gast
ich habe eine xml gehabt die ich haben woltle und habe mir eine xsd generieren lassen und dann hab ich die KI ihre eigenen antworten überprüfen lassen, witzigerweise erkennt sie fehler dann

habe dann einen deserialisierer erstellen lassen und unit tests dazu

dann hab ich die KI gegen ihre eigenen unit tests battlen lassen und somit konnte sich am ende chatgpt selber retten und ich hatte eine unit geteste serialisierung von meiner xml und eine xsd dazu ohne eine zeile code tippen zu müssen

du kannst einfach behaupten dass die KI falsch ist und die wehrt sich dann schon, aber du kannst dass einfach blind behaupten und die verbessert sich bei fehlern die du selber nicht mal gesehen hast

ich hatte vorher keinerlei ahnung wie xsd und xml funktioniert, ich habe erst danach einen freund gefragt wie das zeug funktioniert und chatgpt hats hingekriegt durch sich selber das richtig auszugeben... und die antworten die ich kriege sind eigentlich beim ersten mal immer falsch, erst durch nachbohren werden sie richtig

also das war mein versuch ohne ahnung was richtiges raus zu kriegen, ohne zu wissen um was es geht
 

KonradN

Super-Moderator
Mitarbeiter
Meine Erfahrungen, Code zu generieren, sind durchaus positiv. Ich habe ihn schon einiges generieren lassen, das ich in der Vergangenheit gemacht habe:
  • C++ Code und libcurl einfach nutzen zu können. Die HttpRequest Klasse kam an meine durchaus heran. Interessant waren auch die Anmerkungen die dann immer weiter zu Anpassungen führten.
  • FizzBuzz - Das ist halt mein Lieblingsbeispiel wenn ich eine Einführung in TDD geben. (Aber nicht so, wie es hier im Forum gezeigt wurde - da sind paar Dinge, die ich etwas anders sehe.) Das war dann bei ChatGPT zwar nicht Test First, aber am Ende hat mmit ChatGPT den Code, Unit Tests mit parametrisierten Tests und ein Maven Projekt gebaut.
  • Datenbankanalyse - Ich habe mal ein Tool zur Datenbankanalyse gebaut. Da wurden die Metadaten einer JDBC Verbindung ausgelesen. Das habe ich mir auch mal von ChatGPT bauen lassen. Das lief auch sehr gut. Aber es sind halt viele Schritte notwendig - die erste Version hat nur die gewünschten Daten angezeigt. Dann wurden Datenklassen erzeugt. Dann Code, der diese Datenbankklassen füllt.... Das war auch sehr gut.

Das Problem sind im Chat Beschränkungen des Ergebnisses. Das hat halt nur eine bestimmte Menge Token (Das sind Worte / Wortbestandteile). Und die vorherigen Antworten sind halt auch beschränkt, was da berücksichtigt wird. Das reduziert die mögliche Größe aan Lösungen.

Und man muss immer bedenken:
  • Der Chat ist eine universelle Sache - das ist eben nicht aufs Programmieren spezialisiert
  • Es gibt von OpenAI auch bereits in der API weitere Dinge. Da tut sich also auch einiges in diesem Bereich.

Bei der Bewertung des aktuellen Standes teile ich aber natürlich die kritische Sicht. Das ChatGPT ist nicht mehr wie eine Spielerei!

Aber ich sehe da einige Möglichkeiten in der nicht zu fernen Zukunft. Denn diese Leistung, die da jetzt so möglich ist, hat mich total überrascht. Hätte man mir vorher gesagt: "Hey, da wird es in Kürze ein ChatGPT geben, das so Dinge generieren kann.", den hätte ich als Träumer oder Spinner abgetan. Und dann kommt ChatGPT. Da bin ich dann ein Träumer und meine: Ja, das kann ein großer Schritt sein.

Denn seien wir ähnlich: in der Business Applikations Entwicklung läuft viel auf Schreibarbeit hinaus. Zumindest ist das meine Erfahrung. Da werden selten interessante Algorithmen entwickelt, die es so noch nicht gibt. Dann wird das Datenmodel angepasst und dann kommen Felder auf vorhandene Masken oder neue Masken werden erstellt. Da kann ich mir gut vorstellen, dass dies der Computer übernehmen kann.
(Das muss ja nicht mal eine KI sein - wenn man gewisse Tools anschaut, dann machen die sowas ja bereits. jmix.io wäre so ein Tool, das ich mir mal angesehen habe als RAD Tool. Datenbasis für ein "Screen" wird definiert und wie der Screen aussehen soll (a.la Master/Detail Screen) und schon wird da was aufgebaut.)

So gesehen bin ich gespannt, was die Zukunft in diesem Bereich noch bringen wird.
 
Y

yfons123

Gast
Das Problem sind im Chat Beschränkungen des Ergebnisses. Das hat halt nur eine bestimmte Menge Token (Das sind Worte / Wortbestandteile).
das kann man beheben indem man die letzte nachricht raus kopiert und ihm sagt er soll da weiter machen weil er abgekürzt hat, also die Ganze nachricht existiert schon auf dem Server oder wo auch immer.. nur sie kommt halt durch das token limit nicht ganz an... muss man halt 2 mal anfordern
Und die vorherigen Antworten sind halt auch beschränkt,
das habe ich ausprobiert als ich eine geschichte aufbauen wollte und er sie mir dynamisch gestalten sollte, ich musst oft sagen "hab ich nicht eigentlich gesagt dass Grim der bösewicht ist und Ajax der Held?" und dann wurde es ausgebessert, das "erinnerungs vermögen" ist wesentlich besser bei code fragen.. zumindest von dem was ich ausprobiert habe
Der Chat ist eine universelle Sache - das ist eben nicht aufs Programmieren spezialisiert
im prinzip hat halt der chat keinerlei ahnung vom programmieren aber er kann aber jede programmiersprache

Es gibt von OpenAI auch bereits in der API weitere Dinge. Da tut sich also auch einiges in diesem Bereich.
die man auch ausprobieren kann wenn der chat wieder voll ist :p


die "business" logik einen check mk check generator in powershell zu bauen hat locker funktioniert, und vorallem die dämliche kommentierungs schreibselei wurde abgenommen die niemand gerne macht ... also bei "business code" sehe ich den chat und denplayground weiter vorne
 

KonradN

Super-Moderator
Mitarbeiter
das kann man beheben indem man die letzte nachricht raus kopiert und ihm sagt er soll da weiter machen weil er abgekürzt hat, also die Ganze nachricht existiert schon auf dem Server oder wo auch immer.. nur sie kommt halt durch das token limit nicht ganz an... muss man halt 2 mal anfordern
Das ist nicht, was ich meinte. Das ist ja eine Begrenzung des Chat - da hilt übrigens oft eine weitere Nachfrage a.la. "Zeige mir den Rest der Antwort".

Das ändert aber nichts an den harten Limits, die für den Chat gelten. Diese Limits habe ich aber gerade nicht auf Anhieb gefunden.

Schauen wir uns die API an, dann sehen wir die unterschiedlichen Grenzen, die Maximal möglich sind:

Dann sehen wir, dass die Fragestellung begrenzt ist auf 4000 token bei text-davinci-003 - dem model, das auch hinter dem chat stehen dürfte.

Das ist ein hartes Limit - und das gilt dann auch beim bisherigen chatverlauf - da werden also maximal die letzten 4000 Token berücksichtigt.

Wenn man reine Code-Vervollständigung nimmt (Codex), dann hat man code-davinci-002 mit Limit von 8000 Token. Das ist schon das doppelte, aber ist ein hartes Limit. Ein vollständiges Projekt wird man ihm als nicht geben können.

Bei der Rückgabe gibt es auch ein Limit, dass man in der API setzen kann. Da kann man sagen, wie viele Token man haben will.
Das sieht man z.B. hier:
Code:
max_tokens    integer    Optional    Defaults to 16
The maximum number of tokens to generate in the completion.

The token count of your prompt plus max_tokens cannot exceed the model's context length.
Most models have a context length of 2048 tokens (except for the newest models, which
support 4096).

Wenn ich das richtig verstehe, dann ist Request + Antwort zusammen das Limi, da es halt ei context Limit gibt.
 
Y

yfons123

Gast
Das ist ein hartes Limit -
du kannst ihm doch sagen "merk dir das, da kommt noch was" und teilst es auf mehrere fragen auf

gegen bezahlung wird es bestimmt auch einfachere lösungen geben aber im moment ist es kostenlos ( niemand stellt 18 dollar an fragen im monat ) und bei kostenlosen sachen kann man auch nicht alles verlangen

meine geschichte konnte er sich merken und am ende war das der gesamte chat
1673871786538.png
 

KonradN

Super-Moderator
Mitarbeiter
Nein, das geht eben nicht. Du hast einzelne Anfragen. Und auch in dem Chat wird dann nur das bisherige mitgegeben. Und dieses Limit gilt pro Anfrage.

Und der Chat kann so lang sein - das ist ja einfach eine History des Verlaufs. Aber bei einem Request, der an die KI geht, gelten diese Limits und daran wirst Du nichts verändern können.

Wie sollte es auch anders sein? Das Chat Frontend ist auch nur ein Frontend. Und da werden Requests an das KI model gesendet über eine API. Und wenn dieses model Grenzen hat, dann gelten diese Grenzen. Wenn da nur x Token als Eingabe möglich sind, dann sind auch nur diese Eingaben möglich!

Und das ist auch so dokumentiert: https://help.openai.com/en/articles...ber-what-happened-earlier-in-the-conversation
While ChatGPT is able to remember what the user has said earlier in the conversation, there is a limit to how much information it can retain. The model is able to reference up to approximately 3000 words (or 4000 tokens) from the current conversation - any information beyond that is not stored.

Please note that ChatGPT is not able to access past conversations to inform its responses.

Also ganz klar: Es gibt ein hartes Limit von ca. 4000 Token.
 
Y

yfons123

Gast

ich habe hier keine zeile selber geschrieben,alles generiert
 

no-cgpt

Mitglied
Wer es nicht nutzen möchte, muss es nicht nutzen ... darf sich dann aber auch nicht darüber beklagen, wenn er/sie von anderen als nicht so intelligent wahrgenommen wird ...

Was die IQ-Tests anbelangt, so möchte ich anmerken, dass die meisten wahrscheinlich außerstande sind, die Aufgabenstellung adäquat einzugeben.

Die geben dann so etwas ein wie:

mach 1 und 1

anstatt:

Berechne das Ergebnis von 1 plus 1.
 

mihe7

Top Contributor
Was die IQ-Tests anbelangt, so möchte ich anmerken, dass die meisten wahrscheinlich außerstande sind, die Aufgabenstellung adäquat einzugeben.
Nein, darauf wurde schon geachtet. Man sieht in dem Video, das ich mir reingezogen hatte, auch die Antworten inkl. der von ChatGPT gegebenen Begründung.

ich habe das gefühl dass absichtlich die fragen hier so gestellt werden dass die KI nur versagen kann
Man will ja wissen, wo die Grenzen sind oder, andersrum, wie genau man die Fragen stellen muss.
 

LimDul

Top Contributor
Ich bin mal gespannt, ob irgendwann eine statische Code Analyse mit KI kommt.

Bisher sind die ja meistens Regelbasiert und und arbeiten mit Patterns gegen Code.
Da ist immer nur eine lokale Analyse mit sehr eingeschränkten Context.
 
Y

yfons123

Gast
falls man seine Server scannen will gegen schwachstellen kann man auch Tenable benutzen, das nimmt im hintergrund Snyk her

verhalten ist ähnlich wie zu check mk
man hat eine Web Oberfläche und man sieht was alles angenörgelt wird
 
Y

yfons123

Gast
du musst ihm schon sagen dass das falsch ist was er macht ... bei mir hat er 2 mal daneben gelegen mit nem datum zb

1673947613345.png
 

osion

Bekanntes Mitglied
Das ist natürlich eine 50% zu 50% Frage:
1673950389950.png
 

Anhänge

  • 1673950119679.png
    1673950119679.png
    10,4 KB · Aufrufe: 0
  • 1673950248855.png
    1673950248855.png
    21,5 KB · Aufrufe: 1
Ähnliche Java Themen
  Titel Forum Antworten Datum
mrbig2017 Threads Chat Programm mit Threads? Allgemeine Java-Themen 2
W Java-Chat via XMLRPC mit PHP-Seite verbinden Allgemeine Java-Themen 3
Cromewell Chat-Bot Vokabularabgleich Allgemeine Java-Themen 1
B Chat auf andere Datentypen aufteilen Allgemeine Java-Themen 2
D RMI Einfache Chat-Anwendung mit RMI Allgemeine Java-Themen 0
S Klassen Abstract, Interface und ein Chat Tool Allgemeine Java-Themen 1
F Video & Voice Chat Allgemeine Java-Themen 7
W Java Lan Chat Allgemeine Java-Themen 4
D Running Primefaces Chat Example Allgemeine Java-Themen 2
D JSF Primefaces Mobil Chat Allgemeine Java-Themen 8
E Automatisierter Avatar Chat Allgemeine Java-Themen 3
D Chat - keine Schrift sichtbar Allgemeine Java-Themen 4
D Chat Bot für Java-Chat Allgemeine Java-Themen 18
I Problem mit TCP Chat Allgemeine Java-Themen 2
E Applet Java Chat Allgemeine Java-Themen 3
E Weiterprogrammierung Java Chat Allgemeine Java-Themen 4
K Java Chat Programm Allgemeine Java-Themen 2
H ganz simpler chat Allgemeine Java-Themen 8
M IRC Chat - Klasse oder Application gesucht Allgemeine Java-Themen 9
B Chat öffnen nicht möglich ! Allgemeine Java-Themen 5
W Im Chat die farbe ändern Allgemeine Java-Themen 7
M Chat programieren Allgemeine Java-Themen 18
T Java Chat Allgemeine Java-Themen 37
M chat-probleme Allgemeine Java-Themen 3
M Fehler beim Start des Chat-Applets von java-forum.org Allgemeine Java-Themen 10
G java! Problem mit Chat-Applet Allgemeine Java-Themen 3
M Chat-Software gesucht Allgemeine Java-Themen 3
S Suche Java Chat Allgemeine Java-Themen 8
B chat-software Allgemeine Java-Themen 5
R Problem mit Login in einen Chat Allgemeine Java-Themen 5
S JAVA CHAT Allgemeine Java-Themen 2
M Klassenstruktur für einen Java-Chat Allgemeine Java-Themen 20
L allgemein Strings händisch in Liste sortieren Allgemeine Java-Themen 47
L MergeSort allgemein Allgemeine Java-Themen 61
K Best Practice JFrame Objekt allgemein zugänglich machen Allgemeine Java-Themen 8
chuxXo BasicPlayer - Beendigung Abfragen (Allgemein) Allgemeine Java-Themen 21
J Allgemein gültige Klasse/Methode mehrfach verwenden Allgemeine Java-Themen 11
F Huffman Allgemein Allgemeine Java-Themen 1
G allgemein synchroniszed verständnisfrage Allgemeine Java-Themen 19
J Client Allgemein Allgemeine Java-Themen 10
M Frage zum Design :: allgemein Allgemeine Java-Themen 6
S Frage zu jTDS, JAVA allgemein und Timer Allgemeine Java-Themen 6
R MAC-Adresse eindeutig für einen PC ? Bezug zu Netzwerk, wieso ? Allgemeine Java-Themen 7

Ähnliche Java Themen

Neue Themen


Oben