Statista und ChatGPT - problematisch oder hilfreich

Ich habe mich heute Nachmittag etwa 1,5 h mit ChatGPT unterhalten (ja, andere haben das schon im Februar gemacht), ich hatte nach alle den Lobeshymnen aber auch all der Panik - kann man Hausarbeiten von Studierenden überhaupt noch von ChatGPT-generierten Texten unterscheiden? - bin ich doch enttäuscht, was ChatGPT kann oder nicht kann.
Auf historische Fragestellungen waren die Antworten entweder falsch oder so unkonkret, dass es äußerst unbefriedigend war. Oft waren die Antworten auch nicht konzise. Fragen zu konkreten Quellenstellen konnte das Programm mir nicht beantworten, es habe keinen Zugriff darauf.

Dann habe ich mir von ChatGPT zwei Gedichte schreiben lassen.
In Gedicht 1 sollte ChatGPT ein Liebesgedicht schreiben, dabei sollte die Angesprochene mit einem Wurm verglichen werden, ohne dass dies despektierlich klänge.
Das hat ChatGPT inhaltlich gar nicht mal schlecht hinbekommen. Aber Reimschema aabb, teilweise unsauber. Ich habe ChatGPT mehrfach aufgefordert, in einem anspruchsvolleren Reimschema und keinesfalls aabb zu schreiben, da sagt das Programm, es würde mir jetzt kein Gedicht im Reimschema aabb, liefern, um dann aber genau das zu tun: mir ein Gedicht im Reinschema aabb zu präsentieren.
Auch ausdrücklich ungereimt funktionierte nicht: wieder aabb.
Ein zweites Gedicht sollte ChatGPT zum Thema Schutz der Wale schreiben und zwar als Adressaten an harte Jungs. Das Gedicht war wiederum aabb und auch textlich ziemlich naiv. Das hätte jeder Grundschüler besser hinbekommen. ChatGPT kann also offensichtlich nur aabb, wenn die Aufgabe lautet, ein Gedicht zu schreiben.
Hin und wieder, sehr zu meinem Erstaunen, spuckte das Programm auch Rechtschreibfehler bzw. ineinander kontrahierte Worte aus.
 
Das sind Kinderkrankheiten - ChatGPT ist erst 1 Jahr auf dem Markt.
Außerdem hat es wohl Schwierigkeiten mit der deutschen Sprache. Im Englischen geht es einfacher, auch weil die Datenbasis wesentlich größer ist: Erstens dominiert im Internet Englisch, und zweitens kennt ChatGPT im Wesentlichen nur das, was per Internet erreichbar ist.
 
...wenn ChatGPT so grandiose Englischkenntnisse hat, sollte man die Wundermaschine auf Joyce ansetzen: Finnegans Wake entschlüsseln etc... ;)
 
Ob die KI das besser können wird als Du ist nicht die Frage.
Sie wird ihre "Einsichten" aber sicher mit größerer Glaubwürdigkeit darlegen können als Du.
Schlechte Nachricht @dekumatland, aber schlag nicht den Überbringer sondern den Roboter.
Nur das kannst Du leider nicht, denn der ist inert gegen Dich.
Weil es ihn physisch nicht gibt. Welch ein Vorteil!
...Neulich hab ich einen Bank-Roboter angeplärrt, der an das Telefon ging, statt der Frau Dimpfelgruber deren Durchwahl ich wählte. (Ich krieg dann Tourette)
Weist Du was der zu mir sagt?: "ich zeichne das jetzt nicht auf." Ja hab ich's denn erlaubt?
Ja super. Wenn dieses virtuelle Scheusal auch noch intelligenter wird kann die Freude sich ja steigern, und die Hinterfotzigkeit sowieso.
Gibt es alte SciFi-Erzählungen in denen ein rein virtuelles Wesen herrscht?
Natürlich außer Thora, Bibel, Koran und dergleichen. :D
SciFis in denen die Menschheit ein virtuelles Wesen technologisch erschafft welches ihn schließlich beherrscht.
Die Waschmaschinentragödie von Lem beschreibt zwar einen solchen Vorgang, aber der Automat hat eine physische Existenz.
 
Unabhängig von ChatGPT ist die sogenannte KI gerade der feuchte Traum von Managern, die so Personalkosten einsparen wollen. Dabei wird übersehen, dass dafür hohe Investitionen notwendig sind und Fachkräfte nicht ohne Weiteres ersetzbar sind. Denn das, was das Programm können soll, muss erst einmal ein ITler programmieren. Meistens scheitert es bereits an dieser Stelle, weil der Programmierer keine Ahnung von dem Fachgebiet hat, für das er das Programm schreiben soll. Über selbstlernend braucht man nicht zu reden, das klappt da nicht. Was mir im beruflichen Bereich an sogenannter KI unterkommt, ist in den Ergebnissen so fehlerhaft, dass ich dem aktuellen Hype, der darum gemacht wird, nicht traue. Jedenfalls sollte man nicht ohne kritischen Abstand dem KI-Hype folgen.
 
Die Waschmaschinentragödie von Lem beschreibt zwar einen solchen Vorgang, aber der Automat hat eine physische Existenz.
Auch KI kommt nicht ohne Physis aus. Sie ist nichts ohne der Datenbasis, die irgendwo in unterirdischen Hallen auf Servern liegt, die gekühlt werden müssen. Es heißt, die Daten liegen in der Wolke (cloud), aber diese besteht ganz herkömmlich aus Blech, Drähten und Siliziumplättchen – verteilt auf der ganzen Welt, um redundant und so gegen mögliche Katastrophen halbwegs gewappnet zu sein.

Meistens scheitert es bereits an dieser Stelle, weil der Programmierer keine Ahnung von dem Fachgebiet hat, für das er das Programm schreiben soll. Über selbstlernend braucht man nicht zu reden, das klappt da nicht. Was mir im beruflichen Bereich an sogenannter KI unterkommt, ist in den Ergebnissen so fehlerhaft, dass ich dem aktuellen Hype, der darum gemacht wird, nicht traue.
Das hat man bei jeder Neuerung gesagt. Trotzdem haben wir ein schnelles Internet und Rechner- und Kommunikationsmittel im Hosentaschenformat, deren Speicherfähigkeit und Leistung noch vor 2-3 Jahrzehnten für unmöglich gehalten wurden. Jetzt sind sie so selbstverständlich, dass Grundschüler, die damit aufgewachsen sind, meinen, sie hätte es schon immer gegeben.
 
Ich denke nicht, das die entsprechenden Entwicklergruppen sowas vor 2-3 Jahrzehnten für unmöglich gehalten haben.
Die Entwicklung war letztendlich klar vorgegeben, zumindest unter den Aspekt, damit Geld zu machen. Könnte man so etwas nicht wirtschaftlich ausnutzen gäbe es dieses Ausmaß wahrscheinlich nicht.
 
Aus der Nachschau erscheint die Entwicklung logisch, aber man vergisst, dass diese Entwicklung mit Risiken verbunden war und vorfinanziert werden musste.

Schon jetzt verschlingt Chat-GPT Unmengen an Ressourcen, die irgendjemand finanzieren muss: 2/3 der benötigten Ressourcen stellt Microsoft mit seinen Serverfarmen zur Verfügung, was Geld kostet, das man irgendwann mit Zinsen zurückhaben möchte.
 
Nein, wieso vergisst und Nachschau? Sobald jemand denkt, damit Geld zu machen und der das Kapital hat, wird das gemacht! Ist schon immer so gewesen, nicht nur in der IT Branche. Auch Henry Ford ist ein gewisses Risiko eingegangen, die MAN mit dem Dieselmotor ebenso, die transatlantischen Kabelgesellschaften usw. Da müßen halt Visionen und der Glaube daran da sein. Wär dann später tatsächlich Geld verdient ist allerdings häufig ein anderes Ding.

Aber um beim Thema zu bleiben, die KI birg enorme Chancen aber auch vielleicht noch größere Risiken und wird wohl
unsere Gesellschaften mittelfristig/langfristig signifikant beeinflussen. Chat-GPT ist da eher noch ein kleiner Faktor.
 
Das hat man bei jeder Neuerung gesagt. Trotzdem haben wir ein schnelles Internet und Rechner- und Kommunikationsmittel im Hosentaschenformat, deren Speicherfähigkeit und Leistung noch vor 2-3 Jahrzehnten für unmöglich gehalten wurden. Jetzt sind sie so selbstverständlich, dass Grundschüler, die damit aufgewachsen sind, meinen, sie hätte es schon immer gegeben.
Ich bezweifle nicht, dass KI irgendwann eine wichtige Rolle in der menschlichen Gesellschaft spielen wird. Aus meiner aktuellen Erfahrung heraus, teile ich die Begeisterung allerdings nicht und denke, dass wir noch lange nicht soweit sind.
 
Seitdem es Computer gibt, gibt es Hoffnungen und Befürchtungen in diesem Zusammenhang. Seit den 1980er Jahren arbeitet man ernsthaft daran, Computern, die ja nur 1 und 1 zusammenzählen können, so etwas wie eine menschliche Intelligenz einzupflanzen. Das ist also 40 Jahre her, und erst jetzt gibt es erste Erfolge, wenn auch noch nicht zufriedenstellend. Aber die Forderung Turings aus den 1950er Jahren, eine Maschine erst dann als intelligent zu bezeichnen, wenn sie mit einem Menschen Dialog führt und dieser nicht merkt, dass er mit einer Maschine redet, ist jetzt erfüllt; nicht in jedem Fall, aber in mehr als 90 % der Fälle.
 
Hallo Zusammen,

Ich möchte hier ein Thema eröffnen, welches sich mit der Brauchbarkeit von KI-Chatbots (ChatGPT, Bard) im Zusammenhang mit historischer Forschung beschäftigt und würde dazu gerne Eure Erfahrungen und Einschätzungen erfahren. Die Motivation meiner Frage ist nicht wirtschaftlicher Natur (ich mache keine Marketing-Auswertung und verkaufe auch keinen Chatbot-Zugang) sondern meiner Frustration über die unbefriedigenden Antworten von ChatGPT als Suchmaschine für Anfrage historischen Inhalts geschuldet.

Ich habe letztes Jahr (2022) und Anfang dieses Jahr ChatGPT als «Scriptgenerator» von solchen Programmier- und Scriptsprachen, in denen ich höchstens Anfängerkenntnisse habe, benutzt, und war begeistert. Zwar war der von ChatGPT generierte Code selten lauffähig, aber er bot doch eine brauchbare Vorlage, auf der man sehr leicht aufbauen konnte und die rasch zu einem befriedigenden Ergebnis führte.

Sol bildete ich mir ein, dass man ChatGPT nicht nur als Script- oder Textgenerator verwenden könnte, sondern auch als Ersatz für Suchmaschinen (und so z.B. Google, Yahoo, Bing etc. überflüssig würden). Das Ergebnis war allerdings weit davon entfernt, was ich mir erhofft hatte. Der Schwerpunkt meines Interesses an Geschichte ist das Mittelalter inkl. Renaissance, resp. der Zeitraum, den ich persönlich als Mittelalter definiere (die Jahre zwischen 600 und 1600). Meine hist. Fragen an ChatGPT beschränkten sich also auf diese «tausendjährige Epoche».

Ich musste nun feststellen, dass die Antworten von ChatGPT sehr allgemein gehalten ausfielen, dafür oft mit einem belehrenden Unterton («es ist immer wichtig, historische Ereignisse mit einem kritischen Blick ... blabla..."). Die Allgemeinheit der Auskünfte erreichte jedenfalls nie mein eigenes diesbezügliches Wissen und häufig nicht einmal dasjenige von Wikipedia. Gezielte Nachfragen nach der Herkunft einer Aussage eines mittelalterlichen Autors oder einer spezifischen Arbeit über ein mittel. Thema konnte ChatGPT nicht beantworten und verwies immer auf «spezielle Fachliteratur». Fragen ob eine hist. Persönlichkeit dies oder jenes gesagt habe, werden meist im Stil von «Ja es wird XY zugeschrieben, dass er die Ansicht vertreten habe, dass …» - und wenn man es dann konkreter wissen will, kommt häufig «es gibt keine spez. Stelle oder Dokument, wo XY das gesagt …».

Ich denke, ich weiss nun woran das liegt. ChatCPT hat weder in seiner Datenbank noch in seinem Zugriff aufs Web Angaben zu Quellen – genauer gesagt, es sieht so aus, als könne er bei seinem Zugriff auf ein Dokument keine Verbindung zu entsprechenden Fussnoten oder Quellenverzeichnisse herstellen. Seine Antwort, auf meine diesbezüglich Frage:

«Nein, ich habe keinen direkten Zugriff auf spezifische Quellenverzeichnisse oder Indexe, die in gedruckten Büchern oder wissenschaftlichen Arbeiten enthalten sein könnten. Mein Training basiert auf einer Mischung aus lizenzierten Daten, Daten, die von menschlichen Trainern bereitgestellt wurden, und öffentlich verfügbaren Daten. Während meines Trainings hatte ich keinen direkten Zugriff auf eine Datenbank von Fußnoten, Quellen oder Indexen. Daher kann ich keine spezifischen Verweise auf Seitenzahlen, unmittelbare Quellen oder zusätzliche Informationen bieten, die nicht bereits in meinem Training enthalten sind. Wenn du spezifische Quellen suchst, ist es am besten, direkt auf die Originalwerke oder spezialisierte Datenbanken zuzugreifen.»

PS:

Als Übersetzer hingegen hat sich ChatGPT meiner Meinung hingegen bewährt. Ich habe ihn vor allem für Sprachen gebraucht, die ich überhaupt nicht kann, so etwa Latein, Chinesisch (Schriftzeichen) Arabisch und kurz sogar einmal Kirgisisch.

Bei exotischeren Sprachen hat er allerdings Mühe, gibt dabei aber einen Einblick in seine «Arbeitsweise». So habe ich einmal, im Zusammenhang mit einer Recherche über Haustierrassen, nach dem armenischen Ausdruck für «Esel» gefragt, das Ergebnis (Schriftzeichen) in Google eingegeben und in der Bildersuche Abbildungen von Rosen erhalten. Als ich ChatGPT darauf aufmerksam machte, hat er gemeint «Ich entschuldige mich, der Ausdruck ist tatsächlich ….». Dasselbe mit meiner Frage nach «Kuh» auf amharisch (eine der Hauptsprache Äthiopiens), sie ergab in der Bildersuche von Google ein Ei. Die Antwort von GPT:

«Es tut mir leid für das Missverständnis. Du hast recht, das Wort "እንቁላል" (Enqulaal) bedeutet "Ei" auf Amharisch. Die korrekte Übersetzung für "Kuh" auf Amharisch lautet "ብር" (gesprochen: "Birr"). Vielen Dank für die Korrektur!»
PS von mir: (Birr ist auch der Name der äthiopischen Währung).

Ich habe hier nun den Verdacht, dass es genügend könnte, von verschiedener Seite eine Behauptung nur oft genug zu wiederholen, und ChatGPT antwortet dann auch mit «Fake-News».
 
Ich habe hier nun den Verdacht, dass es genügend könnte, von verschiedener Seite eine Behauptung nur oft genug zu wiederholen, und ChatGPT antwortet dann auch mit «Fake-News».
Nein, zumindest nicht in der für jedermann zugänglichen Version, die ist bis Januar 2022 trainiert worden. Sie kann nur Wissen kompilieren (und das zum Teil falsch und meist nur extrem oberflächlich, dass es nicht mal mehr für eine Mittelstufenhausaufgabe reicht), das bis Januar 2022 online zugänglich war.
 
Die Firma, für die ich arbeite, hat einen eigenen ChatGPT, wir sollen in Firmen-Belangen nur diesen verwenden.
Mein erster "Test" war natürlich nicht firmenrelevant: Ich fragte nach Informationen zu einem bestimmten frz. Marschall. Das Datum, an dem er laut ChatGPT Marschall wurde, war falsch.
Damit konfrontiert, bat es nur um Entschuldigung und anerkannte meine Lösung als richtig, gab aber auch auf Nachfrage nicht seine Quelle zur falschen Antwort bekannt.

Nun ist das für einen Firmen-ChatGPT nicht so das Problem wann ein Marschall seinen Titel erhielt, aber wenn allgemeine ChatGPTs auch so arbeiten, dann gute Nacht.
Zu gebrauchen ist das Ding für Übersetzungen, Roh-Fassungen von Briefen, Zusammenfassung von Texten o.ä.

"Wissen" würde ich da nicht abfragen.

Gruß, muheijo
 
Ich habe mich heute Nachmittag etwa 1,5 h mit ChatGPT unterhalten (ja, andere haben das schon im Februar gemacht), ich hatte nach alle den Lobeshymnen aber auch all der Panik - kann man Hausarbeiten von Studierenden überhaupt noch von ChatGPT-generierten Texten unterscheiden? - bin ich doch enttäuscht, was ChatGPT kann oder nicht kann.
Auf historische Fragestellungen waren die Antworten entweder falsch oder so unkonkret, dass es äußerst unbefriedigend war. Oft waren die Antworten auch nicht konzise. Fragen zu konkreten Quellenstellen konnte das Programm mir nicht beantworten, es habe keinen Zugriff darauf.
Der fehlende Zugriff ist das eine. Aber ChatGPT kann nicht einmal die Verbindung von einem Text, über den es verfügt, mit den Fussnoten welche die Quellenangaben beinhalten, herstellen. Geschweige denn, das es diese in seiner Datenbank ablegt.
 
Zurück
Oben