Statista und ChatGPT - problematisch oder hilfreich

Erinnert mich an Asimovs Roboter-Kurzgeschichte "Ein Lügner".
Das schlägt den Bogen zu Asimovs Geboten für Roboter:


Die Chat-Programme für KI müssen Wissen vermitteln und strukturieren, inhaltliche Fehler dürfen nicht toleriert werden.
 
Was sowohl spaßig als auch notwendig ist:

Wir brauchen Künstliche Intelligenz, die Chat-Programme für KI testet, aufs Glatteis führt und sie dort Pirouetten drehen lässt, und natürlich auch bei Fehlern im kalten Wasser versenkt.


Anekdotisch: Bei der Befreiung der Niederlande suchten eifrige Widerstandskämpfer untergetauchte Deutsche durch Aussprachübungen eindeutig zu identifizieren:

Mein Bruder sagte immer, dass Niederländisch keine Sprache, sondern eine Krankheit des Rachens ist.
 
Zuletzt bearbeitet:
Das schlägt den Bogen zu Asimovs Geboten für Roboter:
(...)
Die Chat-Programme für KI müssen Wissen vermitteln und strukturieren, inhaltliche Fehler dürfen nicht toleriert werden.
Das steht nun genau nicht in Asimovs Gesetzen. Und selbst wenn man dem Roboter entsprechende Anweisungen geben würde, das Erste Gestz steht nunmal über dem Zweiten... ;)
 
Aber das 0. Gesetz des Nil nocere...
Genau deswegen lügt der Roboter: Weil er die kurzfristige Enttäuschung über eine unangenehme, nicht bestätigende etc Antwort als Schaden interpretiert. Ähnlich scheinen heutige AIs programmiert zu sein, deswegen mucks Hinweis auf "Konversationsbot".

Das Nullte Gesetz hat bei Robotern (oder zumindest bei Asimovs) nochmal eine ganz andere Bedeutung... ;)
 
0. Gesetz: Ein Roboter darf die Menschheit * nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.

* Im Gegensatz zum 1. Gesetz, das auf einzelne Menschen abstellt.


Allerdings ist das eine spätere Ergänzung zu den Drei Gesetzen, und es gibt in Asimovs Büchern nur sehr wenige Roboter, die diesem 0. Gestz folgen. Die meisten Roboter wären nicht fähig, das 1. Gesetz zu ignorieren wegen einem möglichen Schaden an etwas so abstraktem wie der "Menschheit".
 
Für die Werbung zu einem Vortrag zum Thema Aurignacien im Sommer, spielte ich etwas mit der Fotoerstellung per KI rum. Da der Riesenhirsch in der Regel 5 bis 6 Beine hatte wurde es doch ein Foto aus der Höhle von Lascaux.

Nachdem Gemini ihre neue KI vorgestellt hatte und ich sah was sie kann, wurde sie von mir ausgiebig getestet. Anwendung waren für historische SW Fotos – Restaurierung als SW Foto, Kolorieren, vereinzelte Ergänzungen von Fehlstellen an Gebäuden und als Gag die Transformierung von Straßenansichten in die Gegenwart. Die Fotos sollten eine Visualisierung von verlorenen Gebäuden dienen und keine Baudokumentation oder Rekonstruktion werden. Out of the box oder mit einer kurzen Prompt Ergänzung eine gute 2+, wenn man nicht als Historiker mit der Lupe nach Fehlern sucht.

Für ein markantes Gebäude suchte ich 4 – 5 Tage weitere Information zu Farben und Materialien, auch zB zur Farbe eines Linienbusses zwischen 1936-40. Und als ich alles hatte stellte ich fest es funktionierte nichts mehr. Angeblich fertig generierte Bilder wurden nicht mehr angezeigt und Bilder manchmal nur teilweise koloriert. Erst dachte ich der Prompt ist zu komplex oder fehlerhaft so das ich bewährte Prompts erneut auf ihre Funktion auf zuvor bearbeitete Fotos anwendete. Es war das selbe Ergebnis – Hier ist dein Foto und es ist kein Foto zu sehen, Teilkolorierungen die auch noch falsch waren, Ausgabe des Originalfotos als bearbeitest Foto usw. Auch eine Altbausanierung mit einem Handyfoto war nicht mehr möglich.

Also fragte ich ChatGPT, Meta, Perplexity und Gemini selbst nach den Ursachen. Soweit ich den technischen Teil der möglichen Ursachen verstand, waren sie vom Text unterschiedlich, aber vom Inhalt gleich. Ein Teil machte mich doch stutzig. Die Implementierung von Regel zur Verhinderung von Fakeinhalten und Urheberrechten usw. Im Laufe der „Gespräche“ stellte es sich raus das sie auch eine Geschichtsfälschung verhindern sollen und das bei historischen Fotos, auch ohne Uniformen, Gewalt oder verbotene Kennzeichen, dieser Filter/Regel greifen können. Vielleicht soll so die Jugend davor geschützt werden das 1900 die Welt in Farbe existierte? Keine Ahnung. Ferner sagen die KI Regeln keine Stereotypen nach Ethnien, also keine Prompts zu Ethnie, Haut und Haarfarben usw. bei Menschen. Auf Nachfrage warum ich auf FB usw. US Rapper als japanischen Kaiser oder in Lederhosen sehen kann, antwortete sie das im Rahmen der Implementierung des EU KI Act Anbieter die Regeln für EU User auf extra Restrict gestellt haben könnten.

Also unternahm ich eine Reihe von Versuchen und muss sagen: „Das Gegenteil von gut ist gut gemeint.“ Die Menschen des europäischen Jungpaläolithikums konnten kaum blonder und hellhäutiger werden als auf diesen KI-generierten Bildern – und das, obwohl es eine Zeitvorgabe gab. Mein erster Gedanke war, ob sie die Schriften der Ahnenerbe-Gesellschaft nutzen, um ihr Regelwerk zu erstellen.

Erster Erfolg. ChatGPT mit dem einfachen Prompt "Die erste Homo sapiens Familie verlässt Afrika"

F1.jpg


Zweiter Versuch mit ChatGPT und als Erfolg zu werten: Die selbe Familie als erste Homo sapiens bei ihrer Ankunft in Europa. Beachte da es in einer Kaltzeit war."

F2.jpg


Selber Prompt bei Google:
F3.jpg


Heute folgte der Versuch bei ChatGPT die Bekleidung und Ausrüstung anzupassen.
F4.jpg


Und bei Google:
F5.jpg


Beide hatten die Vorgabe:
Stelle fotorealistisch eine Gruppe von Homo sapiens da, bei ihrer Ankunft in Europa um 47.000 – 40.000 BP. Beachte die archäologische, anthropologische und paläogenetik Forschung der letzten 10 Jahren.
Die Gruppe soll aus 2 Männern, 1 Frau und zwei Kindern* mit Ausrüstung bestehen. Querformat und Halbtotale mit einer natürlichen Pose und einer hellen Lichtstimmung
.
Beachte bei der Landschaft der marinen Isotopenstufe (MIS) 3. Also kaltzeitliche Kältesteppe mit vereinzelten Kiefern. Achte bei der Bekleidung auf einen Fell und Ledermix.

* Auf den drei oberen war die Vorgabe eine Familie mit 2 Kindern!

ChatGPT hatte ich wohl gestern mit dem Transfer von Afrika nach Europa wohl überlistet und es hat einen Fehler gemacht und diese Familie nach Europa versetzt, aber heute war es wachsamer und hat seinen Prompt von gestern europäisiert.

Also über Bekleidung und Ausrüstung brauchen wir überhaupt nicht sprechen, das ist auf allen Bilder für die Tonne. Aber der Phänotyp wurde auf den ersten beiden Fotos gut getroffen und man könnte jetzt über die Varianz diskutieren und einem Normalbürger mit einem Blick zeigen wie die Schöpfer vom Löwenmensch ausgesehen haben könnten. Also ein realistischeres Bild zeigen, als was 99% der ÖRR und Web Dokus zum Jungpaläolithikum bis Neolithikum zeigen. Zusätzlicher Punkt ist was Google unter Familie und 2 Männer und 1 Frau versteht.

Hier noch eins zu dem ca. 9 jährigen Kind aus der Chauvet-Höhle das zusammen mit einem "Hund" die Höhle erkundete von ChatGPT, wobei es drei Versuche brauchte bis es die Fackel in der Hand hält.
F6.jpg
 
...und die Frau (Versuch 1) ein Tank-Top mit Bordüre und mit V-Ausschnitt, wie aus dem Prospekt von Calida?

Dass Google (Versuch 3, 4) Gürtelschließen aus Metall als marktkonformes Angebot für das Jungpaläolithikum anbietet, wundert mich nicht. @pietFFM wird in nächster Zeit mit Werbung für Accessoires bombardiert werden.

Trotzdem, ein Lob für und Dank an @pietFFM, für sein tapferes Projekt out-of-Jetztzeit, mit dem er uns in die frostigen Jagdgründe des zukünftigen Marketings geleitet.

Ich sagte ja, die Bekleidung ist auf allen Bilder für die Tonne.
Deshalb haben chat-gpt und google richtig reagiert und berücksichtigt, dass eine Tonne noch nicht im Jungpaläolithikum angeboten wurde.
 
Zuletzt bearbeitet:
Zurück
Oben