Voynich-Manuskript

Es könnte natürlich ein Nonsensetext sein. Das Spannende an diesem Rätsel ist aber, dass man das nur durch "scharfes Hinsehen" aber nicht beweisen wird können, sonst hätte man es schon längst geschafft (z.B. auch einfache monoalphabetische Substitutionschiffren usw. kann man wohl ausschliessen).

"Seltsam" aussehende Wiederholungen von Glyphen könnten sich auch ergeben, wenn der Text mit "irgendeiner" Art komplexerer Chiffre verschlüsselt worden wäre. Dabei könnte der Klartext auch absichtlich zwischen Nonsense-Fülltext eingebetettet worden sein, was praktiziert wurde (und immer noch wird), um einfache Angriffe z.B. durch Abzählen von Häufigkeiten von Glyphen usw. noch zu erschweren.

Das Pergament des Manuskripts wurde ja datiert auf zwischen 1404 und 1438 und wohl nicht wesentlich später beschrieben. Das war ja eine Zeit, in der vor allem in Italien komplexere Chiffren verstärkt in Mode kamen (oder wieder in Mode kamen) und mit die Grundlagen der heutigen Kryptographie geschaffen worden sind, die noch heute z.T. gelehrt werden. Z.B. kamen die polyalphabetischen Substitutionschiffren auf, die noch viel später (vom Prinzip her) bei der Enigma verwendet worden sind. Zwar datiert die erste bekannte Veröffentlichung eines solchen Verfahrens (die "Cipher disk") etwas später (1467), aber es ist m.W. unbekannt ab wann sie vorher entwickelt und eingesetzt wurde bzw. auf welchen älteren Kentnissen sie möglicherweise basierte, da es sich ja zunächst um "geheimes" Wissen handelte. Das Prinzip wurde aber bereits über 100 Jahre früher von arabischen Gelehrten beschrieben, die wahrscheinlich auf noch älteren Quellen basieren.

Soweit ich bei der englischen Wikipedia gerade lese, spricht allerdings die Verteilung der Glyphen im Voynich-Manuskript wohl eher gegen eine (reine) polyalphabetische Substitutionschiffre damaliger Zeit. Eine Gruppe um Diego Amancio hat den Text statistisch analysiert und mit echten (u.a. neues Testament in 15 Sprachen) und reinen Zufallstexten verglichen und demnach würde er eher einer natürlichen Sprache ähneln und nicht Zufallstexten. (Für Quelle des Papers siehe Wiki). D.h. es scheint nicht so, als ob jemand einfach zufällig Glyphen hingeschrieben hat, die ihm gerade in den Sinn kamen. Ich finde deren Methode ziemlich interessant zu lesen, kann es aber nicht bewerten.

Möglich wäre aber auch eine Form von "verbose cipher", bei der einzelne Zeichen des Klartextes durch Gruppen von Glyphen ersetzt werden. Es könnten auch zwei oder mehr Verfahren kombiniert worden sein. Dabei ebenso vorher Füllzeichen bzw. Fülltext eingestreut worden sein, ebenso falsche Worttrennungen. Echte "Worte" wären dann auch nicht zwingend erkennbar.
 
Zuletzt bearbeitet:
Eine Gruppe um Diego Amancio hat den Text statistisch analysiert und mit echten (u.a. neues Testament in 15 Sprachen) und reinen Zufallstexten verglichen und demnach würde er eher einer natürlichen Sprache ähneln und nicht Zufallstexten.

Computergestützte Analysen des Textes gibt es inzwischen wie Sand am Meer.
Bei den Vergleichstexten bei Amancio et al. wurden die Wörter nach dem Zufallsprinzip gemischt. Ein Nonsensetext, der aussehen soll wie ein Text in einer natürlichen Sprache, würde selbstverständlich andere Eigenschaften aufweisen als ein Zufallstext. Von daher ist gibt es nichts zu holen für die Frage, ob es sich um natürliche Sprache oder Nonsens handelt.

Nehmen wir zwei Gedichte von Paul Scheerbart (dem ich meinen Avatar verdanke):

Monolog des verrückten Mastodons

Zépke! Zépke!
Mekkimápsi – muschibróps.
Okosôni! Mamimûne …….
Epakróllu róndima sêka, inti …. windi …. nakki; pakki salône hepperéppe – hepperéppe!!
Lakku – Zakku – Wakku – Quakku — muschibróps.
Mamimûne – lesebesebîmbera – roxróx – roxróx!!!
———————————————-
Quilliwaûke?
Lesebesebîmbera – surû – huhû​

Kikakok!ú

Ekoraláps! Wîso kollipánda opolôsa.
Ipasátta íh fûo.
Kikakokú proklínthe petêh.
Nikifilí mopaléxio intipáschi benakáffroprópsa
pî! própsa pî!
Jasóllu nosaréssa flîpsei.
Aukarotto passakrússar Kikakokú.
Núpsa púsch?
Kikakokú bulurú?
Futupúkke – própsa pî!
Jasóllu … … …​

Für statistische Untersuchungen über Worthäufigkeiten und syntaktische Muster sind die Texte natürlich zu kurz, aber für Untersuchungen zur Buchstabenfolge reichen sie völlig aus. Es gibt deutliche Muster, die ausschließen, dass es sich um zufällige Buchstabenfolgen handelt. Auffällig sind die vielen offenen Silben, fast 90% der Wörter enden auf Vokal; Konsonantengruppen sind selten; die wenigen lassen sich auch klar zu Mustern gruppieren: Verdopplungen (z. B. -ll- und -kk) im Inlaut, Kombination Nasal+Verschlusslaut an derselben Artikulationsstelle (z. B. -nd-, -nt-, -mb-), Kombination mit Liquiden (z. B. -br-, -pr-, -kl-) im Inlaut oder -s (-ps, -x) im Auslaut. Solche ableitbare Ordnungsprinzipien halten den Vergleich mit jeder natürlichen Sprache aus!

D.h. es scheint nicht so, als ob jemand einfach zufällig Glyphen hingeschrieben hat, die ihm gerade in den Sinn kamen.

Wenn man nicht Glyphen, sondern sinnlose Wörter schreibt, ähnelt das Ergebnis in vielen Aspekten einer natürlichen Sprache. Das einzige, was man durch unüberlegtes Vor-sich-hin-Schreiben nicht hinbekommt, sind bei komplexere Regeln der Wortordnung bei längeren Texten.

Und genau dieses Merkmal weist der Voynich-"Text" in auffälliger Form auf:


Dabei könnte der Klartext auch absichtlich zwischen Nonsense-Fülltext eingebetettet worden sein, was praktiziert wurde (und immer noch wird), um einfache Angriffe z.B. durch Abzählen von Häufigkeiten von Glyphen usw. noch zu erschweren.
Das habe ich ja nun schon ein paar Mal geschrieben. Falls es ein Code ist, beträgt der Klartext nur einen Bruchteil der sichtbaren Buchstaben. Der Text bestünde also aus einem größeren Teil Nonsens und einem kleineren Teil sinnvollem Inhalt.
Ich halte die Hypothese für wahrscheinlicher, dass er aus 100% Nonsens besteht. Der einzige Haken an der Hypothese ist: Die Frage bleibt offen, warum jemand das teure Pergament mit lauter Quatsch bekritzelt hat. Ansonsten kann sie die Eigenheiten des kompletten Manuskripts am besten erklären.
 
Nochmal ein simples (und mit Absicht sehr offensichtliches) Beispiel für einen Fülltext-Code:

oxüox Hiooe eee oioeEooo eoiüee eoi eo eiooei oeooi oeo oeoReoee eeZüeo ioeeoxo üeooe eox eoeeoe ooüoiLoeoiü iooeeoi eoeo ooüoe ioxee eoeo eoee oieoexi ooeoo eeoeoxe ooe oIo oeoe xoieeeo ieoei io e eCoeoooioe oieoeeoieHi eexi oeooeeoe oxEeeoeo oeüeoie eoieoeoeio eoeoeooe eeoxo eoeüoei ooeio eii xi ooiüooio e eoeoeo o eeooe x oee oe ooeoee oee oiioeoe xeoieoe oieeeioeNioioo. ee eeoü ioe eeoeGooeeo eoe e oeoLoe eoeox eooo ioe oiiÜeoee ooeoiee e oieoüeüiooi oxee oeüe ooiee eoiex oe iooüei eeioeoe oe ooe eoeoe eoe oiioieoo xeiüeeeeoieooi oeoiieoee eoi eoeio oeooo ioxeeee o i oeeoeeo eoee oe o xüoeoCee oie o eo üieooi iooo ioeoiiKoeo eeeiüo oxeee eoooWeeoe oeex ooeo iioeooUeioo ioo eee eoixN oe eo o e oo eeoe oooioeoie eeiiiooi ooeoüex e oeo eeooi ioeoe eoi eooioe üiooeixoeiiix xxiioii ei ooioxo eeee oee Soeo e o oeCeoxoio oee e eo oHeo oeoooxi!oe ooeoeeo ieoeo ie eeoiSeoeio x oeiox Ioio oooeeoio eoEe eie oeoie ex.iox ooio eeoee oxoeHe oeoe eoeoieeeAo ieo eiooei oeiii xxxoeoe o oeo xe oBeoeoii oeo exoieei oei iixoe eoü eooeiiooee oie o exoie eiooeioo i ooeeüeeE oio eeo eoe oo exeoeo oo Noe.oioiD iioxxeeo ioee oe oeoiioeE oeo iee eioeiiixxxo oeii eeoooooi o eoii i eoeoiN eeüexoo eoeiiiee oxxxiio oi oxo eee eo.i oee eeoixo eeoeeo oeeoeoeeo eoooioeoi iC oexoeoieeoieee oi e ooiooOeeee oio e eooeo iiooDio o eeeeoüe oeoeeoe ooo eüo iio Eeo eeoeüe exe .iiooiooeeoeo eoe eoiüeGoeo io oei oei oEoiioe eo eoe eoeüeo ioeoxioeio oeioeoio eeeoeo e xei o eoiioü eoee ooixoee oeoeoo e eeoooieo Kiieo eeoieoe oiN eeio oeoi A oeo Ceeeoieoe oiex eeoieoei o oe o oeo ooioe oii oeox eeoo iox ioeeoe oeooee oexoeeeo o Coiüooe xeoieoxx o x oxxxi iioooeeo eüexoi eoe oieeexoie oei ooe eeee oio eoeeoe oeeoeooo xioe oiioeeeo ieoeoooio e oKieio eio oio oe xee eoiooeeo oixo eoiioeoee o ieoeo ieeeooo iooeoioe oiioüieo eoie ex eo eiieüeo xx xooei ieeox xx üxx xo oe ix o xooeiiee ox xx oxxxoo eiieeo xx x ooeii eeoxxx oxüx xxxo oe eeo ioe x eo eoeo oeeoeoe oeeeo ieoexiüx ooe ioei oo i ooee ee oioeeeeo ie xeeoie oeioo eioeiii iiioxoeo e eoeooioe oiioeo eeoeeo eoeoo eeoeo eeo eoo oi oTeoii oexo eeo ixeoeoi eeeoii !ixx xooei üio eiooooio eoixiüxo ee oiee eoieoei ooei oiooio oee ee eoeoee xoeoe oxoxo xe iieeo eeoxx


Vielleicht lautet ja der komplette Klartext des Voynich-Manuskripts:

"Herzlichen Glückwunsch, Sie haben den Code geknackt! Als Belohnung erwartet Sie ein romantisches Diner im Ristorante Ischia im Wert von 5 Gulden. Dieser Gutschein verfällt am 31. Mai 1492."
 
Hier eine Zusammenfassung dessen, was ich bisher erfahren habe:

1. Je nach Transkriptionsmethode enthält Voynich-Manuskript 18 bis 36 Buchstaben oder Symbole.

2. Das Manuskript gehorcht dem Zipf-Gesetz, was gegen einen Hoax spricht.

3. Es kann sich um eine bekannte Sprache in einer unbekannten Schrift handeln, oder

4. um eine unbekannte Sprache in einer unbekannten Schrift.

5. Es kann sich auch um eine synthetische Sprache handeln.

6. Sind da mehr Sprachen als eine vorhanden?

7. Waren da mehr Schreiber als einer zugange?

8. Es kann sich um eine Verschlüsselung handeln, z.B. ein Buchstabe/Symbol wird in eine Silbe oder in ein Wort übersetzt und geschrieben,

9. d.h. umgekehrt: Ähnliche Silben/Wörter könnten unterschiedliche Buchstaben/Symbole repräsentieren

10.Die Abfolge der Wörter ist kaum voraussagbar, weil Wortkombinationen nur selten mehrmals auftauchen.

11.Es ist fraglich, ob EVA-Transkription für computergestützte Analysen geeignet ist, weil sie nicht ganz genau sein kann. Bei Transliteration muss vom Mensch individual eingegriffen werden, was dazu führt, dass es keine Transliteration des Voynich-Dokuments gibt, die von jemand anderen wiederholt werden kann.

12.Deswegen wäre es besser, mit Bildern statt transkribierten Buchstaben zu arbeiten. Und zwar mit KI, die gerade bei Bilderverarbeitung gut ist. KI wäre in der Lage, das ganze Manuskript zu durchforsten und „echte“ Ähnlichkeiten bei „Buchstaben“ und „Wörtern“ festzustellen. Sie wäre auch in der Lage, die Abstände zwischen den „Buchstaben“ und „Wörtern“ zu variieren, z.B. sie mal auseinander und mal zusammen zu „schreiben“. Damit könnte es möglich sein, ein System dahinter zu entdecken – wenn es überhaupt eines gibt.
 
2. Das Manuskript gehorcht dem Zipf-Gesetz, was gegen einen Hoax spricht.
Dieses Argument ist eigentlich schon seit 1992 vom Tisch:

"Inzwischen wurde allerdings von Li (1992) gezeigt, dass auch das willkürliche Tippen von Buchstaben Pseudowörter erzeugen kann, die ebenfalls der Zipf-Verteilung gehorchen."
http://kups.ub.uni-koeln.de/4561/1/jhermes.textprozessierung.pdf

Der Autor dieses Buches hat durch willkürliches "Tippen" von deutschen Buchstaben einen Pseudotext von nahezu 10.000 Wörtern erstellt und sowohl die Zipf-Verteilung als auch die Entropie durch das Programm Textstat berechnet. Die Ergebnisse sind in der Tat verblüffend, denn sie ähneln denen natürlicher Sprachen und damit auch dem Voynich-Manuskript.
Das Voynich-Manuskript

Wobei der Autor des Manuskripts sicher nicht nur willkürlich "Buchstaben getippt", sondern offensichtlich absichtlich Pseudowörter zu Pergament gebracht hat. Gegen einen Hoax spricht die Zipf-Verteilung daher schon von vornherein nicht.

10.Die Abfolge der Wörter ist kaum voraussagbar, weil Wortkombinationen nur selten mehrmals auftauchen.
Was sehr stark gegen einen sinnvollen Text spricht.

11.Es ist fraglich, ob EVA-Transkription für computergestützte Analysen geeignet ist, weil sie nicht ganz genau sein kann. Bei Transliteration muss vom Mensch individual eingegriffen werden, was dazu führt, dass es keine Transliteration des Voynich-Dokuments gibt, die von jemand anderen wiederholt werden kann.

Die Abweichungen sind allerdings vernachlässigbar. Bei den meisten Wörtern ist die Schreibweise eindeutig. Wer dennoch unsicher ist, kann bei der Auswertung mit einkalkulieren, dass z. B. manchmal "o" schlecht von "a" zu unterscheiden ist. Und wenn sich unter die hundert qokedys, qokeedys, qokeeys, qoltedys, qotedys und qoteedys mal ein oder zwei qakedys oder qatedys verirren, kann eine statistische Analyse damit sicher gut umgehen.
Bei einer Handschrift muss man sogar damit rechnen, dass solche Ausreißer dem Autor passiert sind. Ich erinnere daran, dass praktisch nichts korrigiert ist. Es müssen also originale "Schreibfehler" darin sein.
 
Zuletzt bearbeitet:
12.Deswegen wäre es besser, mit Bildern statt transkribierten Buchstaben zu arbeiten. Und zwar mit KI, die gerade bei Bilderverarbeitung gut ist. KI wäre in der Lage, das ganze Manuskript zu durchforsten und „echte“ Ähnlichkeiten bei „Buchstaben“ und „Wörtern“ festzustellen. Sie wäre auch in der Lage, die Abstände zwischen den „Buchstaben“ und „Wörtern“ zu variieren, z.B. sie mal auseinander und mal zusammen zu „schreiben“. Damit könnte es möglich sein, ein System dahinter zu entdecken – wenn es überhaupt eines gibt.

Bedarf es dazu nicht einer Kreativität, die KI heute noch nicht hat? KI lässt sich doch eigentlich nur dann sinnvoll einsetzen, wenn das Dokument zweifelsfrei transkribiert wäre, also ein Graphem des Voynich-Scripts in ein Symbol (Buchstabe, Zahl, anderes) umgesetzt wäre.

Künstliche Intelligenz könnte dann berechnen und mit lebenden und gut dokumentierten toten Sprachen vergleichen. Das wäre wahrscheinlich mit einem durchschnittlichen handelsüblichen PC eine Arbeit von wenigen Stunden. Da schon Computerlinguisten sich mit dem Voynich-Manuskript befasst haben, scheint das aber offensichtlich nicht so einfach zu sein, was gegen eine bekannte Sprache spricht. Da wir unbekannte Sprachen praktisch ausschließen können*, spricht alles dafür, dass es sich um einen Pseudotext handeln muss[edit], wenn nicht Mercators Ansatz einer Verschlüsselung mit wechselnden Einschüben korrekt ist[/edit].


*Natürlich können wir jetzt wieder Hilfshypothesen bilden, dass in irgendeiner versteckten Grotte in einem verkehrsgeographisch abgelegenen Seitental sich eine Sprechergemeinschaft mit einer unbekannten Sprache über Jahrhunderte von der Umwelt unentdeckt erhalten hat. Sinnvoll ist aber etwas anderes.
 
Zuletzt bearbeitet:
Bedarf es dazu nicht einer Kreativität, die KI heute noch nicht hat? KI lässt sich doch eigentlich nur dann sinnvoll einsetzen, wenn das Dokument zweifelsfrei transkribiert wäre, also ein Graphem des Voynich-Scripts in ein Symbol (Buchstabe, Zahl, anderes) umgesetzt wäre.

KI können heute schon sehr viel mehr. Man könnte sie tatsächlich nur auf Bilderkennung ansetzen und auf eine Transkription verzichten.
Nur - was soll dabei anderes herauskommen? Das Manuskript ist relativ sauber geschrieben, die Lesevarianten halten sich in Grenzen. Die Transkriptionssysteme unterscheiden sich vor allem bei den (nicht sehr häufigen) "Ligaturen" und Initialen.
 
Wenn es so schwer ist, diesen Text als einen "sinnvollen" Text zu entschlüsseln, dann wären die Kryptologen der Geheimdienste dieser Welt, von NSA bis KGB etc., vermutlich bereits intensiv mit ihm beschäftigt gewesen. Er hätte Eigenschaften gehabt, die ihn attraktiv gemacht hätten.

Auch deswegen, a. um einen Code einer fremden Macht, der darauf basiert zu entschlüsseln oder b. um selber den Code bzw. die Syntax so zu optimieren, dass es noch schwerer wäre, in der Zukunft ihn zu entschlüsseln.

Im Zuge der Entschlüsselung durch Geheimdienste wäre sicherlich u.a. auch eine KI - basierend auf neuronalen Netzen - zum Einsatz gekommen, die Strukturen und Ähnlichkeiten hätte erkennen können oder sollen.

Offensichtlich ist das bisher nicht erfolgt und Sepiola hat ja überzeugend die Hintergründe dargestellt.
 
Zuletzt bearbeitet:
"Inzwischen wurde allerdings von Li (1992) gezeigt, dass auch das willkürliche Tippen von Buchstaben Pseudowörter erzeugen kann, die ebenfalls der Zipf-Verteilung gehorchen."
http://kups.ub.uni-koeln.de/4561/1/jhermes.textprozessierung.pdf

Der Autor dieses Buches hat durch willkürliches "Tippen" von deutschen Buchstaben einen Pseudotext von nahezu 10.000 Wörtern erstellt und sowohl die Zipf-Verteilung als auch die Entropie durch das Programm Textstat berechnet.
Der Unterschied ist nur der, dass dieser Autor wusste, wie Zipf-Verteilung sein muss, der oder die mittelalterlichen Autor/en aber nicht. Das hat ihn, vielleicht auch unbewusst, gelenkt beim erstellen des Textes.

Die Abweichungen sind allerdings vernachlässigbar. Bei den meisten Wörtern ist die Schreibweise eindeutig.
Ja, allerdings gibt es z.B. Ligaturen, die EVA übergeht, sprich aus 2, 3 oder 4 Buchstaben einen macht. Wenn man dieses Detail nicht gebührend berücksichtigt, ist die Transliteration nicht vollkommen, d.h. aus der so erstellten Schrift kann nicht die ursprüngliche Schrift wieder entstehen, was ich für unabdingbar erachte.

Die Transkriptionssysteme unterscheiden sich vor allem bei den (nicht sehr häufigen) "Ligaturen" und Initialen.
Ja, aber nicht nur: Auch bei der Entscheidung, wo ein neues Wort beginnt, muss manchmal der Menschen eingreifen, was bei unterschiedlichen Menschen zu unterschiedlichen Ergebnissen führt.

Im Zuge der Entschlüsselung durch Geheimdienste wäre sicherlich u.a. auch eine KI - basierend auf neuronalen Netzen - zum Einsatz gekommen, die Strukturen und Ähnlichkeiten hätte erkennen können oder sollen.
Ob das bereits geschehen ist, wissen wir nicht. Auf jeden Fall wäre für so eine Arbeit Rechenpower nötig, die nur Geheimdienste und Meteorologen haben. Die Computer mancher Unis wären dazu auch in der Lage, aber sie würden sie damit für längere Zeit blockieren, was nur mit dem zu erwartenden hervorragenden Nutzen für die Menschheit zu rechtfertigen wäre, was beim Voynich-Manuskript nicht erwartet werden kann.
 
Der Unterschied ist nur der, dass dieser Autor wusste, wie Zipf-Verteilung sein muss, der oder die mittelalterlichen Autor/en aber nicht. Das hat ihn, vielleicht auch unbewusst, gelenkt beim erstellen des Textes.

Wo ist bitte der Unterschied? Der Autor des Voynich-Manuskripts hat doch sicher eine natürliche Sprache gesprochen und geschrieben, hat diese imitiert und beim Schreiben seines Pseudotextes seltenere und häufigere Wörter aufs Pergament gehauen - sicher ebenso "unbewusst".

Ja, allerdings gibt es z.B. Ligaturen, die EVA übergeht, sprich aus 2, 3 oder 4 Buchstaben einen macht. Wenn man dieses Detail nicht gebührend berücksichtigt, ist die Transliteration nicht vollkommen, d.h. aus der so erstellten Schrift kann nicht die ursprüngliche Schrift wieder entstehen, was ich für unabdingbar erachte.

Falls wir es mit der Verschriftung einer natürlichen Sprache zu tun haben, ist das völlig egal, zumal für eine statistische Untersuchung. Ob ich Deinen Satzteil mit
Wenn man dieses Detail nicht gebührend berücksichtigt
oder mit
Wenn man dieses Detail nicht gebuehrend beruecksichtigt
transkribiere, ist für das Untersuchungsergebnis nicht entscheidend.

Falls der Text zu 99% Nonsens sein sollte und der Code ausgerechnet in bestimmten "Ligaturen" versteckt sein sollte, würden wir natürlich den Schlüssel zum Code übersehen. Das können wir aber nicht der Statistik anlasten, die uns ja höchstens sagen kann, dass der Text mit 99% Wahrscheinlichkeit Nonsens ist.

Ja, aber nicht nur: Auch bei der Entscheidung, wo ein neues Wort beginnt, muss manchmal der Menschen eingreifen, was bei unterschiedlichen Menschen zu unterschiedlichen Ergebnissen führt.
Ich sehe das Problem nicht.
Man kann ja vier verschiedene Transkriptionen, die von vier unterschiedlichen Menschen erstellt worden sind, hintereinander durch dasselbe Programm jagen.
 
Wo ist bitte der Unterschied? Der Autor des Voynich-Manuskripts hat doch sicher eine natürliche Sprache gesprochen und geschrieben, hat diese imitiert und beim Schreiben seines Pseudotextes seltenere und häufigere Wörter aufs Pergament gehauen - sicher ebenso "unbewusst".
Du unterstellst hier einfach, dass der Autor des Voynich-Manuskripts einen Hoax kreiert hat. Das ist ein Urteil im Voraus, was bei einer Analyse nichts zu suchen hat.

Falls wir es mit der Verschriftung einer natürlichen Sprache zu tun haben, ist das völlig egal, zumal für eine statistische Untersuchung.
Nein, das ist nicht völlig egal, wenn, wie beim Voynich-Manuskript, Ligaturen haben, die auch 3 und 4 Buchstaben umfassen, deren Bedeutung wir genauso wenig kennen wie die Sprache selbst.

Ich sehe das Problem nicht.
Man kann ja vier verschiedene Transkriptionen, die von vier unterschiedlichen Menschen erstellt worden sind, hintereinander durch dasselbe Programm jagen.
Ja, und würden dann 4 verschiedene Ergebnisse bekommen. Wäre das kein Problem für dich?
 
Du unterstellst hier einfach, dass der Autor des Voynich-Manuskripts einen Hoax kreiert hat. Das ist ein Urteil im Voraus, was bei einer Analyse nichts zu suchen hat.
Wenn wir von Unterstellungen sprechen: Du bist es doch, der sowohl Li wie auch den anderen Autoren unterstellt, sie hätten ihre Ergebnisse "unbewusst" manipuliert - nur um Dein untaugliches Argument zu retten.

Wenn Du mit Argumenten statt mit Unterstellungen arbeiten willst, ist mir das selbstverständlich lieber. Ich habe in meinen letzten Beiträgen ausführlich begründet, warum die Hypothese eines Pseudotextes die beste Erklärung für sämtliche Eigenheiten des Manuskripts liefert.
Die Alternative zu dieser Hypothese ist: In dem Pseudotext ist irgendein Code versteckt.
Dass der Text ein in Buchstabenschrift geschriebener Text in einer natürlichen Sprache ist, können wir ausschließen.

Nein, das ist nicht völlig egal, wenn, wie beim Voynich-Manuskript, Ligaturen haben, die auch 3 und 4 Buchstaben umfassen, deren Bedeutung wir genauso wenig kennen wie die Sprache selbst.
1. Wieviel Prozent des Textes besteht aus diesen "Ligaturen"?
2. Inwiefern ist es für eine statistische Auswertung wichtig, die "Bedeutung" zu kennen?

Ja, und würden dann 4 verschiedene Ergebnisse bekommen. Wäre das kein Problem für dich?
Nein, wieso?
Der Text enthält Schreibfehler, und er lässt sich auch nicht fehlerfrei lesen. Eine Fehlerquote ist statistisch einkalkuliert. Wenn Du ein fehlerfreies Ergebnis erwartest, brauchst Du erst gar nicht mit der statistischen Auswertung anzufangen.
 
Ich habe in meinen letzten Beiträgen ausführlich begründet, warum die Hypothese eines Pseudotextes die beste Erklärung für sämtliche Eigenheiten des Manuskripts liefert.
Die Frage wäre dann aber, warum jemand (und wer) unglaublich viel Zeit und finanzielle Ressourcen (Pergament, Tinte, Farben etc.) aufwandte, um am Ende eine Art Lorem ipsum zu produzieren. Das erscheint mir nicht plausibel.
 
Wenn wir von Unterstellungen sprechen: Du bist es doch, der sowohl Li wie auch den anderen Autoren unterstellt, sie hätten ihre Ergebnisse "unbewusst" manipuliert - nur um Dein untaugliches Argument zu retten.
Zu sagen, dass jemand anders handelt, wenn er weiß, um was es geht, als jemand, der unwissend an die Sache herangeht, ist keine Unterstellung, sondern gesichertes Wissen.

Ich habe in meinen letzten Beiträgen ausführlich begründet, warum die Hypothese eines Pseudotextes die beste Erklärung für sämtliche Eigenheiten des Manuskripts liefert.
Meinst du Erklärungen wie diese?
Wobei der Autor des Manuskripts sicher nicht nur willkürlich "Buchstaben getippt", sondern offensichtlich absichtlich Pseudowörter zu Pergament gebracht hat.
Wie kannst du – und das sogar mit Sicherheit! – von Pseudowörtern schreiben, wenn wir noch kein einziges Wort aus VM kennen?


1. Wieviel Prozent des Textes besteht aus diesen "Ligaturen"?
2. Inwiefern ist es für eine statistische Auswertung wichtig, die "Bedeutung" zu kennen?
Du gehst wie selbstverständlich davon aus, dass Ligaturen im VM dem gleichen, was im Deutschen üblich ist: „ae“ wird zu „ä“, etc. Wir kennen aber die Sprache im VM nicht, also können wir auch keine Vermutungen anstellen, wie deren Ligaturen aussehen und was sie bedeuten, zumal sie nicht, wie bei uns, nur 2 Buchstaben umfassen. Mehr noch, wie können nicht einmal sagen, ob diese Ligaturen auch wirklich Ligaturen sind – sie könnten z.B. auch feststehende Begriffe sein.

Der Text enthält Schreibfehler, und er lässt sich auch nicht fehlerfrei lesen. Eine Fehlerquote ist statistisch einkalkuliert. Wenn Du ein fehlerfreies Ergebnis erwartest, brauchst Du erst gar nicht mit der statistischen Auswertung anzufangen.
Ich habe in diesem Zusammenhang nicht von Statistik gesprochen, sondern von Transliteration, die beim umgekehrten vorgehen den Ursprungstext liefern muss, gleichgültig ob es sich bei diesem um einen Text in natürlichen Sprache, einen verschlüsselten oder einen Hoax handelt.
 
Naja, für die heutige Zeit, wo jeder alles ins Netz tippen kann, nicht. Für das Mittelalter scheint mir der Ressourcenverbrauch (Zeit/Geld) doch eher gegen eine reine Unsinnsproduktion zu sprechen.
Wenn du das unter Verkaufsaspekten siehst, nicht unbedingt. Wir befinden uns ja in einer Zeit, wo Papier schon zu haben war und trotzdem haben sich die Hersteller für das teure Pergament entschieden. Um eine echte Geheimnachricht zu übermitteln, wäre also ein vergänglicheres Material oder - vergleichsweise - billiges Papier (mittelalterliches Papier ist echtes geschöpftes Lumpenpapier, als wesentlich besser, als unsere Holzfaserpapiere heute und vor allem die Industriepapiere, die in wenigen Wochen am Licht zerbröseln (wie Zeitungspapier)) die sinnvollere Wahl gewesen. Wahrscheinlich hat hier jemand mit Absicht ein Kuriosum herstellen wollen, welches für den Verkauf an einen monetär potenten Magnaten gedacht war, einen Sammler von Kuriositäten vielleicht (ähnlich wie die Reliquiensammlung Friedrichs des Weisen)
 
Wahrscheinlich hat hier jemand mit Absicht ein Kuriosum herstellen wollen, welches für den Verkauf an einen monetär potenten Magnaten gedacht war, einen Sammler von Kuriositäten vielleicht (ähnlich wie die Reliquiensammlung Friedrichs des Weisen)
Gut, das wäre ein Ansatz, den ich nachvollziehen könnte. Ich glaube auch, dass man die Provenienzgeschichte des Stückes noch stärker erforschen müsste (sofern überhaupt möglich), um den potentiellen Verfasser und seine Motivation aufzuspüren.
 
Ich glaube auch, dass man die Provenienzgeschichte des Stückes noch stärker erforschen müsste (sofern überhaupt möglich), um den potentiellen Verfasser und seine Motivation aufzuspüren.
Das wäre vielleicht ein Schritt nach vorne. Bisher ist man in Sachen Provenienz nur bis zum Rudolf II. in Prag gekommen, woher aber er das VM hatte, weiß man nicht.

Stichwort Prag: Soviel ich weiß, hat man es bisher mit italienischen, deutschen und lateinische Sprache versucht, aber noch niemand mit einer slawischen Sprache, obwohl das aufgrund des ersten Fundortes sinnvoll wäre. Weiß jemand mehr darüber?
 
Zurück
Oben