Gibt es heutzutage noch deutsche Kolonien?

shukri

Neues Mitglied
Hallo liebe geschichtsforum.de-Community,

ich wollte fragen, ob es heute noch Kolonien gibt, die zu Deutschland assoziiert sind.

Da ich nach einer umfassenden Websuche leider nichts finden konnte, versuche ich hier über dieses Thema fündig zu werden und eine Antwort auf meine Frage zu bekommen. Ich war mir ebenfalls nicht sehr sicher, ob diese Frage in dieses "BRD | DDR"-Forum gehört, werde sie aber dennoch stellen. Bei Bedarf kann ich löschen oder falls möglich in ein anderes Forum verschieben.

Liebe Grüße,
"shukri". :)
 
Mallorca hat es geschafft, sich von einer Kolonie zum 17. Bundesland zu entwickeln :D

ich wollte fragen, ob es heute noch Kolonien gibt, die zu Deutschland assoziiert sind.
Nein es gibt heute keine "deutschen Kolonien".
Edit: Mit Unterzeichnung des Versailler Vertrages 1919 verzichtete Deutschland auf Kolonien.
 
Zuletzt bearbeitet:
Nein, die gibt es nicht.

Gleichzeitig gibt es Formen, im Rahmen der Dekolonisation, die die alten kolonialen bzw. imperialen Strukturen ersetzt haben. Neben dem formellen Kolonialismus, Imperialismus werden ander Formen von Abhängigkeit erkannt.

Diese neue Form, die zwar die formale nationale Unabhängigkeit des Staates kennt, beinhaltet dennoch hegemoniale Strukturen. Teils sind diese noch postkolonial definiert, teils sind es jedoch auch wirtschaftliche Kooperationen, die Abhängigkeit begründen. Das kann man teilweise beispielsweise bei Frankreich in Afrika erkennen.

Bei Overbeek findet sich eine Übersicht über das Thema im Kontext der Globalisierung.

Overbeek, Henk (2008): Rivalität und ungleiche Entwicklung. Einführung in die internationale Politik aus der Sicht der internationalen politischen Ökonomie. 1. Aufl. Wiesbaden: VS Verlag für Sozialwissenschaften.
 
Schon mal was vom Versailler Vertrag gehört? Da steht drin was mit den Kolonien passierte.
Danach wurde ein Ostsiedlung propagiert, so grob ab 1933, damit war dann am 8. Mai 1945 endgültig Schluss mit dem Traum eines Kolonialreiches.
 
Nein Deutschland hat keine Kolonien mehr. Aber jetzt kommen ehemalige Afrikanische Kolonieen und woll von Deutschland eine Entschädigung für die Kriegsverbrechen.
Mit Nigeria werden da glaube ich zur Zeit Verträge ausgehandelt wo Deutschland wieder zahlen darf.
Da wurden die Völker vernichtet von Deutschen Kaiser Truppen.

Mal ne Frage haben die Engländer, Franzosen, Holländer oder Spanier auch Geld bezahlt für die Gräueltaten und Massakern die Sie in ihren Weltreichen und Kolonien verübt haben?
 
Eine ausgesprochen dämliche Polemik, die einen Genozid relativieren möchte, durch das Verhalten anderer Kolonialmächte.

Und das die - angebliche - deutsche "Bilderbuchkolonie" Nigeria bemüht wird zeigt, dass Counterspeech zwar notwendig ist, aber im RL würde man solche Leute schlichtweg ignorieren oder einfach auslachen. Oder fragen, ob diese Leute eigentlich ihre vom deutschen Steuerzahler finanzierte Schulbildung komplett verpennt haben.
 
Aber jetzt kommen ehemalige Afrikanische Kolonieen und woll von Deutschland eine Entschädigung für die Kriegsverbrechen.
Mit Nigeria werden da glaube ich zur Zeit Verträge ausgehandelt wo Deutschland wieder zahlen darf.
Da wurden die Völker vernichtet von Deutschen Kaiser Truppen.

Da muss doch eine Verwechslung vorliegen. Nigeria war nie deutsche Kolonie sondern britische. Der Herero-Prozess betrifft doch Namibia.

Vielleicht hat dieses Urteil für Verwirrung gesorgt:
Urteil: Nigerianische Bauern erhalten Entschädigung von Ölkonzern Shell
 
Ich glaube, der Themenersteller Shukri meinte mit seiner Frage, "ob es heute noch Kolonien gibt, die zu Deutschland assoziiert sind", eher, ob es noch einen lockeren Verbund zwischen Deutschland und ehemaligen Kolonien wie das "Commonwealth of Nations" oder die ehemalige "Communauté française" gibt.

Also nein.
 
Zurück
Oben