Halloo
meine Frage ist, welches Interesse Deutschland an Kolonien hatte..
In meinem Geschichtsbuch finde ich dazu nur folgenden Satz: Deutschland verfolgte nicht wie England das Interesse zu einer Weltmacht aufzusteigen, sondern viel mehr ökonomische und innenpolitische Ziele.
Näher wird darauf nicht eingegangen, könnt ihr mir vielleicht ein paar Denkanstöße geben?
Vielen Dank
meine Frage ist, welches Interesse Deutschland an Kolonien hatte..
In meinem Geschichtsbuch finde ich dazu nur folgenden Satz: Deutschland verfolgte nicht wie England das Interesse zu einer Weltmacht aufzusteigen, sondern viel mehr ökonomische und innenpolitische Ziele.
Näher wird darauf nicht eingegangen, könnt ihr mir vielleicht ein paar Denkanstöße geben?
Vielen Dank