Artorius
Aktives Mitglied
Die letzten 4 Folgen von "Die Deutschen" haben bei mir das Interesse für Deutschland im 19 Jhd. geweckt. Gibt es ein Buch, dass ihr dazu empfehlen könnt? Inhaltlich sollte es ca. von 1806 bis 1890 gehen. Gibt es sowas überhaupt? Hab mir schon "Deutschland im 19. Jahrhundert" von Manfred Görtemaker im Internet angesehen, aber die letze Auflage scheint aus den späten 80er Jahren zu sein und ist eventuell nicht mehr sehr aktuell.?