Geht aber auch politisch: in Frankreich gab es bis vor kurzem ein Gesetz, welches fordert, dass die Kolonialgeschichte im Geschichtsunterricht positiv darzustellen ist.
Hi,
soweit mir bekannt, mein Vater (selbst Lehrer, konnte es mir nicht mit Bestimmtheit bestätigen) gibt es solche "Vorgaben" auch in Deutschland, nämlich im Bezug auf den türkischen Völkermord an den Arameern im ersten Weltkrieg. Vielleicht können hier Lehrer mal ein bisschen Licht in mein Dunkel bringen. Darf an deutschen Schulen über diese Kriegsverbrechen gesprochen/gelehrt werden?
gruß Sitti