Der Westen

Der Westen ist ein Oberbegriff, der sich auf die Westwelt bezieht, oder Westkultur oder Zivilisation sind auf europäischen Ursprung zurückzuführen gewesen.

Es kann auch bedeuten:

Siehe auch

  • Westen
  • Westen (Begriffserklärung)

Antiterrorismus und Wirksames Todesstrafgesetz von 1996 / Peter Debye
Impressum & Datenschutz