Was ist die Amerikanisierung in Deutschland?

Was ist die Amerikanisierung in Deutschland?

In Deutschland beschreibt die Amerikanisierung das Auftauchen von westlichen Werten und führt die Angst mit sich, dass die eigenen kulturellen und gesellschaftlichen Werte verloren gehen könnten. Die Populärkultur aus Amerika greift immer weiter um sich, sie verlässt die heimischen Landesgrenzen und schwappt zu uns herüber.

Wie setzt sich die amerikanische Kultur in die Welt ein?

Die US- amerikanische Kultur nimmt bis heute eine Sonderstellung in der Welt ein. Der Prozess der Amerikanisierung setzte und setzt noch immer zuerst in Amerika ein. Der Transfer auf die deutsche Kultur beispielsweise gelingt erst, nachdem die Transformation bereits in den USA stattgefunden hat.

Warum kommt der Begriff „Amerikanisierung“ im deutschen Kontext zur Anwendung?

Da Emigranten früher meist die Verbindung zu ihrem Heimatland abbrachen, war die Bereitschaft, sich in die neue Kultur zu integrieren, vielleicht eher gegeben als in der Gegenwart. Etwa seit der Wende vom 19. zum 20. Jahrhundert kommt der Begriff „Amerikanisierung“ auch im deutschen Kontext verstärkt zur Anwendung.

Was begannen die Vereinigten Staaten von Amerika mit dem Ersten Weltkrieg zu werden?

Mit dem Ende des Ersten Weltkriegs begannen die Vereinigten Staaten von Amerika zu einem Referenzort für die Gesellschaften West- und Mitteleuropas zu werden, der nun nicht mehr nur das Auswanderungsland der „unbegrenzten Möglichkeiten” repräsentierte.

Was war der entscheidende Schlag in der Geschichte der Amerikanisierung?

Der entscheidende Schlag in der Geschichte der Amerikanisierung war zweifelsfrei das Jahr 1945, als die USA zur unumstrittenen Führungsmacht der westlichen Welt wurden und direkten administrativen (Kontrolle was im Staat passiert und auch der Außenpolitik) Einfluss auf die Entwicklung im Westen Deutschlands nahmen.

Beginne damit, deinen Suchbegriff oben einzugeben und drücke Enter für die Suche. Drücke ESC, um abzubrechen.

Zurück nach oben