Was bedeutet Amerikanisieren?
Amerikanisierung bezeichnet einerseits den Integrationsprozess von Einwanderern in die US-amerikanische Kultur, andererseits den Wandel einer Wirtschaft, Gesellschaft, Kultur oder Person in Richtung der vorherrschenden Gegebenheiten in den USA, beziehungsweise hin zum Leitbild des so genannten „American Way of Life“.
Wann war die Amerikanisierung?
Die entscheidende Zäsur für die Geschichte der Amerikanisierung war aber zweifelsfrei das Jahr 1945, als die USA zur unumstrittenen Führungsmacht der westlichen Welt wurden und direkten administrativen Einfluss auf die Entwicklung im Westen Deutschlands nehmen konnten.
Was bedeutet Amerikanisierung deutscher Städte?
Das Wort Amerikanisierung bedeutet, ein Land oder auch eine Stadt wird immer mehr „amerikanisch“. Leverkusen ist ein perfektes Beispiel für eine solche Stadt in Deutschland. Die meisten Deutschen wissen ja schon lange, was ein Cheeseburger ist. Aber früher war es gar nicht einfach, den in Deutschland zu finden.
Was brachten die Amerikaner nach Deutschland?
Sie verübten anfangs oft brutale Massenvergewaltigungen und Plünderungen. Doch die Feinde von einst finden nicht nur Naziverbrecher vor, sondern hungrige, auch lebenshungrige, Frauen, Kinder und Alte, deren Wohlwollen vor allem die Amerikaner mit Schokolade, Nylonstrümpfen, Lippenstiften und Zigaretten gewinnen.
Warum kommt der Begriff „Amerikanisierung“ im deutschen Kontext zur Anwendung?
Da Emigranten früher meist die Verbindung zu ihrem Heimatland abbrachen, war die Bereitschaft, sich in die neue Kultur zu integrieren, vielleicht eher gegeben als in der Gegenwart. Etwa seit der Wende vom 19. zum 20. Jahrhundert kommt der Begriff „Amerikanisierung“ auch im deutschen Kontext verstärkt zur Anwendung.
Was bedeutet der Begriff „Americanization“?
Der ursprüngliche Begriff der „americanization“ bezog sich überwiegend auf Europäer, die als Immigranten nach Amerika kamen. Man wollte ihnen die amerikanischen Ideen vermitteln, ja sie sollten das amerikanische Wertesystem akzeptieren und letztendlich als ihr eigenes übernehmen.
Warum bezieht sich Deutschland auf Nicht-Amerikaner?
Er bezieht sich noch immer auf Nicht-Amerikaner, meint jedoch Gesellschaften außerhalb des nordamerikanischen Kontinents. Damit verbunden war die Annahme, Deutschland – und andere Teile Europas und der Welt – würden mit amerikanischen Produkten, Ideen und Leitbildern überschwemmt.
Was begannen die Vereinigten Staaten von Amerika mit dem Ersten Weltkrieg zu werden?
Mit dem Ende des Ersten Weltkriegs begannen die Vereinigten Staaten von Amerika zu einem Referenzort für die Gesellschaften West- und Mitteleuropas zu werden, der nun nicht mehr nur das Auswanderungsland der „unbegrenzten Möglichkeiten” repräsentierte.