Woher kommt das Wort Kolonialismus?

Woher kommt das Wort Kolonialismus?

Unterwerfung anderer Länder Diese Länder konnten sich gegen die Übermacht der Europäer nicht wehren und wurden zu sogenannten Kolonien. Diese Eroberungspolitik bezeichnet man als „Kolonialismus“. Der Begriff kommt vom lateinischen Wort „colonia“, das heißt „Ansiedlung außerhalb des römischen Bürgergebietes“.

Was haben die Kolonien Deutschland gebracht?

In den deutschen Kolonien kam es zu mehreren Aufständen, die blutig niedergeschlagen wurden. In Deutsch-Südwestafrika begingen die deutschen Kolonialherren den Völkermord an den Herero und Nama, den ersten in der Geschichtsschreibung anerkannten Völkermord des 20.

Hat Deutschland von seinen Kolonien profitiert?

Viele Kolonien, wie Qingdao in China oder die Inselstaaten im Pazifik waren außerdem sehr klein. Gesamtwirtschaftlich betrachtet lohnte sich der Kolonialismus für das Kaiserreich also nicht. Deutschland habe insgesamt stark vom kolonialen Handel profitiert, auch jenseits der eigenen besetzten Gebiete.

Was bedeutet Kolonialismus?

Kolonialismus. Das Wort bedeutet: Ein Land erobert Gebiete in einem anderen Land. Meistens liegt das eroberte Land in einem anderen Teil der Welt. Und die Menschen dort haben eine andere Lebens-Weise als die Eroberer. Die Eroberer übernehmen die Herrschaft über die Einwohner. Manche Gebiete nehmen sich die

Welche Rolle spielte der Kolonialismus im Zeitalter des Imperialismus?

Neben wirtschaftlichen Gewinnerwartungen und der Sicherung künftiger Rohstoffbasen spielten Machtrivalität und Prestigefragen unter den Motiven eine wichtige Rolle, die den Kolonialismus im Zeitalter des Imperialismus – zu dem der Kolonialismus einen Teilaspekt bildet – vorantrieben.

Wie zeichnete sich die moderne Epoche des Kolonialismus aus?

Fünftens schließlich zeichnete sich die moderne Epoche des Kolonialismus durch eine ideologische Legitimierung aus, die sich auf die mit universalem Anspruch formulierten Werte der Aufklärung sowie auf die vorgeblich objektiven Prinzipien der modernen Wissenschaften berief.

Wann fing die Zeit des Kolonialismus an?

Die Zeit des Kolonialismus fing vor etwa 520 Jahren an. Also ungefähr im Jahr 1500. Damals haben Länder aus Europa angefangen, in anderen Teilen von der Erde Gebiete zu erobern.

Beginne damit, deinen Suchbegriff oben einzugeben und drücke Enter für die Suche. Drücke ESC, um abzubrechen.

Zurück nach oben