Was ist der deutsche Kolonialismus?
Die deutschen Kolonien wurden vom Deutschen Reich seit den 1880er Jahren erworben und nach dem Ersten Weltkrieg gemäß dem Versailler Vertrag von 1919 abgetreten. Die deutschen Kolonien waren 1914 das an Fläche drittgrößte Kolonialreich nach dem britischen und französischen.
Wann war die Kolonialzeit in Deutschland?
Deutschland hatte eine nur kurze Kolonialgeschichte, von 1884 bis zum Ende des Ersten Weltkrieges, als es seine Kolonien in Afrika, Ozeanien und Ostasien wieder abgeben musste. Aber auf seinem Höhepunkt war das deutsche Kolonialreich immerhin das viertgrößte der Welt. Und Spuren davon gibt es bis heute.
Was war der Kolonialismus und seine Folgen?
Der Kolonialismus und seine Folgen. Editorial: Für die Menschen in Afrika war der Kolonialismus eine Tragödie. Millionen wurden ermordet oder verhungerten, Zwangsarbeit, Prügelstrafen und Vergewaltigungen waren Alltag im kolonialen Herrschaftssystem.
Was sind die Erscheinungsformen des neuzeitlichen Kolonialismus?
Typen und Organisationsformen kolonialer Herrschaft. Von übereinstimmenden Kernmerkmalen wie Über- und Unterordnung zwischen Kolonisten und Kolonisierten oder den ungleichen wirtschaftlichen Beziehungen zwischen Kolonialmächten und Kolonien abgesehen, sind die historischen Erscheinungsformen des neuzeitlichen Kolonialismus äußerst vielfältig.
Welche Rolle spielte der Kolonialismus im Zeitalter des Imperialismus?
Neben wirtschaftlichen Gewinnerwartungen und der Sicherung künftiger Rohstoffbasen spielten Machtrivalität und Prestigefragen unter den Motiven eine wichtige Rolle, die den Kolonialismus im Zeitalter des Imperialismus – zu dem der Kolonialismus einen Teilaspekt bildet – vorantrieben.
Was ging mit dem frühen niederländischen Kolonialismus einher?
Mit dem frühen niederländischen Kolonialismus in Südostasien ging auf Herrschaftsebene die Ausbildung einer Mischgesellschaft und -kultur einher, in der niederländische Vorstellungen zwar dominierten, aber von Elementen indonesischer Kultur durchdrungen wurden.