Was geschah mit den deutschen Kolonien nach dem Ersten Weltkrieg?

Was geschah mit den deutschen Kolonien nach dem Ersten Weltkrieg?

Die deutschen Kolonien wurden vom Deutschen Reich seit den 1880er Jahren erworben und nach dem Ersten Weltkrieg gemäß dem Versailler Vertrag von 1919 abgetreten. Die deutschen Schutzgebiete waren kein Bestandteil des Reichsgebiets, sondern überseeischer Besitz des Reiches.

Was war die letzte Kolonie?

Die Dekolonisation (auch Entkolonisierung genannt) setzte in Afrika im Gefolge des Zweiten Weltkriegs ein. Schon vorher hatte es unabhängige Staaten in Afrika gegeben. Der Abzug begann 1951 mit der Unabhängigkeit der italienischen Kolonie Libyen und endete 1976 mit der britischen Kronkolonie Seychellen.

Warum wurde die deutsche Kolonialherrschaft in Afrika im Jahre 1918 1919 beendet?

Juni 1919 unterzeichnete Deutschland den Versailler Friedensvertrag und erklärte dadurch wider Willen den Verzicht auf sein überseeisches Kolonialreich. Militärisch hatte Deutschland die Kolonien bereits während des Ersten Weltkrieges an die Alliierten verloren.

Welche Kolonien bestehen noch?

Karibik

Land Britische Besitzung ab Heutiger Status
Bahamas 1717 Parlamentarische Monarchie (im Commonwealth)
Barbados 1625 Parlamentarische Monarchie (im Commonwealth)
Britische Jungferninseln 1672 Britisches Überseegebiet
Dominica ab 1763 in Besitz des Vereinigten Königreichs, ab 1805 schließlich Kolonie Republik (im Commonwealth)

Hat Europa noch Kolonien?

Unterwerfung anderer Länder. Im Laufe der letzten 200 Jahre haben viele europäische Staaten Länder in anderen Erdteilen unterworfen. Diese Länder konnten sich gegen die Übermacht der Europäer nicht wehren und wurden zu sogenannten Kolonien. Diese Eroberungspolitik bezeichnet man als „Kolonialismus“.

Beginne damit, deinen Suchbegriff oben einzugeben und drücke Enter für die Suche. Drücke ESC, um abzubrechen.

Zurück nach oben