Was geschah mit den deutschen Kolonien nach dem Ersten Weltkrieg?
Die deutschen Kolonien wurden vom Deutschen Reich seit den 1880er Jahren erworben und nach dem Ersten Weltkrieg gemäß dem Versailler Vertrag von 1919 abgetreten. Die deutschen Schutzgebiete waren kein Bestandteil des Reichsgebiets, sondern überseeischer Besitz des Reiches.
Was war die letzte Kolonie?
Die Dekolonisation (auch Entkolonisierung genannt) setzte in Afrika im Gefolge des Zweiten Weltkriegs ein. Schon vorher hatte es unabhängige Staaten in Afrika gegeben. Der Abzug begann 1951 mit der Unabhängigkeit der italienischen Kolonie Libyen und endete 1976 mit der britischen Kronkolonie Seychellen.
Warum wurde die deutsche Kolonialherrschaft in Afrika im Jahre 1918 1919 beendet?
Juni 1919 unterzeichnete Deutschland den Versailler Friedensvertrag und erklärte dadurch wider Willen den Verzicht auf sein überseeisches Kolonialreich. Militärisch hatte Deutschland die Kolonien bereits während des Ersten Weltkrieges an die Alliierten verloren.
Welche Kolonien bestehen noch?
Karibik
| Land | Britische Besitzung ab | Heutiger Status |
|---|---|---|
| Bahamas | 1717 | Parlamentarische Monarchie (im Commonwealth) |
| Barbados | 1625 | Parlamentarische Monarchie (im Commonwealth) |
| Britische Jungferninseln | 1672 | Britisches Überseegebiet |
| Dominica | ab 1763 in Besitz des Vereinigten Königreichs, ab 1805 schließlich Kolonie | Republik (im Commonwealth) |
Hat Europa noch Kolonien?
Unterwerfung anderer Länder. Im Laufe der letzten 200 Jahre haben viele europäische Staaten Länder in anderen Erdteilen unterworfen. Diese Länder konnten sich gegen die Übermacht der Europäer nicht wehren und wurden zu sogenannten Kolonien. Diese Eroberungspolitik bezeichnet man als „Kolonialismus“.