Afrika und der Kolonialismus


Ende des 19. Jahrhunderts begann der Wettlauf um Afrika. Er dauerte von 1880 bis 1914, als der Erste Weltkrieg ausbrach. Es war eine Zeit, in der viele Länder in Europa Land in Afrika haben wollten. Sie wollten Kolonien dort errichten. Es ging also um die Kolonialisierung Afrikas.
Die Europäer hatten zunächst die Küsten des Kontinents erforscht, den Seeweg rund um Afrika nach Indien gefunden und dann begonnen, auch das Innere des riesigen Kontinents zu entdecken. Zunächst ging es vor allem um das Entdecken, doch schon bald ging es noch mehr um wirtschaftliche und politische Interessen. Die Entdeckung und Erforschung Afrikas schuf aber überhaupt erst die Voraussetzung zur Kolonialisierung.
Rohstoffe und neue Märkte lockten. Durch die zunehmende Industrialisierung wurden auch immer mehr Rohstoffe benötigt. Zugleich ermöglichte sie zusammen mit technischen und medizinischen Fortschritten auch erst die Ausweitung der europäischen Herrschaft über Afrika.
Jedes Land wollte etwas abhaben von dem Kontinent, der Reichtum durch Handel versprach. Dazu brachten Kolonien auch Macht und Ansehen.
Auf der Kongokonferenz versuchten die Länder Europas, allen voran Großbritannien, Frankreich und das Deutsche Reich, ihre Interessen durchzusetzen. Man setzte einen Rahmen für die Aufteilung Afrikas. So begann der Kolonialismus in Afrika.
Kolonien in Afrika - zu welchem Preis?
Dass in Afrika ja schon lange Menschen lebten, interessierte in Europa nicht. Dass dort sogar die Wiege des Menschen lag, war unvorstellbar - und wurde auch erst viel später herausgefunden. Man sah im 18. und 19. Jahrhundert auf die afrikanische Bevölkerung herab. Man beutete sie als billige Arbeitskräfte aus, zerstörte ihre Kultur und drängte ihnen missionarisch das Christentum auf.
Die Kolonialmächte zogen außerdem Grenzen, wie es ihnen passte. Schnurgerade Grenzen zeugen noch heute häufig davon. Rücksicht auf Volksgruppen wurde dabei auch nicht genommen. Das führt bis heute zu Konflikten.
Welche Länder hatten Kolonien in Afrika?
Vor allem Frankreich und Großbritannien sicherten sich eine große Anzahl an Kolonien in Afrika. Aber auch Portugal, Italien, Belgien und Spanien besaßen Kolonien auf dem Kontinent. Das Deutsche Reich verlor seine Kolonien in Afrika schon nach dem Ersten Weltkrieg.
Die afrikanischen Kolonien wurden erst nach dem Zweiten Weltkrieg nach und nach unabhängig. Siehe auch: Letzte Kolonien in Afrika werden unabhängig.