ngérum canc

Jóge Wiktionary.
Aller à la navigation Aller à la recherche

Etymologie : du latin colonia, venant de colere, cultiver. Etymologiquement une colonie est une population qui s'installe sur une terre lointaine pour y cultiver la terre et pratiquer son culte.

Le colonialisme est une doctrine politique qui préconise ou cherche à justifier l'exploitation d'une colonie, d'un territoire ou d'un Etat par un Etat étranger. La souveraineté que le pays colonisateur exerce sur sa colonie se traduit par une domination politique (mise en place d'une administration, d'un gouverneur...), militaire et une exploitation économique au détriment des populations locales.

L'expansion des pays colonisateurs s'effectue sur des territoires moins développés ou militairement plus faibles. Les motivations du colonialisme peuvent être variées :

   * Accaparer des ressources naturelles, des matières premières.
   * S'assurer de nouveaux débouchés en cas de surproduction.
   * Disposer d'un espace de peuplement, lorsque le pays colonisateur apparaît trop étroit.
   * Contrôler des routes commerciales et assurer leur sécurité.
   * Empêcher l'expansion de puissances concurrentes.
   * Disposer de bases militaires avancées à des emplacements stratégiques.
   * Accomplir une "mission civilisatrice" (voir ci-dessous). 

Les grandes puissances coloniales comme la France, l'Angleterre, la Belgique, l'Espagne, le Portugal ont longtemps considéré qu'il était de leur devoir, en tant que pays civilisés de race blanche, d'aller "apporter la civilisation à des races inférieures". Depuis la Seconde Guerre Mondiale, le colonialisme est perçu négativement car il s'oppose au droit des peuples à disposer d'eux-mêmes.

Le colonialisme antique, grec notamment, se distingue du colonialisme moderne (depuis le XVIe siècle) par un essaimage de colonies autonomes, mais porteuses de la culture de la métropole, alors que dans ce dernier l'exploitation de la colonie se fait surtout au profit de la métropole.

Le colonialisme est une forme d'impérialisme.


Définition du néocolonialisme Le néocolonialisme désigne, à partir des années 1960, les diverses tentatives de maintenir par des moyens détournés la domination économique ou culturelle d'une ex-puissance coloniale sur ses anciennes colonies après leur indépendance.


     >>> Terme connexe : Impérialisme
     >>> Citations : Colonie