¿Qué significa "colonialismo"?

Según los Diccionarios de Oxford, "colonialismo" significa "la política de adquirir el control político total o parcial sobre otro país, ocuparlo con colonos y explotarlo económicamente". Muchos países e imperios, desde Los griegos a los norteamericanos, se han comprometido en el colonialismo.

La Enciclopedia de Filosofía de Stanford sostiene que el colonialismo es muy similar al imperialismo; sin embargo, hace una distinción entre los dos, diciendo que el imperialismo generalmente es solo dominación, mientras que el colonialismo requiere el poder dominante para enviar colonos que cambian el carácter de la nación dominada. Por ejemplo, los Estados Unidos se comprometieron con el colonialismo cuando despojaron a los indios americanos de sus tierras y establecieron familias blancas en sus lugares, pero se comprometieron con el imperialismo cuando se adueñaron de las colonias españolas de Puerto Rico y Filipinas. El colonialismo no es una innovación reciente; la antigua Grecia colonizó gran parte del mar Mediterráneo, plantando colonias en Sicilia, Asia Menor y la costa del norte de África.