El imperialismo implica la dominación de un estado sobre otros territorios mediante la invasión y planes militares con el objetivo de expandir su prestigio, influencia y religión. Los países europeos colonizaron tierras en busca de recursos y mano de obra barata, lo que aumentó su poder económico pero también fomentó el racismo y nacionalismo. Aunque los períodos de expansión imperialista terminaron después de la Segunda Guerra Mundial, algunos países aún buscan aumentar su poder global a través de tácticas como la intervención militar y comercial