Hubo muchos efectos positivos de la Guerra Civil; por ejemplo, se prohibió la esclavitud, se otorgó la ciudadanía a todas las personas nacidas en los EE. UU. y el movimiento por los derechos de las mujeres ganó fuerza. La nación se unió cuando vio que los estados no podían simplemente abandonar la unión, y la idea de los estados como un solo país se hizo más prominente.
La Guerra Civil permitió que el país se uniera una vez más y fortaleció al pueblo en general. Quizás el símbolo más perdurable de la Guerra Civil es la unificación del pueblo y de los estados. Si bien muchas personas simplifican la Guerra Civil y afirman que se trataba de si se debía o no permitir la esclavitud en los EE. UU., La guerra era realmente sobre si los estados tenían o no derecho a separarse y hasta qué punto se extendían los derechos estatales.
Los Estados Unidos comenzaron como un país que ignoraba el liderazgo cuando la gente sentía que sus líderes estaban equivocados. Esto es más visible por la forma en que las personas se comportaron antes, durante y después de la Revolución Americana en relación con el gobierno británico. La Guerra Civil ayudó a resolver el problema de qué poderes pertenecían a los estados y qué poderes pertenecían al gobierno federal. Llegar a un acuerdo sobre esta delegación de poder ayudó a crear un país más poderoso y unido.