¿Cuándo se convirtió Alemania en un país?

Alemania se unificó en 1871 como el Imperio alemán, que estaba formado por los prusianos. Si bien las fronteras de Alemania cambiaron a lo largo de los años, el país siguió siendo una entidad única, aparte de la división entre Alemania Oriental y Alemania Occidental después de la Segunda Guerra Mundial.

Antes de que Alemania se convirtiera en un solo país, su tierra estaba dividida entre varias naciones más pequeñas e imperios. Sin embargo, muchas de las personas que viven en estas áreas se identifican como alemanes, y esta unidad ayudó a la nueva nación a prosperar en sus primeros años. La temprana edad de Alemania llevó a la tensión con las naciones más antiguas de Europa, incluidas Francia e Inglaterra, y dio lugar a una serie de conflictos que finalmente dieron como resultado la Primera Guerra Mundial.