El racismo en los Estados Unidos ha existido desde el siglo XV, desde que los colonos europeos comenzaron a colonizar Estados Unidos. Los europeos, en su búsqueda por "civilizar" a las personas, comenzaron a tomar esclavos y tratar a personas que parecían diferentes. de ellos como inferiores.
Los primeros actos racistas tuvieron lugar contra los nativos americanos. Cuando los europeos aterrizaron en América, conquistaron a los indios en guerras y masacres. Los que quedaron vivos sufrieron a través de tratados forzados, restricciones alimentarias y confiscaciones de tierras. Los colonos europeos intentaron imponer el cristianismo a los nativos americanos y los que no se conformaban a menudo eran castigados.
Los afroamericanos han sido el foco del racismo desde que los primeros colonos ingleses se asentaron en Virginia. Fueron tomados como esclavos y, a menudo, golpeados, hambrientos y tratados como animales.