Depuis le génocide des Indiens jusqu'à la guerre en Irak en passant par le développement d'un capitalisme financier globalisé, les États- Unis se sont constitués au fil des siècles comme un empire incontournable. Peu à peu, leur histoire est devenue mythologie, mais ce livre propose le récit d'une nation, un récit qui a réussi à changer le regard des Américains sur eux-mêmes.