publicado el: 27 noviembre 2021 - 12:30
¿Estados Unidos Destruyo Haiti?

Segundopaso - Desde los años 1700 el país de barras y estrellas, llevo su política exterior ha centro américa para tratar de dominar y tener presencia en esta región de américa, el que pago los platos rotos sin duda fue Haití, que hasta el día de hoy se ve sumido en una profunda pobreza, gracias a las medidas estadounidenses.

Código para noticias 2074

etiquetas

Su comentario

Usted está respondiendo
Indicio de comentario
2 + 2 =