Alles was national ist, ist Nazi
Alles was demokratisch ist, ist faschistisch.


Man erlebt gerade ununterbrochenes Gaslightening wenn man in die Deutschen Massenmedien guckt.

Ich kenne kein anderes Land in der Welt, in dem die Bewohner und Politiker dermassen gestört und irre ist.
Selbst die Schweden sind noch patriotischer.

Kommt das von dem Trauma der zwei Weltkriege?
Der Schuldfrage, die die Amis, Briten und Franzosen den Deutschen aufgedrückt haben ?

Aber so richtig angefangen hat es erst 2000 plus.

Was meint ihr?

Werden die Deutschen irre bald aussterben?