Noch immer sind amerikanische Truppen in Deutschland dauerhaft stationiert,
und das 60 Jahre nach der 2.Weltkrise.
Was wollen Die überhaupt noch hier?
Ist Deutschland inzwischen immer noch nicht in der Lage ohne Besatzer auszukommen? Brauchen wir die Amerikaner hier, ähnlich wie der Irak oder Afghanistan?
Meines Erachtens nicht.
Ich fordere: US-Soldaten raus aus Deutschland!