Ach, na dann sieh Dich doch mal um im Land.
Was ist denn aus Deutschland geworden, seit der WV und den Abzug der alliierten Truppen ?
Oder bist Du zu jung um dieses Unterschiede, ja Verschlechterung, zu beurteilen ?
Sicherlich nicht.
Deutschland hat Jahrzehntelang super gestanden unter den Alliierten, und dies nicht nur im Westen sondern, wollte man das Gejammere der Ossis ernst nehmen, sogar im Osten.
Gäbe es eine Zeitmaschine; ich würde die Zeit wieder zurück drehen.