Was ist denn Deutschland?

Deutschland wurde von den Alliierten definiert.
Deutschland bedeutet das Deutsche Reich wie es am 31. Dezember 1937 bestanden hat.
Definition zu finden unter SHAEF_Militärgesetze Artikel VII siehe hier:
"Deutschland" bedeutet das Deutsche Reich wie es am 31.12.1937 bestanden hat.
Ups. 1937? Nazi Deutschland?

Weiterführende und erweiterte Erläuterungen zu finden bei /mit freundlicher Unterstützung Frank Radon

=> www.frank-radon.de <=