Hat die Bundesrepublik Deutschland nach 1945 einen Friedensvertrag unterzeichnet? (swr.de)
Vor allem in rechtsextremen Kreisen wird oft behauptet: Da es nach dem Krieg keinen offiziellen Friedensvertrag gab, bestünde das Deutsche Reich in den Grenzen von vor dem Krieg weiter – also mit großen Teilen vom heutigen Polen und Tschechien. Doch