Wo gewann Deutschland zum ersten Mal die Fußball-Weltmeisterschaft?

storabird21. April 2020

Wo gewann Deutschland zum ersten Mal die Fußball-Weltmeisterschaft?

 

Antworten

DaLu21. April 20200x hilfreich

Das war in Bern in der Schweiz

wanita21. April 20200x hilfreich

Das in Bern in der Schweiz

k2929121. April 20200x hilfreich

Das war in der Schweiz

Stiltskin21. April 20200x hilfreich

1954 in Bern, in der Schweiz mit einem 3:2 Sieg gegen Ungarn.

kura21. April 20200x hilfreich

In der Schweiz. 

tastenkoenig21. April 20200x hilfreich

1954 in Bern, Schweiz

 

Frage stellen

 
 
Suchbegriff