Hoffentlich wird Deutschland nicht Weltmeister. Profifußball hat in Deutschland nichts mehr mit Sport zu tun, es geht nur noch um Geld. Mir wäre lieber, Deutschland könnte es auf anderem Gebiet schaffen Weltmeister zu werden, vielleicht als kinderfreundlichstes Land, als Land, in dem es mehr Achtung der Menschen untereinander gibt, in dem nicht die Schwachen in den Dreck gezogen werden und ein Land, in dem nicht die die Weltmeister sind, die am meisten verdienen.
Andreas