Hallo und Guten Tag,
nachdem davon ausgegangen wird, dass die USA sich de facto durch die Wahl von Donald Trump zum US-Präsidenten vom Westen und westlichen Werten verabschiedet haben und eventuell auch ein Rückzug der USA aus der NATO bevorsteht, könnte es sein, dass ausgerechnet Deutschland unter Angela Merkel nun die Rolle zufällt, diesbezüglich das Erbe der USA anzutreten und weltweit für westliche Werte einzutreten? Ausgerechnet Deutschland in den Fußstapfen der USA als internationale Führungsmacht des Westens?
Siehe diesbezüglich diesen Artikel der „New York TImes“:
Donald Trump’s Election Leaves Angela Merkel as the Liberal West’s Last Defender
Könnte Deutschland diese Rolle der USA ausfüllen als „Führungsmacht des Westens“ und dann vielleicht auch der NATO? Ausgerechnet Deutschland? Würde das überhaupt international akzeptiert werden?
Vielen Dank im Voraus für Antworten und Meinungsäußerungen,
Jasper.