Bild der Deutschen in Japan: Deutschland führt uns in den Abgrund

Die Deutschen waren in Japan angesehen. Das ändert sich. Der Bundesrepublik werden Arroganz und Alleingänge angelastet – und ein naives Verhältnis zu China. Ein Gastbeitrag....
. .
Veröffentlicht von: FAZ.NET - Feuilleton - Wednesday, 20 June
Share |