Frage: wir hier in den USA haben den Begriff des wilden Westens als ein Leitmotiv durch unsere Geschichte, mit Fernsehserien, Büchern, Erzählungen, und sogar in den Geschichtstextbüchern. Ich weiß, daß das "Old West" in deutschsprachigen Ländern im späten 19. und erste Hälfte 20. Jahrhundert ganz bekannt und beliebt war, nicht nur durch die Romane von Karl May (Winnetou u.a.). Ich weiß auch, daß obgleich es noch mehrere Gruppen gibt, die die Erbe dieser Romane noch pflegen und treuen, manche Leute nicht so eine große Vorliebe für den Westen haben wie früher. Also, wie trifft Euch eigentlich der Begriff des nordamerikanischen Westens heutzutage, nicht nur die Zeit der Cowboys und Indianer, sondern auch das zeitgenössische Land? Meint man, daß man noch nach Westen ziehen und sich ganz neu vorstellen könnte, fast wie in der alten Zeit? Ich hätte gerne gehört, wie man heutzutage denkt. Danke.