Geschrieben von 18>HSV-Girly<87 am 11.08.2007 um 16:40:
Wird auswandern ein neuer Trend?
Kaum schaltet man den Fernseher ein, gibt es bestimmt einen Sender der gerade eine Dokumentation über eine Familie zeigt, die aus Deutschland auswandern möchte. Egal, ob Australien, Amerika, Kanada, Afrika, Neuseeland, ...
Manchmal kann ich es nur einfach nicht fassen, wenn es Leute gibt die ihren gut bezahlten Job in Deutschland einfach so hinschmeißen und ohne eine vernünftige Planung im Vorwege und erstmal ohne Zukunftschancen in ein fremdes Land auswandern.
Vorher wird noch nicht mal ein Haus oder eine Wohnung gesucht, sondern einfach auf gut Glück in den Flieger gestiegen und erstmal das nächste Motel angepeilt, ohne auch nur ein bisschen Geld in der Tasche zu haben.
Die meisten haben nur Ersparnisse für ein paar Wochen und dann wissen sie nicht wie es weiter gehen soll, wenn sie keinen Job kriegen.
Das kann ich immer nicht nach vollziehen.
Fakt ist doch: wenn ich auswandern sollte, dann plane ich das vorher richtig durch, spare viel Geld, um im anderen Land überhaupt erstmal über die Runden zu kommen und mir 'ne angenehme Bleibe zu suchen, damit ich mir keine Gedanken über meine Existenz machen muss und das ich auch nicht als "Loser" wieder zurück nach Deutschland ziehen muss.
Und was noch nicht in meinen Kopf rein geht, wieso um alles in der Welt lernt man vorher noch nicht die neue "Heimatsprache"?
In Deutschland wird sich doch auch aufgeregt, wenn die Leute kein deutsch sprechen können und schon seit 10 Jahren hier wohnen!
Wenn ich mal auswandern sollte, was ich mir aber überhaupt nicht vorstellen kann, dann würde ich nach Australien auswandern.
Aber wie gesagt, dass ist eher unwahrscheinlich.
Ich kann nämlich nicht ohne meine Familie und Freunde, auch wenn meine Fam mich manchmal ziemlich nervt, aber so ganz alleine in einen fremden Land, das wäre nichts für mich.
Deswegen würde ich auch kein au-pair in Amerika oder so machen.
Was haltet ihr vom auswandern?