Warum ist der US Staat so links. Er wählt immer Demokraten und durch das bisschen was ich gesehen habe wirkt dieser Staat ziemlich woke und links. Ich gehe davon aus dass auch Los Angeles so ist, ich liebe die Serie NCIS: L.A. und dort ist es oft "oh wir armen Amerikaner, immer werden wir angegriffen obwohl wir nie jemandem was getan habe mimimi" oder Patriotismus und so. Es ist irgendwie komisch das zu schauen obwohl es an einem Ort stattfindet, wo die meisten Leute überhaupt nicht so sind, von einem Schauspieler ist sein Insta ziemlich "politisch engagiert" wie es scheint schreibt er über jedes politisches Thema und es wirkt ein wenig aggressiv, und alleine an seinem Profilbild siehtan schon dass er ziemlich woke/links ist. Ich habe mal ein Reel gesehen wo ein Paar von Californien in einen anderen Staat der anscheinend Konservativ bzw. rot (Republikaner) ist und die sind als sie da rein gefahren sind von außen Konservativ geworden, also andere Kleidung und so. Also es scheint dass Californien wirklich blau (Demokraten) ist. Ich frage mich warum dieser Staat links ist.
Warum ist Californien links?
Amerika,
USA,
Politik,
Kalifornien,
konservativ,
Los Angeles,
Demokraten,
Liberal,
Republikaner,
woke