Okej, som titeln avslöjar så är det dags för
oss alla att ha en öppen diskussion om dystopiska romaner. Jag personligen
älskar egentligen dystopiska romaner. Men med den senaste hypen och trenden
inom den dystopiska genren har det producerats fruktansvärt mycket dåliga
böcker.
Sedan Hunger Games blev så otroligt populär
som den blev, har var enda dystopisk roman som har givits ut efter den
haft antingen ett love-drama eller love-triangle-drama. Och nu tycker jag det
är dags att vi alla sätter ner foten och skriker ett högt kollektivt ”NEEEEEJ!”
Det som för mig är det fina i dystopiska romaner är det som fokusen egentligen
borde ligga på, KRITIKEN MOT VÅRT SAMHÄLLE. Meningen med dystopiska romaner är
att de ska spegla en potentiell framtid över hur vår värld kan utvecklas om vi
inte förändrar den. Dystopi är kritik mot vårt samhälle, underbar, fiktiv,
skräckscenarior av hur vårt samhälle kan komma att se ut. För mig är dystopier
skönlitterära böcker med samhällskritik, och för en samhällsnörd som jag, finns
det inget bättre.
Men de nyare dystopiska romanerna som ges ut
och blir stora verkar helt ha glömt bort den här delen med samhällskritik.
Istället blir man satt i en dystopisk värld, utan omgivningsförklaring till hur
var och varför, och det enda hela boken fokuserar på är kärleksdramat mellan
två personer. Det är nästan som om det som har gjort dystopin så speciell,
samhällskritiken, helt plötsligt har förvunnit.
Jag vet inte vad ni tycker om detta, men jag
börjar bli fruktansvärt trött på dystopi, och det är synd, för jag tycker
egentligen om det. Men nu vill jag höra era synpunkter, jag vill att ni ska övertala mig om att det fortfarande är värt att läsa dystopiska böcker och jag vill att ni ger er synpunkt på det hela med dystopi, så vad tycker ni? Tycker
ni att dystopin har blivit bättre eller sämre? Gillar ni att fokusen i
dystopiska böcker förflyttat sig från samhället till kärleksdramer, eller inte?