kontakt@swiatzwyklegoczlowieka.pl
Młodzi ludzie coraz częściej żyją w świecie, w którym prawda i fikcja zlewają się w jedno. TikTok, algorytmy i generatywna AI tworzą informacyjną mgłę, w której nawet dorośli mają problem z odróżnieniem faktów od manipulacji.
Kategoria: Społeczeństwo / Technologia / Media / Manipulacje
Czas czytania: 12-15 minut
Czy ostatnio myślałeś o tym, jak zdobywasz swoją wiedzę? Kiedyś sprawa była jednoznaczna: informacje pochodziły z encyklopedii, wiadomości w telewizji wieczornej lub gazet porannych. Istniała zgoda w kwestii tego, co traktuje się jako fakt. Dziś wszystko to uległo zmianie. Dla wielu osób, zwłaszcza dla Pokolenia Z, autorytet stanowią krótkie klipy na TikToku, viralowe posty na platformie X (dawniej Twitter) oraz odpowiedzi generowane przez algorytmy sztucznej inteligencji w zaledwie kilka sekund.
Nie funkcjonujemy już w epoce informacji. Wkraczamy do epoki „półprawd”, gdzie obiektywny fakt staje się rzadkością, luksusem dla wybranych, a solidna weryfikacja danych ustępuje miejsca czemuś znacznie bardziej niepokojącemu – cyfrowej intuicji. Ostatnie badania, w tym alarmujący raport przygotowany przez Uczelnię Korczaka, wskazują: tracimy związek z rzeczywistością na rzecz fikcji stworzonej przez algorytmy.
Spis treści
Półprawda i dezinformacja w sieci: Co mówi raport Uczelni Korczaka o postrzeganiu prawdy przez młodych ludzi?
Aby pojąć powagę sytuacji, musimy przyjrzeć się konkretom. W 2024 roku Centrum Analiz Społeczno-Informacyjnych Uczelni Korczaka, we współpracy z sejmową Komisją ds. Dzieci i Młodzieży, zrealizowało szczegółowe badania dotyczące podatności młodzieży w wieku 14–19 lat na dezinformację. Wnioski zawarte w tym dokumencie są, delikatnie mówiąc, alarmujące.
Naukowcy zauważyli podstawową zmianę w rozumieniu „prawdy”. Dla starszych pokoleń prawda jest stała – jest faktem dotyczącym zdarzenia (jak data bitwy, wynik wyborów czy wzór chemiczny). Natomiast dla współczesnej młodzieży prawda stała się bardziej elastyczna. Przekształciła się w „zmienny proces”.
Z wyników raportu wynika, że młodzi ludzie nie dążą do obiektywizmu. Postrzegają informację jako materiał, który należy – jak mówią uczestnicy badania – „zmielić, sprawdzić i przefiltrować przez siebie”. Co to zdaje się oznaczać? Że o prawdziwości informacji nie decyduje źródło, przypis czy dowody naukowe, ale subiektywne odczucia odbiorcy. Jeśli informacja „zgadza się” z ich uczuciami, przekonaniami lub intuicją, zostaje uznana za prawdziwą. Natomiast jeśli budzi dyskomfort, jest odrzucana jako fałszywa.
Taki stan rzeczy prowadzi do skrajnego relatywizmu poznawczego. „Moja prawda” zyskuje większe znaczenie niż „prawda obiektywna”. W takim kontekście dyskusja merytoryczna staje się niemożliwa, ponieważ każdy uczestnik debaty funkcjonuje w rozbieżnych, niekompatybilnych rzeczywistościach.
Czym dokładnie jest zjawisko „półprawdy” w sieci?
Współczesna przestrzeń informacyjna nie dzieli się już wyraźnie na prawdę i kłamstwo. Największym zagrożeniem, które wynika z korzystania z mediów, jest półprawda.
Zjawisko „półprawdy” oznacza sytuację, w której informacja jest technicznie lub częściowo zgodna z faktami, ale:
- Brakuje jej istotnego kontekstu, który zmieniałby jej znaczenie.
- Jest emocjonalnie zmanipulowana (np. poprzez szokujący obraz lub sensacyjny nagłówek).
- Jest połączona z subiektywną opinią autora, która przedstawiana jest jako fakt.
Dla przeciętnego odbiorcy, który zmaga się z ogromem bodźców (tzw. przeciążenie informacyjne), półprawda staje się prostym zamiennikiem prawdy. Jest przystępna, często potwierdza nasze uprzedzenia i nie wymaga zaangażowania umysłowego.
Przykład? Wyobraźmy sobie krótki klip na TikToku mówiący, że „naukowcy udowodnili szkodliwość popularnego warzywa”. Autor odnosi się do jednego zdania z mało znanego badania, pomijając przy tym, że dotyczyło ono jedzenia 50 kg tego warzywa dziennie. Odbiorca poznaje „fakt” (badanie istnieje), ale wniosek, który wyciąga („nie będę tego jeść”), jest kompletnie błędny. Tak powstają i krążą półprawdy.
Dlaczego algorytmy wpływają negatywnie na naszą uwagę i zdolność myślenia?
Kluczem do pojęcia kryzysu prawdy jest nasza biologiczna umiejętność koncentracji, która w ostatnich latach znacznie się pogorszyła. Badania dotyczące zachowań internetowych (przytaczane także przez psychologów mediów) wskazują na drastyczną redukcję tzw. attention span (czasu skupienia uwagi):
- Rok 2004: Średni czas skupienia na jednym ekranie/zadaniu wynosił około 2 minuty i 30 sekund.
- Rok 2023: Ten czas zmniejszył się do jedynie 47 sekund.
Jakie implikacje niosą te dane dla „zwykłego człowieka”? Oznacza to, że jako społeczeństwo tracimy biologiczne zasoby potrzebne do rozwiązywania złożonych zagadnień. Aby zrozumieć reformę podatkową, zmiany klimatyczne czy skomplikowaną geopolitykę, potrzeba dłuższego czasu skupienia. Wymaga to czytania, ciszy i przemyśleń.
Jednocześnie algorytmy mediów społecznościowych – TikToka, Instagram Reels, YouTube Shorts – zostały stworzone z przeciwnym zamiarem. Ich celem jest rozpraszanie naszej uwagi. Dostarczają nam treści w szybkich dawkach, nastawionych na natychmiastowy wyrzut dopaminy. W 15 sekund nie można wytłumaczyć przyczyn inflacji, ale można wzbudzić strach, oburzenie lub wiarę w teorię spiskową.
Żyjemy w erze nagłówków i klipów. Nuda stała się ciężkim grzechem, a chwila namysłu jest traktowana przez algorytmy jako „przestój”, który należy natychmiast zapełnić nowymi bodźcami. W konsekwencji nasze mózgi zatracają zdolność głębokiego przetwarzania informacji (tzw. deep work), przechodząc w tryb ciągłego, płytkiego przeskakiwania przez tematy.
Czy sztuczna inteligencja (AI) stała się nową wyrocznią delficką?
Jeszcze kilka lat temu, pragnąc zweryfikować jakąś informację, posługiwaliśmy się (przynajmniej teoretycznie) metodą cross-checkingu: wpisywaliśmy dane zagadnienie w wyszukiwarkę, otwieraliśmy 2-3 różne linki, porównywaliśmy źródła. Obecnie taki sposób staje się przestarzały, zwłaszcza wśród młodych internautów.
Jak zauważają badacze z Uczelni Korczaka, młodzież – a za nią coraz częściej dorośli – jako główne narzędzie do weryfikacji faktów wybiera ChatGPT oraz inne modele językowe (LLM).
Powstaje przy tym niebezpieczny paradoks:
- Zaufanie do maszyny przewyższa zaufanie do ludzi. Chatbot jest postrzegany jako istota „obiektywna”, „zimna”, „pozbawiona interesów” oraz „wszechwiedząca”.
- Ignorujemy naturę tego narzędzia. Zapominamy (lub nie mamy świadomości), że ChatGPT nie jest zbiornikiem wiedzy, lecz modelem, który przewiduje kolejne słowo w zdaniu na podstawie statystyki.
- Akceptujemy iluzje. Modele AI mogą generować tzw. halucynacje – wyssane z palca informacje, które jednak prezentowane są w niezwykle przekonujący, gramatycznie bezbłędny i pewny siebie sposób.
Zamiast szukać źródła, pytamy bota: „czy to jest prawda?”. Gdy AI potwierdzi, uznajemy temat za rozwiązany. Uczniowie w badaniach otwarcie przyznawali: „Ostatnio zrobił się popularny ChatGPT, no to wiadomo, że z niego korzystam. Moim zdaniem on jest wiarygodny”. To oznacza rezygnację z krytycznego myślenia. Oddajemy naszą ocenę rzeczywistości w ręce algorytmu, którego funkcjonowania w pełni nie rozumiemy.
To zjawisko tworzy tzw. „bańki AI” – gdy miliony ludzi zaczynają uzyskiwać wiedzę o świecie z tego samego modelu, potencjalne błędy lub stronniczość tego modelu stają się dominującą „prawdą” dla całego pokolenia.
Dlaczego teorie spiskowe są psychologicznie tak atrakcyjne?
Raport Uczelni Korczaka dostarcza również nowych informacji na temat popularności teorii spiskowych. Okazuje się, że podatność na dezinformację nie jest wynikiem braku inteligencji czy wykształcenia, lecz głębokich deficytów emocjonalnych, przede wszystkim z braku poczucia sprawczości.
Młodzież (i nie tylko oni) odczuwają, że otaczający ich świat jest zdezorganizowany, niespodziewany i niebezpieczny. Epidemia, konflikty zbrojne w innych krajach, zmiany klimatyczne, niejasna sytuacja finansowa – wszystko to budzi obawy. W takiej sytuacji teorie spiskowe stają się pewnego rodzaju „środkiem przeciwbólowym”. Oferują one:
- Uporządkowanie chaosu. Teoria spiskowa daje proste wyjaśnienie skomplikowanych zjawisk. Zamiast akceptować, że świat jest złożony i przypadkowy, łatwiej uwierzyć, że „ktoś za tym stoi”. To przywraca poczucie sensu.
- Poczucie sprawstwa i kontroli. Wiara, że „wiem coś, czego nie wiedzą inni” (tzw. owce, lemingi), buduje ego i pozwala poczuć się mądrzejszym, lepszym, bardziej świadomym.
- Poczucie przynależności. Wchodząc w grupę wyznawców danej teorii (np. płaskoziemców czy antyszczepionkowców), przestajemy być samotni. Zyskujemy wspólnotę, która nas akceptuje i rozumie.
W świecie, w którym algorytmy decydują o tym, co widzimy, teorie spiskowe stają się naturalnym skutkiem ubocznym personalizacji treści. Jeśli raz klikniesz w materiał o „ukrytej prawdzie”, system – chcąc zatrzymać Cię w aplikacji – nakarmi Cię setkami podobnych filmów. Zamyka Cię w hermetycznej bańce, w której wszyscy mówią to samo, co utwierdza Cię w przekonaniu, że masz rację. Wyjście z takiej cyfrowej jaskini staje się niemal niemożliwe.
Społeczne konsekwencje życia w świecie post-prawdy
Co się dzieje ze społeczeństwem, w którym zanika wspólna baza faktów? Obserwujemy to już dzisiaj:
- Polaryzacja. Społeczeństwo rozpada się na plemiona, które nie są w stanie ze sobą rozmawiać, ponieważ nie zgadzają się co do podstawowych założeń rzeczywistości.
- Erozja zaufania. Przestajemy ufać nie tylko politykom (co bywa zrozumiałe), ale także nauce, medycynie, ekspertom i sobie nawzajem.
- Podatność na manipulację. Społeczeństwo, które nie weryfikuje faktów, jest idealnym celem dla wrogiej propagandy (np. rosyjskiej dezinformacji), która nie musi nawet przekonywać do kłamstwa – wystarczy, że zasieje wątpliwość co do prawdy.
Raport wskazuje, że młodzi ludzie często nie traktują prawdy jako wartości samej w sobie. Dla wielu z nich ważniejsza od faktów jest autentyczność influencera. Jeśli twórca internetowy jest lubiany, charyzmatyczny i „wydaje się szczery”, to, co mówi, jest przyjmowane bezkrytycznie, nawet jeśli są to bzdury.
Co może zrobić „Zwykły Człowiek”, by nie zwariować?
Obraz wyłaniający się z tych analiz jest pesymistyczny, ale nie jesteśmy bezbronni. Choć walka z algorytmami przypomina starcie Dawida z Goliatem, możemy – i musimy – odzyskać kontrolę nad własnym umysłem. Oto konkretne strategie obronne:
1. Zastosuj zasadę „pauzy poznawczej”
Kiedy widzisz w sieci informację, która wywołuje w Tobie nagły, silny impuls emocjonalny (strach, gniew, oburzenie, euforię) – ZATRZYMAJ SIĘ. To nie przypadek. Treść została tak skonstruowana, by wyłączyć Twoje myślenie krytyczne. Nie podawaj jej dalej, nie komentuj. Odczekaj 5 minut. Emocje opadną, a włączy się logika.
2. Metoda trzech źródeł (Triangulacja)
Jeśli jakaś informacja wydaje Ci się ważna, nie polegaj na jednym TikToku czy wpisie na Facebooku. Sprawdź ją w trzech niezależnych, różniących się od siebie miejscach (np. portal naukowy, duża agencja prasowa, strona instytucji). Jeśli nikt inny o tym nie pisze – prawdopodobnie jest to fake news.
3. Traktuj AI jak stażystę, nie profesora
Korzystając z ChatGPT czy Gemini, traktuj je jak inteligentnego, ale omylnego stażystę. Mogą pomóc w redakcji tekstu czy burzy mózgów, ale nigdy nie powinny być ostatecznym źródłem wiedzy o faktach. Zawsze weryfikuj to, co wygeneruje bot. Pamiętaj: AI nie ma sumienia ani poczucia odpowiedzialności za słowo.
4. Wybieraj „nudne” media
Prawda rzadko jest sensacyjna, krzykliwa i prosta. Rzeczywistość jest skomplikowana i zniuansowana. Wiarygodne analizy są zazwyczaj dłuższe, bardziej stonowane i… po prostu nudniejsze niż viralowe rolki z żółtymi napisami. Jeśli materiał wygląda jak show, prawdopodobnie jest show, a nie informacją.
5. Dbaj o higienę cyfrową i „detoks dopaminowy”
Twój mózg potrzebuje odpoczynku. Ogranicz bezmyślne scrollowanie (tzw. doomscrolling). Wprowadź strefy bez telefonu (np. sypialnia, stół jadalny). Odzyskując zdolność do skupienia się na książce czy rozmowie, odzyskujesz narzędzia do obrony przed manipulacją.
Podsumowanie
Zalew „półprawdy” i algorytmiczna manipulacja to jedno z największych wyzwań cywilizacyjnych XXI wieku. Raport Uczelni Korczaka jest dzwonkiem alarmowym, którego nie wolno nam zignorować. Jeśli przestaniemy zadawać pytanie „jak jest naprawdę?”, a zadowolimy się tym „co czujemy, że jest prawdą”, oddamy naszą wolność i rzeczywistość w ręce korporacji technologicznych, których jedynym celem nie jest nasze dobro, lecz utrzymanie naszej uwagi za wszelką cenę.
Walka o prawdę to dziś walka o naszą suwerenność myślenia. Nie oddawaj jej bez walki.




