Nastolatki uzależniają się od chatbotów AI
Nastolatki uzależniają się od chatbotów AI Fot. naTemat.pl

Coraz więcej młodych ludzi traktuje sztuczną inteligencję jak powiernika i przyjaciela. Nowe badanie pokazuje jednak, że ta relacja potrafi wymknąć się spod kontroli.

REKLAMA

Zjawisko, które jeszcze niedawno wydawało się ciekawostką technologiczną, dziś zaczyna budzić realne obawy badaczy i samych użytkowników.

Gdy chatbot staje się kimś więcej niż narzędziem

Według szacunków ponad połowa nastolatków w Stanach Zjednoczonych regularnie korzysta z chatbotów opartych na generatywnej sztucznej inteligencji. Aplikacje takie jak Character.AI, Replika czy Kindroid są reklamowane jako cyfrowi towarzysze, których zadaniem jest wspieranie, rozmawianie i pomaganie w trudnych chwilach.

Problem w tym, że granica między "narzędziem" a "relacją" zaczyna się zacierać. Potwierdzają to badania, takie jak te przeprowadzone przez Drexel University, które wskazuje, że wielu młodych użytkowników dostrzega u siebie oznaki uzależnienia. Co więcej, sami zaczynają się tym niepokoić.

Naukowcy przeanalizowali ponad 300 wpisów nastolatków (13–17 lat) publikowanych na platformie Reddit. Niestety, wyniki są niepokojące. W wielu przypadkach młodzi ludzie zaczynali korzystać z chatbotów w dobrej wierze – szukając wsparcia emocjonalnego, radzenia sobie z samotnością czy zwykłej rozrywki. Jednak z czasem relacja z AI zaczynała dominować ich codzienność. Pojawiały się konkretne konsekwencje:

  • problemy ze snem,
  • spadek wyników w nauce,
  • napięcia w relacjach z bliskimi.
  • Jak zauważa dr Afsaneh Razi, współautorka badania, to jedno z pierwszych tak wyraźnych potwierdzeń, że interakcje z AI mogą realnie wpływać na dobrostan młodych użytkowników.

    Mechanizmy znane z uzależnień

    Badacze nie mają wątpliwości, że zachowania opisane przez nastolatków przypominają klasyczne uzależnienie behawioralne. W analizowanych wpisach pojawiały się wszystkie jego kluczowe elementy:

  • konflikt – świadomość problemu przy jednoczesnej chęci dalszego korzystania,
  • wycofanie – pogorszenie nastroju bez kontaktu z botem,
  • tolerancja – potrzeba coraz częstszych interakcji,
  • nawrót – powrót po próbach ograniczenia,
  • zmiana nastroju – traktowanie AI jako "lekarstwa" na stres,
  • wyraźność – emocjonalne przywiązanie silniejsze niż do ludzi.
  • To, co wyróżnia chatboty, to ich interaktywność. Odpowiadają, zapamiętują, reagują na emocje. Jak zauważają autorzy badania, przez to doświadczenie zaczyna przypominać relację z drugim człowiekiem, a nie korzystanie z aplikacji.

    Technologia, która "udaje" relację

    Eksperci podkreślają, że kluczową rolę odgrywają tu cechy nowoczesnych systemów AI, czyli personalizacja, pamięć rozmów i zdolność do prowadzenia empatycznego dialogu. To sprawia, że użytkownik może mieć wrażenie autentycznej więzi. A zerwanie takiej relacji, nawet jeśli dotyczy programu, bywa trudne emocjonalnie.

    – Z tego powodu odejście nie oznacza jedynie porzucenia nawyku, ale może być odczuwane jako dystansowanie się od czegoś znaczącego, co utrudnia rozpoznanie i rozwiązanie problemu nadmiernego polegania na technologii – podkreśla Matt Namvarpour, doktorant na Wydziale Informatyki i w laboratorium ETHOS, pierwszy autor badania.

    Zespół z Drexel University proponuje konkretne rozwiązania, które mogłyby ograniczyć ryzyko uzależnienia. Wśród rekomendacji pojawiają się m.in.:

  • wprowadzenie limitów użytkowania,
  • komunikaty o stanie emocjonalnym użytkownika,
  • narzędzia do monitorowania czasu spędzanego z AI,
  • projektowanie chatbotów tak, by wspierały relacje offline, a nie je zastępowały,
  • łatwe i łagodne sposoby zakończenia interakcji.
  • Kluczowa ma być też współpraca twórców technologii z psychologami i specjalistami zdrowia psychicznego.

    Choć badanie opiera się na stosunkowo niewielkiej próbie, jego wnioski wpisują się w szerszą dyskusję o wpływie technologii na młodych ludzi. Do tej pory mówiło się głównie o uzależnieniu od gier czy mediów społecznościowych. Teraz pojawia się nowy gracz – bardziej subtelny, bardziej "ludzki" i potencjalnie trudniejszy do odrzucenia. I to właśnie czyni go tak niepokojącym…