Nowa AI uczy studentów myślenia, a nie ściągania odpowiedzi
Na jednej z amerykańskich uczelni przetestowano nietypowego „korepetytora”.
Zamiast podawać rozwiązania, AI odpowiada pytaniami i zmusza studentów do myślenia.
To narzędzie, nazwane Macro Buddy, działa jak cierpliwy wykładowca, który nigdy nie dyktuje gotowej odpowiedzi. Zamiast tego prowadzi studenta krok po kroku przez własny tok rozumowania, odwołując się do materiału z zajęć. Efekt? U części osób wyniki na egzaminach skoczyły o kilkanaście punktów, a u innych wyraźnie spadły.
AI zamiast ściągi: jak działa Macro Buddy
Na wielu uczelniach w USA chatboty stały się codziennością. Szacuje się, że blisko 90% studentów korzysta z narzędzi opartych na AI przy odrabianiu prac domowych. Zazwyczaj pełnią rolę wygodnej ściągi – generują gotowe wypracowania, rozwiązują zadania z matematyki, podpowiadają definicje.
Macro Buddy idzie w zupełnie innym kierunku. Został zaprojektowany jako cyfrowy korepetytor z makroekonomii, oparty na metodzie znanej od ponad dwóch tysięcy lat. Zamiast pisać: „Oto rozwiązanie zadania”, chatbot wplątuje studenta w dialog przypominający rozmowę z wymagającym wykładowcą.
Kluczowa zasada: żadnych gotowych odpowiedzi. AI może zadawać tylko trafne, coraz precyzyjniejsze pytania, aż student sam zbuduje poprawne rozumowanie.
Jeśli student pyta, jak policzyć tempo wzrostu PKB, nie dostaje wzoru. Macro Buddy dopytuje na przykład: co wchodzi do PKB, jak mierzymy zmiany w czasie, jaka jest różnica między poziomem a dynamiką. Dopiero gdy kolejne odpowiedzi układają się w logiczny łańcuch, student dochodzi do prawidłowej metody obliczenia.
Cyfrowy następca sokratejskich rozmów
Twórcy narzędzia oparli się na tzw. metodzie sokratejskiej, czyli prowadzeniu ucznia przez serię dociekliwych pytań. Celem nie jest sprawdzenie wiedzy „na pamięć”, ale doprowadzenie pytanego do samodzielnego zrozumienia.
Ekonomiści z Uniwersytetu Wisconsin-La Crosse zasilili Macro Buddy kompletnymi transkrypcjami swoich wykładów z makroekonomii. To ważny szczegół: chatbot nie ma dostępu do internetu, nie może „dociągać” treści z zewnątrz ani improwizować ponad to, co rzeczywiście pojawiło się na zajęciach.
- korzysta wyłącznie z oficjalnych materiałów kursu,
- odwołuje się do definicji i przykładów znanych studentom z wykładów,
- nie podaje gotowej formuły ani rozwiązania zadania,
- wychwytuje błędy pojęciowe i reaguje dodatkowymi pytaniami.
Jeśli ktoś myli PKB realny z nominalnym, narzędzie nie wpisze za niego poprawnej odpowiedzi. Zamiast tego poprosi o wyjaśnienie, czym jest poziom cen, co oznacza „w ujęciu stałych cen” i jak inflacja wpływa na porównywanie danych w czasie. Dopiero gdy student sam poprawi swoje rozumowanie, rozmowa przesuwa się dalej.
Eksperyment na 140 studentach: kto tak naprawdę korzysta na AI
Aby sprawdzić, jak taki sposób pracy wpływa na wyniki, badacze przeprowadzili wiosną 2025 roku eksperyment z udziałem 140 studentów makroekonomii. Podzielili ich na cztery grupy o różnych warunkach nauki.
| Grupa | Sposób pracy | Zmiana wyniku na egzaminie |
|---|---|---|
| 1 | Tylko Macro Buddy, samodzielna praca z AI | umiarkowana poprawa lub brak dużych zmian |
| 2 | Klasyczne grupy bez AI | lekka poprawa dzięki dyskusjom |
| 3 | Najpierw praca z Macro Buddy, później dyskusja w zespole | średnio +12 punktów względem grupy kontrolnej |
| 4 | Grupa kontrolna, standardowe zajęcia bez wsparcia | punkt odniesienia do porównań |
Najlepsze wyniki osiągnęli ci, którzy łączyli indywidualny „trening” z chatbotem z późniejszą rozmową ze współstudentami. Najpierw mieli czas, aby samodzielnie przegryźć materiał i uporządkować własny tok myślenia przy pomocy pytań AI. Dopiero później konfrontowali swoje rozumowanie z resztą grupy.
Studenci, którzy najpierw pracowali z Macro Buddy, a dopiero potem rozmawiali w grupach, poprawili wyniki na trzecim egzaminie średnio o 12 punktów.
Najgorzej wypadli ci, którzy traktowali AI jak prostą maszynkę do podpowiedzi, a po wyłączeniu narzędzia zostali sami z kartką egzaminacyjną. U tych osób wyniki spadły o około 8 punktów. Badacze opisują to zjawisko jako uzależnienie od „kuli u nogi”, która w krótkim okresie daje złudne poczucie kompetencji, a w dłuższej perspektywie osłabia umiejętność samodzielnego myślenia.
Każdy błąd zamienia się w serię celnych pytań
Serce całego systemu stanowi pętla zadawania pytań. Macro Buddy nie ocenia odpowiedzi wprost jako „dobrą” lub „złą”. Zamiast tego analizuje, z którym pojęciem student ma największy problem, i tam właśnie kieruje kolejne pytania.
Załóżmy, że student nie rozumie, skąd bierze się inflacja. Zamiast wykładu o polityce pieniężnej, pojawia się ciąg krótkich, prostych pytań: co się dzieje, gdy w gospodarce przybywa pieniądza, jak szybko krąży on między uczestnikami rynku, jak zmienia się ogólny poziom cen, gdy popyt rośnie szybciej niż podaż.
Błąd nie kończy rozmowy, ale ją uruchamia. To pretekst do zbudowania nowego łańcucha skojarzeń, który ma osadzić pojęcie w głowie studenta na dłużej.
Architektura takiej rozmowy przypomina badania nad adaptacyjnymi tutorami AI publikowane przez zespoły z Harvardu. Już wcześniej wskazywano, że umiejętne dopytywanie i odwoływanie się do kolejnych skojarzeń daje trwalszy efekt niż podanie definicji do wkucia.
Kiedy AI spotyka dyskusję w grupie
Badacze zwracają uwagę na jeden aspekt, który okazał się wyjątkowo skuteczny: po sesji z Macro Buddy studenci przechodzili do pracy zespołowej. Wtedy mogli skonfrontować swoje rozumowanie ukształtowane przez AI z intuicjami i wątpliwościami kolegów z roku.
Jeśli ktoś inaczej rozumiał pojęcie luki popytowej lub mechanizm polityki fiskalnej, grupa musiała dojść do wspólnej interpretacji. To wymagało tłumaczenia sobie nawzajem teorii i przykładów. W ten sposób technologia stawała się punktem wyjścia do rozmowy, a nie jej substytutem.
Co z tego wynika dla uczelni i studentów
Eksperyment z Macro Buddy pokazuje, że AI może zarówno wspierać rozwój kompetencji analitycznych, jak i zupełnie je rozmywać – w zależności od tego, jak studenci z niej korzystają i jak uczelnia wkomponuje takie narzędzia w kursy.
Dla uczelni oznacza to kilka praktycznych wniosków:
- narzędzia oparte na pytaniach sprawdzają się lepiej niż generatory gotowych odpowiedzi,
- warto projektować zajęcia tak, aby po indywidualnej pracy z AI następowała dyskusja w grupie,
- AI powinna odwoływać się do materiałów z danego kursu, zamiast mieszać różne źródła z internetu,
- oceny nie mogą opierać się wyłącznie na pracach domowych, które łatwo oddać AI do napisania.
Dla samych studentów kluczowe staje się pytanie, czy traktują AI jako narzędzie do myślenia, czy jako wygodny skrót. Jeśli użytkownik zadowala się gotową odpowiedzią i nie próbuje jej zrozumieć, w pamięci nie zostaje prawie nic. Gdy jest zmuszany do rozmowy, sam dociera do rozwiązania, a mózg ma szansę ułożyć nowe połączenia.
Czego uczy ten eksperyment polskich studentów i nauczycieli
Chociaż badanie przeprowadzono w Stanach Zjednoczonych, wnioski łatwo przenieść na polskie realia. Coraz więcej osób korzysta z ChatGPT i podobnych narzędzi przy pisaniu prac i przygotowywaniu się do kolokwiów. W dłuższej perspektywie wygodne „podpowiadacze” mogą sprawić, że studenci wejdą na rynek pracy z dużo słabszymi umiejętnościami analitycznymi, niż wynikałoby to z dyplomu.
Warto więc tworzyć narzędzia edukacyjne oparte na pytaniach, zamiast ślepo blokować AI lub udawać, że problem nie istnieje. Tego typu chatbot-korepetytor może pomóc nawet w polskiej szkole średniej: przy zadaniach z matematyki, fizyki czy chemii, ale też przy analizie tekstów z języka polskiego czy pisaniu rozprawki. Warunek jest jeden – student musi pozostać aktywny.
Dla nauczycieli to też szansa, aby odzyskać kontrolę nad tym, jak uczniowie używają technologii. Zamiast walczyć z AI, można włączyć ją w tok zajęć w sposób, który premiuje rozumienie, a nie kopiowanie. Taki kierunek wydaje się jedynym sensownym wyjściem w sytuacji, gdy dostęp do narzędzi AI jest prosty jak wpisanie adresu strony w przeglądarce.


