Nowa AI na uczelni zmusza studentów do myślenia zamiast podawania odpowiedzi
Amerykańscy naukowcy przetestowali nowatorski model wykorzystania AI w nauczaniu. Okazało się, że chatbot, który odmawia podawania gotowych odpowiedzi, może być skuteczniejszym nauczycielem niż tradycyjne narzędzia. Macro Buddy działa jak cyfrowy Sokrates – prowadzi dialog, w którym kolejne pytania stopniowo odsłaniają brakująceelementy wiedzy studenta.
Najważniejsze informacje:
- Macro Buddy został zbudowany w oparciu o metodę zadawania pytań znaną z dialogów filozoficznych
- Chatbot nie ma dostępu do internetu – korzysta wyłącznie z materiałów z kursu
- AI diagnozuje błędy pojęciowe, a nie rachunkowe
- Studenci, którzy pracowali z AI a potem dyskutowali w grupie, zyskali +12 punktów
- Studenci traktujący AI jako dostawcę odpowiedzi stracili 8 punktów po odłączeniu narzędzia
- Około 90% studentów w USA korzysta z chatbotów przy zadaniach domowych
Na amerykańskim uniwersytecie przetestowano nietypową AI, która zamiast rozwiązań podsuwa studentom… kolejne pytania.
To narzędzie nie wyręcza w zadaniach domowych, tylko prowadzi użytkownika jak wymagający korepetytor. Zmusza do szukania błędu, łączenia pojęć i samodzielnego dochodzenia do wzoru czy definicji. Efekty w nauce okazały się zaskakująco różne w zależności od tego, jak studenci z niego korzystali.
AI, która nie chce podać odpowiedzi
Nowy chatbot edukacyjny, nazwany Macro Buddy, działa w kursach makroekonomii na Uniwersytecie Wisconsin-La Crosse. Został zbudowany w oparciu o klasyczną metodę zadawania pytań znaną z dialogów filozoficznych sprzed ponad dwóch tysięcy lat. Zamiast serwować wynik obliczeń czy gotową definicję, prowadzi rozmowę tak, aby student sam do tego doszedł.
Przykład z zajęć: student pyta, jak policzyć tempo wzrostu PKB. Zwykły chatbot generatywny podałby wzór, wyliczył przykład i dodał kilka akapitów wyjaśnienia. Macro Buddy robi odwrotnie. Zaczyna od prostego pytania o to, co w ogóle mierzy PKB. Potem dopytuje, co oznacza „wzrost”, czym różni się poziom od zmiany procentowej, jakie lata porównujemy. Dopiero gdy student uporządkuje pojęcia, może samodzielnie zapisać wzór.
Klucz polega na tym, że AI nie podaje gotowego rozwiązania. Jej rolą jest prowadzenie, a nie liczenie za studenta.
Cały system został wytrenowany wyłącznie na oficjalnych materiałach z kursu makroekonomii: nagraniach z wykładów, transkrypcjach i notatkach. Nie ma dostępu do internetu. Dzięki temu chatbot nie sięga po zewnętrzne źródła, tylko ciągle odwołuje się do tego, o czym wykładowcy faktycznie mówili na zajęciach.
Jak działa uczenie przez pytania krok po kroku
Macro Buddy śledzi tok rozmowy i wychwytuje, kiedy student myli pojęcia. Jeśli ktoś myli realny PKB z nominalnym, narzędzie nie prostuje go wprost. Zadaje za to kilka celnych pytań o poziom cen, indeks cenowy, rolę inflacji w porównywaniu danych z różnych lat.
W praktyce wygląda to jak seria mini-quizów wbudowanych w rozmowę. Każde kolejne pytanie zawęża problem i kieruje uwagę na brakującą część układanki. Dopiero gdy student sam uświadomi sobie, że w obliczeniach nie uwzględnił zmian cen, jest gotowy do poprawnego zastosowania definicji.
- AI diagnozuje nie tyle błąd rachunkowy, co błąd pojęciowy.
- Każda nieprecyzyjna odpowiedź wywołuje nową serię pytań.
- Student widzi, gdzie „gubi się” jego rozumowanie, a nie tylko że wynik jest zły.
- Narzędzie nigdy nie wyświetla gotowej formuły jako ostatecznego rozwiązania.
Badacze wskazują, że dzięki takiej konstrukcji rozmowy studenci trwalej zapamiętują zależności między koncepcjami, zamiast jednorazowo przyswoić klucz do zadania i zapomnieć go po egzaminie.
Eksperyment na 140 studentach: kto zyskał, kto stracił
Aby sprawdzić, czy taki sposób pracy z AI faktycznie działa, zespół ekonomistów przeprowadził wiosną 2025 roku kontrolowany eksperyment w dużych grupach zajęciowych. Wzięło w nim udział 140 studentów makroekonomii, podzielonych na cztery kategorie użytkowania.
| Grupa | Sposób pracy | Zmiana wyniku na egzaminie |
|---|---|---|
| 1 | Indywidualna praca z Macro Buddy | wzrost w stosunku do grupy kontrolnej |
| 2 | Tradycyjne grupy bez AI | umiarkowane wyniki, bez dużego skoku |
| 3 | Najpierw AI, potem dyskusja w zespole | średnio +12 punktów wobec grupy kontrolnej |
| 4 | Grupa kontrolna, bez szczególnego wsparcia | punkt odniesienia do porównania |
Najlepiej poradziła sobie grupa, w której studenci najpierw pracowali z chatbotem, a później omawiali swoje wnioski na zajęciach w małych zespołach. Średni wynik z trzeciego egzaminu był tam wyższy o około 12 punktów w porównaniu z osobami, które uczyły się tradycyjnie.
Największy skok osiągnęli ci, którzy traktowali AI jak personalnego trenera myślenia, a nie jak maszynkę do podpowiadania rozwiązań.
Wyniki pokazały też ciemniejszą stronę wygody. U studentów, którzy zbyt mocno polegali na sztucznej inteligencji w roli „dostawcy odpowiedzi”, po odłączeniu narzędzia nastąpił spadek wyników aż o 8 punktów. Gdy AI przestawała podsuwać im tropy, nagle brakowało oparcia w zrozumieniu materiału.
Aktywne vs pasywne korzystanie z AI
Badacze zauważyli wyraźne dwie strategie działania. Część studentów korzystała z Macro Buddy tak, jak przewidzieli twórcy: wpisywali własne próby rozwiązań, zadawali doprecyzowujące pytania, analizowali, czego nie rozumieją. Druga część szukała skrótu, próbując wymusić na narzędziu gotowe formuły albo streszczenia.
W przypadku tej drugiej grupy AI stała się po prostu wygodnym zamiennikiem wyszukiwarki czy ściągi. Kiedy system był dostępny, wyniki wyglądały nieźle. Gdy został wyłączony na ostatnim egzaminie, okazało się, że wiedza jest powierzchowna i mało samodzielna.
Macro Buddy w praktyce działa więc jak trening na siłowni. If student „podnosi” pytania razem z narzędziem, jego mózg wzmacnia umiejętność rozumowania. Jeśli tylko „patrzy”, jak AI wykonuje pracę, forma spada w momencie, gdy wsparcia zabraknie.
Siła rozmowy przed dyskusją w grupie
Ciekawym wnioskiem z badania jest rola pracy zespołowej. Najlepsze wyniki osiągnęli ci, którzy najpierw porządkowali własne rozumowanie w dialogu z AI, a dopiero później zestawiali je z interpretacjami kolegów na ćwiczeniach.
Taka sekwencja ma kilka efektów:
- każdy przychodzi na spotkanie z wstępnie ułożoną strukturą myśli,
- łatwiej zidentyfikować rozbieżności między rozumieniem poszczególnych osób,
- dyskusja nie zamienia się w zgadywanie, tylko w doprecyzowanie pojęć,
- wykładowca widzi, które fragmenty materiału naprawdę sprawiają problem.
Zespół badawczy przywołuje też wcześniejsze prace nad adaptacyjnymi tutorami opartymi na AI, gdzie podobny styl zadawania pytań prowadził do trwalszego zapamiętywania. Wspólnym mianownikiem jest odejście od modelu, w którym sztuczna inteligencja ma być mądrzejsza od studenta i wyręczać go w myśleniu.
Co to znaczy dla uczelni i nauczycieli
W amerykańskim szkolnictwie wyższym chatboty i generatory treści weszły już do codziennego użytku. Szacuje się, że nawet około 90 procent studentów korzysta z nich przy zadaniach domowych. Z perspektywy dydaktycznej pojawia się więc pytanie: czy zakazywać tych narzędzi, czy raczej projektować je tak, by wspierały wysiłek intelektualny zamiast go zastępować.
Macro Buddy pokazuje trzecią drogę. Uczelnia nie odcina studentów od AI, ale narzuca jej rolę wymagającego rozmówcy. Dzięki ograniczeniu dostępu do internetu i zamknięciu systemu w granicach programu nauczania, nauczyciele zachowują kontrolę nad tym, co chatbot „wie” i jak prowadzi dialog.
To nie jest kolejna aplikacja do pisania wypracowań. To cyfrowy odpowiednik asystenta na ćwiczeniach, który potrafi zadać sto pytań, zanim poda choćby jeden wzór.
Dla wykładowców taka technologia oznacza zarówno szansę, jak i konieczność zmiany nawyków. Trzeba projektować zadania tak, aby rozmowa z AI faktycznie skłaniała do analizy, a nie do kopiowania schematów. Z drugiej strony narzędzie może odciążyć prowadzących z części powtarzalnych wyjaśnień, zostawiając im więcej czasu na trudniejsze fragmenty kursu.
Jak student może wykorzystać taki typ AI w praktyce
Nawet bez dostępu do konkretnie tego narzędzia, da się wyciągnąć kilka praktycznych wniosków z badania. Po pierwsze, warto traktować każdy chatbot edukacyjny jako partnera do dyskusji, a nie maszynkę do generowania odpowiedzi. Zamiast wpisywać „napisz za mnie rozwiązanie zadania”, lepiej formułować pytania o kolejne kroki, prosić o sprawdzenie rozumowania lub o wskazanie nieścisłości w definicjach.
Po drugie, dobrze jest utrwalać efekty rozmowy z AI w formie własnych notatek. Samodzielne zapisanie wniosków, wzorów i przykładów zmusza do ponownego przejścia przez tok rozumowania. To właśnie ten wysiłek, jak pokazują dane z eksperymentu, przekłada się na kilka czy kilkanaście dodatkowych punktów na egzaminie.
Wreszcie, szczególnie skuteczne wydaje się łączenie pracy indywidualnej z dyskusją w grupie. AI pomaga „poukładać sobie w głowie” materiał, ale dopiero konfrontacja z pytaniami kolegów i prowadzącego odsłania, które elementy są naprawdę zrozumiałe, a gdzie wciąż brakuje głębszego wglądu.
Najczęściej zadawane pytania
Czym Macro Buddy różni się od zwykłego chatbota?
Zamiast podawać gotowe wzory i rozwiązania, Macro Buddy zadaje serię pytań prowadzących do samodzielnego odkrycia odpowiedzi.
Ile punktów zyskali studenci korzystający z AI z dyskusją grupową?
Około 12 punktów więcej na egzaminie w porównaniu z grupą kontrolną uczącą się tradycyjnie.
Co się stało, gdy studenti przestali używać AI?
Studenci, którzy traktowali AI jak dostawcę odpowiedzi, a nie partnera do dyskusji, stracili 8 punktów po odłączeniu narzędzia.
Jak efektywnie korzystać z chatbota edukacyjnego?
Należy formułować pytania o kolejne kroki, prosić o weryfikację rozumowania, a nie wpisywać „rozwiąż za mnie zadanie".
Wnioski
Badanie pokazuje, że kluczowa jest zmiana podejścia do AI – zamiast traktować ją jak wygodną wyszukiwarkę, warto wykorzystać jako partnera do dyskusji. Najlepsze efekty osiąga się, gdy praca z chatbotem poprzedza dyskusję w małej grupie. Wtedy każdy przychodzi na zajęcia z własną strukturą myśli, co pozwala na głębsze zrozumienie materiału i trwalsze zapamiętanie.
Podsumowanie
Na Uniwersytetcie Wisconsin-La Crosse przetestowano nietypowego chatbota edukacyjnego Macro Buddy, który zamiast podawać gotowe rozwiązania, zadaje kolejne pytania – niczym wymagający korepetytor. Kontrolowany eksperyment na 140 studentach wykazał, że połączenie pracy z AI i dyskusji w małych grupach dało średnio o 12 punktów lepsze wyniki niż tradycyjne nauczanie.


