Nowa AI na studiach zmusza do myślenia zamiast podpowiadać gotowce
Ten cyfrowy pomocnik, nazwany Macro Buddy, nie wyręcza studentów w zadaniach z makroekonomii. Zamiast tego prowadzi ich przez serię precyzyjnych pytań, aż sami krok po kroku dochodzą do właściwego wyniku. Efekt? Jedni studenci wystrzelili z ocenami, inni – przy złym użyciu narzędzia – mocno na tym stracili.
AI, która nie podaje rozwiązania, tylko zmusza do wysiłku
Macro Buddy powstał na uniwersytecie Wisconsin-La Crosse jako odpowiedź na rosnący problem nadużywania chatbotów do odrabiania prac domowych. W badaniach z USA wychodzi, że blisko dziewięciu na dziesięciu studentów korzysta z narzędzi typu ChatGPT przy zadaniach, często traktując je jak maszynę do gotowych odpowiedzi.
Twórcy Macro Buddy postawili wszystko na jedną kartę: zamiast dawać wynik, chatbot ma prowadzić dialog. Student wpisuje pytanie, na przykład jak obliczyć tempo wzrostu PKB, a AI zamiast wyłożyć wzór, „odgryza się” kolejnymi pytaniami: o definicje, o wcześniejsze kroki, o dane, którymi dysponuje.
Macro Buddy został zaprojektowany tak, by nie wyręczać, tylko prowokować myślenie: każde pytanie ma zbliżać studenta do samodzielnego zbudowania poprawnego rozumowania.
Inspiracją była metoda sokratejska znana z filozofii od ponad dwóch tysięcy lat: nauczyciel nie wykłada prawdy, lecz wyciąga ją z rozmówcy za pomocą dobrze dobranych pytań. Tutaj tę starą sztuczkę ubrano w nowoczesny model językowy.
Przeczytaj również: Te kwitnące chmury różu i błękitu ozdobią ogród aż do jesieni
Jak działa Macro Buddy na zajęciach z makroekonomii
Ekonomiści z Wisconsin-La Crosse nakarmili system pełnymi transkrypcjami swoich wykładów z makroekonomii. To kluczowy element projektu: AI nie ma dostępu do internetu, nie sięga po przypadkowe źródła, tylko po to, co faktycznie przerabiano w kursie.
Dzięki temu odpowiedzi chatbotu trzymają się programu studiów. Gdy student myli realny i nominalny PKB, Macro Buddy nie wpisuje poprawnej definicji. Zamiast tego dopytuje o indeks cen, poziom inflacji, różnicę między wartościami w cenach bieżących i stałych. Student musi sam skleić z tego poprawne rozumienie pojęć.
Przeczytaj również: Jak w pół godziny pozbyć się brzydkiego zapachu z kanapy jednym prostym trikiem
Błędy jako paliwo do nauki
System został tak skonstruowany, by aktywnie wychwytywać nieporozumienia i przekształcać je w nową serię pytań. Jeśli w zadaniu z inflacji pada błędna odpowiedź, rozmowa nie kończy się komunikatem „źle”. Zaczyna się mini-śledztwo: co dzieje się z podażą pieniądza, jak zmienia się szybkość jego obiegu, jak reagują ceny w gospodarce.
Student stopniowo odkrywa, w którym miejscu jego obraz mechanizmu się rozjeżdża. W ten sposób uczy się nie tylko samego faktu, ale i pracy z pojęciami ekonomicznymi, kojarzenia ze sobą różnych fragmentów materiału.
Przeczytaj również: Przestań prać pościel w 40 stopniach. Bakteriolodzy mają inne zalecenia
- brak gotowych formuł – są tylko naprowadzające pytania,
- brak dostępu do sieci – baza to wyłącznie treść kursu,
- aktywne wychwytywanie nieporozumień,
- każdy błąd zamieniany w serię celnych dopytań,
- nastawienie na proces, nie na sam wynik.
Eksperyment na 140 studentach: różnica nawet 20 punktów
Wiosną 2025 roku zespół badawczy sprawdził, jak ten sposób pracy z AI przekłada się na realne oceny. Do badania zaproszono 140 studentów kursu z makroekonomii i podzielono ich na cztery grupy z różnymi strategiami uczenia się.
| Grupa | Sposób pracy | Efekt na trzecim egzaminie |
|---|---|---|
| Kontrolna | Klasyczne zajęcia, bez specjalnej pomocy | Punkt odniesienia |
| Tylko Macro Buddy | Samodzielna praca z chatbotem | Wyniki zależały od aktywności studentów |
| Grupy bez AI | Tradycyjna praca w zespołach | Umiarkowana poprawa względem grupy kontrolnej |
| Model mieszany | Najpierw praca z Macro Buddy, potem dyskusja w grupie | Średnio +12 punktów względem grupy kontrolnej |
Najciekawsze wyniki dotyczyły tego ostatniego wariantu. Studenci, którzy najpierw indywidualnie przepytywali się z AI, a potem szli do kolegów, by wspólnie porównać rozumowanie i wyniki, osiągnęli najlepsze rezultaty. Średnio ich oceny na trzecim egzaminie były wyższe o 12 punktów w porównaniu z grupą kontrolną.
Największy zysk przyniosło połączenie pracy z AI i dyskusji w grupie: najpierw samodzielne dochodzenie do rozwiązań, potem konfrontacja z innymi.
Gdy AI staje się „ściągą”, wyniki pikują
Badacze dostrzegli też ciemniejszą stronę korzystania z narzędzi opartych na sztucznej inteligencji. Tam, gdzie studenci traktowali AI jak prostą maszynę do rozwiązywania zadań i biernie przepisywali podpowiedzi, dochodziło do wyraźnego spadku wyników.
W grupach, w których kontakt z AI nie wymuszał aktywnego myślenia, a studenci szybko przyzwyczajali się do „koła ratunkowego”, po odcięciu narzędzia ich oceny spadły średnio o 8 punktów. Gdy na egzaminie nie mieli dostępu do pomocy, brakowało im samodzielnie zbudowanych schematów rozumowania.
Innymi słowy: sztuczna inteligencja może być świetnym trenerem, ale jeśli student odda jej całą pracę umysłową, staje się jedynie wygodną protezą. Ułatwia zaliczanie bieżących zadań, lecz odbiera odporność w konfrontacji z problemem bez wsparcia technologii.
Połączenie starej filozofii z nową technologią
Architektura Macro Buddy wpisuje się w szerszy nurt badań nad tzw. adaptacyjnymi tutorami AI. Projekty z Harvardu, opisane w 2025 roku w Scientific Reports, wskazują, że nauczanie oparte na prowadzeniu przez pytania lepiej zapada w pamięć niż zwykłe serwowanie informacji.
Kluczowe jest to, że student nie przechodzi rozmowy w trybie „następne, następne”, lecz musi udzielać sensownych odpowiedzi, doprecyzowywać pojęcia, wracać do wcześniejszych etapów. To przypomina pracę z wymagającym korepetytorem, który nie zadowala się półśrodkami.
Połączenie podejścia sokratejskiego z AI tworzy środowisko, w którym technologia nie zastępuje myślenia, lecz je prowokuje i porządkuje.
Badacze zwracają uwagę, że dopiero dodanie etapu pracy w grupie sprawia, że efekt jest pełny. Po indywidualnej sesji z chatbotem student siada z kolegami i prezentuje swoje rozumowanie. Słyszy inne ścieżki dojścia do tego samego wyniku, czasem odkrywa własne skróty myślowe lub luki.
Co z tego wynika dla uczelni i studentów
Dyskusja wokół Macro Buddy dobrze pokazuje, że nie każda integracja AI w edukacji musi prowadzić do „oduczania myślenia”. Dużo zależy od tego, jak zostanie zaprojektowane samo narzędzie i w jaki sposób uczelnia włączy je w program zajęć.
Dla wykładowców z tego eksperymentu płyną co najmniej trzy praktyczne wnioski:
- AI powinna zadawać pytania częściej, niż udzielać gotowych odpowiedzi.
- Narzędzie warto ograniczyć do treści kursu, zamiast otwierać na cały internet.
- Najlepsze efekty dają hybrydowe formaty: AI + praca w grupie + klasyczne zajęcia.
Dla studentów to także cenna wskazówka, jak korzystać z narzędzi typu ChatGPT. Jeśli przerzucają na nie wszystkie obliczenia, definicje i struktury wypracowań, osłabiają własny „mięsień” analityczny. Jeśli natomiast proszą o pytania naprowadzające, prośbę o wskazanie luki w rozumowaniu czy o alternatywne spojrzenie na zadanie, budują trwałą wiedzę.
Warto pamiętać, że coraz więcej zawodów wymaga dziś umiejętności formułowania problemów, a nie tylko podawania wyników. Narzędzia takie jak Macro Buddy mogą stać się treningiem właśnie tej kompetencji: uczą cierpliwego rozkładania złożonego zagadnienia na mniejsze kroki, sprawdzania założeń i świadomego przechodzenia od definicji do wniosków.
Jeśli podobne rozwiązania trafią kiedyś na polskie uczelnie, dużo będzie zależało od kultury pracy ze studentami. Ta sama technologia może być wygodną ściągą albo wymagającym partnerem w dyskusji. Różnicę robi to, czy traktujemy AI jako zastępstwo za własną głowę, czy jako narzędzie, które tę głowę zmusza do wysiłku.


