Nowa AI na uczelniach: pomaga liczyć PKB, ale nie poda wyniku za darmo
Na amerykańskiej uczelni przetestowano nietypową AI do nauki makroekonomii.
Zamiast podpowiadać gotowe rozwiązania, zasypuje studentów pytaniami.
Cyfrowy „korepetytor” działa jak wymagający prowadzący na konsultacjach. Nie zdradza odpowiedzi, tylko zmusza do krok po kroku rekonstruowania własnego toku myślenia. Efekt? Część studentów skacze z wynikami o kilkanaście punktów w górę, a inni – przy zbyt wygodnym podejściu do sztucznej inteligencji – bolesnie spadają.
AI na studiach: wygodna proteza czy narzędzie do myślenia?
Na uczelniach w Stanach rozmowa z chatbotem stała się dla studentów codziennością. Szacuje się, że prawie 90% z nich korzysta z narzędzi opartych na AI przy odrabianiu zadań. W praktyce często wygląda to tak: zamiast samodzielnie rozwiązać problem, wpisują polecenie i kopiują odpowiedź.
Naukowcy z University of Wisconsin-La Crosse postanowili sprawdzić, czy da się wykorzystać inteligencję maszynową zupełnie inaczej. Stworzyli edukacyjnego chatbota o nazwie Macro Buddy, który celowo… odmawia podawania rezultatów. Jego rolą jest zadawać takie pytania, by student sam wyprowadził wzór, obliczył wskaźnik albo odnalazł błąd w swoim rozumowaniu.
Nowa AI nie ma być kalkulatorem ani bankiem odpowiedzi, lecz cyfrowym trenerem, który zamiast nioski przed egzaminem serwuje serię niewygodnych pytań.
Starożytna metoda w cyfrowej odsłonie
Inspiracją dla badaczy była metoda kojarzona z nauczaniem filozoficznym sprzed tysięcy lat. Opierała się na zadawaniu serii ukierunkowanych pytań, które prowadzą rozmówcę do samodzielnego dojścia do wniosków, zamiast wykładania mu wszystkiego wprost.
Macro Buddy działa na tej samej zasadzie. Gdy student pyta, jak policzyć tempo wzrostu produktu krajowego brutto, chatbot nie wyświetla formuły. Zamiast tego zaczyna od prostych pytań: „Co porównujemy?”, „W jakich jednostkach mierzymy wartość?”, „Jaki okres czasu nas interesuje?”. Dopiero gdy użytkownik poradzi sobie z tymi etapami, AI przechodzi do bardziej szczegółowych kwestii.
Twórcy podkreślają, że narzędzie nie ma dostępu do internetu. Zasilono je wyłącznie materiałami z konkretnych zajęć z makroekonomii – transkrypcjami wykładów, definicjami i przykładami. Dzięki temu chatbot odwołuje się tylko do treści znanych z kursu, a student nie błądzi po przypadkowych źródłach.
AI wyłapuje błędy i dopytuje aż do skutku
System został zaprojektowany tak, by aktywnie tropić nieporozumienia. Jeśli student myli produkt realny z nominalnym, AI nie rzuca poprawną odpowiedzią. Zamiast tego zaczyna dopytywać o rolę cen, indeksy i sposoby porównywania wielkości w czasie. Dzięki temu użytkownik musi sam dostrzec, że pomieszał pojęcia.
Każda pomyłka staje się punktem wyjścia do nowej serii pytań, które prowadzą studenta do zrozumienia, skąd wzięła się nieścisłość.
Takie podejście ma inny cel niż standardowe korepetycje. Nie chodzi o zapamiętanie gotowego wzoru z przykładu, lecz o zbudowanie sieci powiązań między pojęciami: inflacją, pieniądzem, poziomem cen czy produkcją.
Eksperyment z czterema grupami studentów
Żeby sprawdzić, czy tak prowadzona nauka rzeczywiście działa, badacze przeprowadzili test na 140 studentach makroekonomii. Podzielili ich na cztery grupy:
- Grupa 1: studenci pracowali samodzielnie z chatbotem Macro Buddy;
- Grupa 2: studenci uczyli się w tradycyjnych grupach, bez wsparcia AI;
- Grupa 3: najpierw każdy korzystał z Macro Buddy, a później uczestnicy dyskutowali w małych zespołach;
- Grupa 4: grupa kontrolna – nauka w standardowy sposób, bez dodatkowych narzędzi.
Wyniki trzeciego egzaminu mocno zaskoczyły. Najlepiej poradzili sobie studenci, którzy łączyli indywidualną pracę z chatbotem i dyskusję w grupie. Ich średnie oceny były wyższe o około 12 punktów w porównaniu z osobami z grupy kontrolnej.
Największy skok widać tam, gdzie AI pełniła rolę „rozgrzewki intelektualnej” przed rozmową z innymi ludźmi.
Badacze zwrócili uwagę, że takim osobom łatwiej było formułować argumenty, zadawać sensowne pytania na ćwiczeniach i bronić swoich odpowiedzi. Najpierw porządkowali myśli w dialogu z AI, a później testowali swoje rozumowanie w starciu z kolegami i koleżankami.
Gdy AI staje się zbyt wygodna, wyniki lecą w dół
Eksperyment pokazał też ciemniejszą stronę korzystania z narzędzi cyfrowych. Studenci, którzy traktowali AI jak skrót do gotowego rozwiązania i przyzwyczaili się do „podawania na tacy”, wypadli gorzej, gdy narzędzie nagle im odebrano. Ich wyniki spadły o średnio 8 punktów.
Badacze porównują ten efekt do chodzenia o kulach. Gdy ktoś długo polega na zewnętrznym wsparciu, trudniej mu samodzielnie „udźwignąć” zadanie, kiedy ta pomoc znika. W nauce przejawia się to w problemach z samodzielnym przypomnieniem sobie procedury obliczeń czy powiązań między definicjami.
| Model pracy | Zmiana wyniku wobec grupy kontrolnej |
|---|---|
| AI + dyskusja w grupie | około +12 punktów |
| AI używana biernie, jako źródło gotowych odpowiedzi | około −8 punktów po wyłączeniu narzędzia |
| Tradycyjna nauka w grupach, bez AI | zysk niewielki lub neutralny |
Jak działa pytający tutor w praktyce
Architektura rozmowy w Macro Buddy jest zaprojektowana w pętle. Jeśli odpowiedź studenta pokazuje, że myli się w kwestii przyczyn inflacji, chatbot nie wpisuje krótkiego wyjaśnienia. Wysyła za to kolejne pytania, na przykład o:
- rolę ilości pieniądza w gospodarce,
- tempo obiegu środków płatniczych,
- związek między popytem a ogólnym poziomem cen.
Taka sekwencja zmusza do przypomnienia sobie definicji, powiązania ich z wcześniejszymi wykładami i dopiero na końcu do zbudowania pełnej odpowiedzi. System bada też, jak szybko student idzie do przodu, gdzie się zatrzymuje i na jakich pojęciach najczęściej się potyka. Na tej podstawie dobiera dalsze pytania.
Badacze wskazują, że podobne podejście pojawia się w innych projektach edukacyjnych AI, opisywanych w czasopismach naukowych. Wspólny wniosek: pytania prowadzące utrwalają wiedzę znacznie lepiej niż jednorazowa dawka gotowej informacji.
Połączenie AI z zespołową nauką
Ciekawy efekt daje zestawienie pracy z chatbotem z tradycyjnymi metodami. Studenci, którzy najpierw odpowiadali na pytania AI, a później w małych grupach porównywali tok rozumowania, deklarowali większą pewność siebie przed egzaminem. Mówili też, że rozmowa z maszyną ułatwia im zauważenie, gdzie dokładnie tracą wątek.
W dyskusjach w parach lub trójkach wychodziły na jaw różne sposoby dojścia do tych samych wniosków. To z kolei sprzyjało lepszemu zrozumieniu zagadnień, bo studenci mieli okazję skonfrontować kilka ścieżek myślenia zamiast ślepo kopiować jedno rozwiązanie z ekranu.
Model „AI + grupa” tworzy ciekawą mieszankę: najpierw indywidualne zmaganie się z problemem, a potem wymiana argumentów z innymi.
Co z tego wynika dla szkół i uczelni?
Wyniki eksperymentu pokazują, że nie wystarczy „wrzucić” sztuczną inteligencję do edukacji. Kluczowe jest to, w jaki sposób narzędzia są projektowane i jakie nawyki budują u użytkowników. AI, która od razu generuje pełne wypracowanie czy rozwiązanie zadania, może uzależniać od łatwych odpowiedzi. Taka, która zadaje pytania, oszczędza mniej czasu, ale ćwiczy mięśnie analityczne.
Dla uczelni może to być wskazówka: warto inwestować w systemy, które wymuszają aktywne przetwarzanie materiału. Zamiast aplikacji podających arkusz wzorów, lepiej sprawdzają się narzędzia dopytujące o definicje, porównujące odpowiedzi studenta z treścią zajęć i prowokujące do zmiany perspektywy.
Podobne podejście można zresztą przenieść do innych przedmiotów. W matematyce chatbot mógłby kazać najpierw rozpisać założenia, w historii – ułożyć chronologię wydarzeń, w prawie – wskazać podstawę przepisu. W każdym z tych obszarów rola AI polegałaby nie na podaniu gotowego „klucza”, lecz na naprowadzaniu serią konkretnych, czasem niewygodnych pytań.
Dla samych studentów istotny staje się wybór strategii. Ten sam chatbot może być genialnym trenerem albo kosztowną protezą. Jeśli użytkownik traktuje go jak źródło szybkich odpowiedzi, jego własny aparat myślowy się rozleniwia. Gdy korzysta z pytań do porządkowania wiedzy, zdobywa coś trwałego: sposób pracy z problemem, który zostanie, gdy narzędzie zniknie z ekranu.


