Moodle z logów prawdę Ci powie: jak sprawdzić, czy kurs uczy kompetencji, a nie wkuwania

Jak czytać logi Moodle, by odróżnić wkuwanie od budowania kompetencji: kluczowe raporty, wzorce crammingu i „klikania”, łączenie zdarzeń z wynikami oraz pomysły na zmiany w kursie.
21 kwietnia 2026
blog

Jakie sygnały w logach Moodle wskazują na „uczenie na pamięć” zamiast budowania kompetencji?

W logach Moodle „uczenie na pamięć” najczęściej rozpoznasz po tym, że aktywność użytkowników koncentruje się na krótkich, powtarzalnych sekwencjach: wejście w zasób z treścią → natychmiastowe przejście do quizu → seria szybkich podejść, bez śladów pracy na zadaniach wymagających zastosowania wiedzy. Same logi nie mówią, co uczestnik „rozumie”, ale pokazują wzorce zachowań: jeśli dominują działania nastawione na zdobycie punktów w teście, a brakuje zdarzeń świadczących o praktyce, analizie i iteracji, to jest to mocny sygnał wkuwania.

Typowe sygnały w logach to m.in. krótkie czasy między „course module viewed” dla materiałów a „attempt started/submitted” dla quizu oraz częste powtórzenia tego samego schematu w krótkich odstępach (wiele podejść do quizu dzień po dniu lub jedno po drugim). Dodatkowo zwraca uwagę brak lub minimalna liczba zdarzeń związanych z aktywnościami aplikacyjnymi: oddawaniem zadań (assignment submitted), przeglądaniem i poprawianiem wersji (np. ponowne submission), udziałem w forach (forum post created/replied), pracą z warsztatami (workshop submission/assessment) czy analizą informacji zwrotnej (view feedback/grade report). Jeśli logi pokazują, że uczestnicy rzadko wracają do treści po otrzymaniu wyniku, a ich interakcje kończą się na „podejściu do testu” i sprawdzeniu oceny, zwykle oznacza to nastawienie na zapamiętanie odpowiedzi, nie na rozwijanie umiejętności.

Drugą grupą sygnałów są nienaturalnie „czyste” ścieżki nawigacji: pomijanie materiałów pośrednich, szybkie przeskakiwanie między stronami kursu, sporadyczne otwieranie przykładów, ćwiczeń i instrukcji, przy jednoczesnym wysokim udziale zdarzeń związanych z bankiem pytań/quizami. W praktyce warto patrzeć na proporcje: jeśli w okresie aktywności kursu zdecydowana większość logów dotyczy quizów i ocen, a niewielka część dotyczy pracy w aktywnościach wymagających wytworzenia artefaktu lub dyskusji, to logi wskazują na model „zalicz i zapomnij”, typowy dla wkuwania.

💡 Patrz na proporcje zdarzeń: jeśli dominują szybkie sekwencje „view treści → start/submit quizu” i wiele podejść do testu, a prawie nie ma aktywności aplikacyjnych (zadania, warsztaty, forum) ani powrotów do materiału po feedbacku, to logi sugerują wkuwanie zamiast budowania kompetencji.

Które zdarzenia i raporty Moodle są najważniejsze do analizy zachowań uczestników?

Największą wartość diagnostyczną mają te raporty i zdarzenia, które pozwalają odtworzyć sekwencję pracy uczestnika: co otwierał, jak długo utrzymywał aktywność oraz w którym momencie podejmował działanie wymagające zastosowania wiedzy (np. oddanie zadania, podejście do quizu). W praktyce punktem wyjścia są raporty logów (na poziomie kursu i aktywności) oraz raporty ocen i ukończeń, bo łączą „zachowanie” z „efektem”.

W logach (Raporty → Logi / Raport aktywności) kluczowe są zdarzenia związane z konsumpcją treści i interakcją, bo one wskazują, czy uczestnik realnie pracuje z materiałem, czy jedynie „odhacza” wejścia. Najczęściej analizuje się: wyświetlenia zasobów i aktywności (np. Course module viewed), rozpoczęcie i zakończenie prób w quizie (Quiz attempt started/submitted), wysłanie i ocenienie zadania (Assignment submission created/graded), publikowanie i czytanie w forum (Forum discussion created/post created), oraz wszelkie zdarzenia ukończenia aktywności (Course module completion updated), jeśli w kursie włączono śledzenie ukończeń. Same „view” bez kolejnych akcji interpretuj ostrożnie: pokazują dostęp, ale nie potwierdzają zrozumienia.

Do oceny, czy kurs wspiera kompetencje, a nie wyłącznie wkuwanie, niezbędne są raporty wiążące aktywność z wynikiem: Dziennik ocen (kiedy i z czego pojawiają się oceny), raporty quizu (statystyki pytań, liczba podejść, rozkład wyników, zmiany wyniku między podejściami) oraz raport ukończeń (Completion), jeśli używasz warunków ukończenia opartych o wykonanie zadania/uzyskanie progu. Dzięki temu można sprawdzić, czy uczestnik przechodzi przez zadania wymagające zastosowania wiedzy, czy tylko konsumuje treści i szybko „zalicza” testy.

Jeżeli w kursie używasz odznak lub kompetencji (framework kompetencji), ważne są też raporty powiązane z przyznaniem odznak i oceną kompetencji, bo rejestrują moment spełnienia kryteriów oraz źródło decyzji (np. aktywność/ocena). To pozwala odróżnić „uzyskane punkty” od „potwierdzonej kompetencji”, o ile konfiguracja kursu rzeczywiście wymusza działania praktyczne jako warunek uznania.

Jak wykryć cramming, czyli naukę na ostatnią chwilę, i odróżnić go od intensywnej, ale sensownej pracy?

Cramming w logach Moodle zwykle wygląda jak skrajna koncentracja aktywności tuż przed terminem: dużo wejść w krótkim oknie czasu, mało przerw, sekwencja „otwórz materiał → szybko przejdź dalej → podejdź do testu”. Intensywna, ale sensowna praca też bywa gęsta, ale ma inny rytm: pojawia się wcześniej, wraca falami i obejmuje powroty do tych samych zasobów oraz pracę rozłożoną na więcej niż jeden dzień.

Żeby to rozróżnić, patrz nie na liczbę kliknięć, tylko na wzorzec czasowy i powtarzalność aktywności: czy aktywność jest „jednym zrywem” tuż przed deadlinem, czy ma wcześniejsze ślady i powroty. W praktyce analizuje się: (1) rozkład zdarzeń w czasie względem terminu, (2) liczbę sesji i przerw między nimi, (3) przeplatanie zasobów (np. strony/plików) z aktywnościami sprawdzającymi (quiz, zadanie) oraz (4) czy użytkownik wraca do tych samych materiałów po uzyskaniu informacji zwrotnej.

Cecha w logachTypowy crammingIntensywna, sensowna praca
Moment startu względem terminuPóźno (często w ostatnich godzinach/dniu)Wcześniej; aktywność pojawia się przed „finiszem”
Rozkład aktywnościJeden bardzo gęsty blokKilka bloków/sesji w różnych dniach
Przerwy między sesjamiMinimalne; długa, nieprzerwana seria zdarzeńWyraźne przerwy (co sugeruje pracę etapami)
Ścieżka pracySzybkie „przelatywanie” po zasobach, zaraz potem próba zaliczeniaPowroty do tych samych zasobów, przeplatanie nauki i sprawdzania
Reakcja na informację zwrotnąBrak powrotów po próbie/oceniePowrót do materiału po błędach/komentarzu, kolejna próba po czasie

Ważne: pojedynczy sygnał (np. wysoka liczba kliknięć w ostatni dzień) nie wystarcza. Cramming rozpoznaje się po kumulacji kilku cech naraz: późny start, jeden zryw, brak przerw i brak powrotów do treści po sprawdzianie. Jeśli aktywność jest intensywna, ale rozłożona i „iteracyjna” (uczenie się → sprawdzenie → powrót), to częściej wskazuje na sensowną pracę, a nie wyłącznie wkuwanie na ostatnią chwilę.

Jak rozpoznać „klikanie dla zaliczenia” po wzorcach czasu i sekwencji aktywności?

„Klikanie dla zaliczenia” w logach Moodle najczęściej ujawnia się jako aktywność skrajnie skompresowana w czasie, wykonywana w minimalnej liczbie kroków, w kolejności podyktowanej wyłącznie warunkami ukończenia, a nie logiką uczenia się. Kluczowe jest więc jednoczesne spojrzenie na czas trwania między zdarzeniami (timestamps) oraz na sekwencję (co po czym nastąpiło), a nie na sam fakt, że zasób został „otwarty”.

Po stronie czasu sygnałem ostrzegawczym są bardzo krótkie odstępy między otwarciem zasobu a kolejną akcją, zwłaszcza gdy dotyczą materiałów, których realne zapoznanie się wymagałoby dłuższej pracy (np. wielostronicowe pliki, nagrania, lekcje). Jeżeli użytkownik w krótkiej serii zdarzeń „odhacza” kolejne elementy w odstępach rzędu sekund lub kilkudziesięciu sekund, a następnie natychmiast przechodzi do testu lub zadania zaliczeniowego, wzorzec jest spójny z zachowaniem nastawionym na formalne ukończenie, nie na przetworzenie treści. Dodatkowo podejrzane są gwałtowne „zrywy” aktywności tuż przed terminem (dużo ukończeń w jednym oknie czasowym), szczególnie gdy wcześniej widoczna jest dłuższa cisza.

Po stronie sekwencji typowy jest przebieg „od blokady do blokady”: szybkie otwarcie zasobu wymagającego jedynie wyświetlenia, natychmiastowe przejście do kolejnego elementu, a na końcu wejście w aktywność ocenianą. W logach widać to jako powtarzalny schemat: view wielu zasobów jeden po drugim, bez zdarzeń wskazujących na pracę (np. brak powrotów do materiału po niepowodzeniu w quizie, brak przerw sugerujących czytanie/oglądanie, brak powtórnych wejść w trudniejsze elementy). Dla porównania, uczenie się częściej tworzy „pętle”: użytkownik wraca do materiału po próbie weryfikacyjnej, przeplata zasoby i aktywności, a odstępy czasu są bardziej zróżnicowane.

Praktyczna interpretacja powinna uwzględniać, że same logi nie mierzą czytania ani oglądania, tylko rejestrują zdarzenia. Dlatego wniosek o „klikaniu” jest uzasadniony dopiero wtedy, gdy krótki czas i mechaniczna sekwencja występują razem i powtarzają się u danej osoby lub grupy, zwłaszcza w modułach, gdzie wymagania ukończenia można spełnić samym wejściem w zasób.

💡 „Klikanie dla zaliczenia” rozpoznasz po skompresowanym czasie i mechanicznej sekwencji: kolejne „view” zasobów w odstępach sekund/kilkudziesięciu sekund, często w zrywie tuż przed terminem, zakończone wejściem w aktywność ocenianą bez pętli powrotów do treści po próbach lub błędach.

Jak połączyć logi z wynikami quizów i zadań, żeby zobaczyć, co naprawdę działa?

Żeby sensownie połączyć logi z wynikami, musisz sprowadzić oba źródła do wspólnego „klucza” i wspólnego „czasu”. W Moodle takim kluczem jest zwykle użytkownik (ID), a w drugiej kolejności aktywność (konkretny quiz lub zadanie) oraz znacznik czasu. Logi mówią, co i kiedy użytkownik robił (np. wyświetlał zasób, klikał, rozpoczął próbę), a oceny/raporty aktywności mówią, jaki był efekt (punkty, zaliczenie, data oddania). Dopiero zestawienie „zachowania przed” z „wynikiem po” pozwala ocenić, co faktycznie wspiera osiągnięcie wyniku.

W praktyce zaczynasz od zdefiniowania zdarzeń z logów, które mają sens edukacyjny w kontekście danej aktywności (np. view materiału, attempt started/submitted w quizie, submission created/updated w zadaniu) oraz okna czasowego, w którym je liczysz, np. 7 dni przed pierwszym podejściem do quizu albo od udostępnienia zadania do terminu oddania. Następnie łączysz to z danymi o wyniku: dla quizu będzie to wynik próby (najlepiej konkretny attempt, jeśli analizujesz przygotowanie do danej próby), a dla zadania ocena i/lub informacja o terminowości. Kluczowe jest, by porównywać działania, które poprzedzają wynik, a nie te, które nastąpiły po nim (np. powrót do materiału po słabym wyniku nie jest „przyczyną” wyniku, tylko reakcją).

Najbardziej użyteczny minimalny „model połączenia” to: kto (user_id) + do czego (activity_id) + kiedy (timestamp) + jaki efekt (score/grade/complete). W Moodle uzyskasz to, zestawiając raport logów (po użytkowniku i aktywności) z raportami ocen lub raportem aktywności konkretnego modułu. Jeśli potrzebujesz analizy przekrojowej (np. dla całej grupy i wielu aktywności), najczęściej robi się to przez eksport obu zestawów danych (logi oraz oceny/raporty prób i oddań) i połączenie ich po identyfikatorach użytkownika i aktywności, z dodatkowym warunkiem czasowym (zdarzenia z logów przypisane do okresu poprzedzającego daną próbę/oddanie).

Interpretując wynik, pilnuj dwóch rzeczy: rozróżniaj aktywność od efektywności (dużo kliknięć nie musi oznaczać lepszego uczenia się) oraz unikaj prostych wniosków przyczynowych. To połączenie danych ma Ci odpowiedzieć na pytania typu: czy osoby z lepszym wynikiem miały wcześniej konkretny wzorzec pracy (np. wcześniejsze rozpoczęcie, mniej przerw, więcej czasu przed terminem), a nie tylko „czy w ogóle klikały”.

Jak analizować ścieżki przechodzenia kursu, żeby znaleźć miejsca, gdzie uczestnicy się gubią lub skracają drogę?

Analiza ścieżek polega na odtworzeniu realnej kolejności aktywności, w jakiej uczestnicy przechodzą przez zasoby i zadania (widoki, uruchomienia, oddania, próby), oraz porównaniu jej z zakładaną sekwencją dydaktyczną. W Moodle robisz to na podstawie logów zdarzeń: interesuje Cię nie „co jest w kursie”, tylko „co po czym faktycznie zostało wykonane”. Kluczowe jest filtrowanie logów do jednego kursu, zakresu dat i roli (np. student), a następnie analiza przejść pomiędzy kolejnymi zdarzeniami w obrębie tej samej sesji lub tego samego użytkownika.

Żeby znaleźć miejsca, gdzie uczestnicy się gubią, szukasz charakterystycznych wzorców w sekwencjach zdarzeń. Typowe sygnały to powtarzające się przejścia „tam i z powrotem” (np. częste powroty do strony kursu lub tego samego zasobu w krótkich odstępach), nagłe przerwania ścieżki tuż po wejściu w element (widok bez dalszej akcji), albo długie przerwy czasowe między krokami w miejscu, które powinno być proste. W praktyce wymaga to zestawienia: jakie elementy są najczęściej odwiedzane bezpośrednio po danym kroku oraz jak często dochodzi do wykonania oczekiwanej akcji końcowej (np. rozpoczęcia próby quizu, wysłania zadania) po wejściu w instrukcję lub materiał.

Skracanie drogi identyfikujesz przez wykrywanie omijania kroków pośrednich oraz przez „skoki” do elementów końcowych bez wcześniejszych zdarzeń, które miały przygotować uczestnika (np. wejście w quiz bez wcześniejszego otwarcia materiału). Tu ważne jest odróżnienie dwóch sytuacji: legalnego skrótu (uczestnik zna materiał i przechodzi od razu do weryfikacji) oraz skrótu wynikającego z niejasnej nawigacji (uczestnik nie zauważa, gdzie jest materiał albo myli kolejność). Rozstrzygasz to, sprawdzając, czy pomijanie jest masowe i powtarzalne dla wielu osób oraz czy towarzyszy mu wzrost błędów/niepowodzeń w aktywności końcowej; sama obecność „skoku” nie jest jeszcze dowodem problemu.

Aby wyniki były wiarygodne, porównuj ścieżki w obrębie podobnych warunków: tej samej wersji kursu, tego samego tygodnia realizacji, podobnej grupy uczestników. Analizę zaczynaj od elementów, które według logów są wąskimi gardłami: mają dużo wejść, ale relatywnie mało przejść do kolejnego kroku albo generują dużo powrotów. Dopiero na tej podstawie formułuj hipotezę, w którym miejscu nawigacja lub instrukcja jest nieczytelna i wymaga poprawy (np. nazwy aktywności, kolejności na stronie kursu, linkowania, warunków dostępu).

Jakie zmiany w kursie najczęściej przestawiają naukę z pamięci na praktykę?

Najczęściej decyduje zmiana tego, co jest „rdzeniem” aktywności w kursie: zamiast czytania materiałów i sprawdzania zapamiętania (np. test po lekturze) w centrum stawia się wykonanie zadania, które wymaga użycia wiedzy w kontekście. W praktyce oznacza to, że treści teoretyczne przestają być celem samym w sobie, a stają się wsparciem do rozwiązania problemu, podjęcia decyzji, przygotowania produktu pracy lub przeprowadzenia analizy.

Drugą zmianą jest przeprojektowanie oceniania z pytań odtwarzających na kryteria wykonania. Gdy uczestnik wie, że będzie oceniany za poprawność działania (np. jakość rozwiązania, trafność argumentacji, zgodność z procedurą, kompletność dokumentu), a nie za pamiętanie definicji, naturalnie przesuwa wysiłek na ćwiczenie zastosowania. W kursach online często wzmacnia to jawna rubryka oceny oraz krótkie informacje zwrotne odnoszące się do kryteriów, a nie do „wyniku procentowego”.

Trzecim przełącznikiem jest wprowadzenie iteracji: możliwość poprawy po feedbacku, wersjonowanie pracy i powrót do zadania po nowej porcji wiedzy. Nauka pamięciowa jest zwykle jednorazowa (czytam–zaliczam), a praktyka wymaga powtórzeń w różnych wariantach i stopniowania trudności. Gdy kurs ma kilka krótkich ćwiczeń prowadzących do jednego większego rezultatu (np. projekt, studium przypadku, analiza danych), uczestnik wielokrotnie stosuje te same zasady, aż staną się umiejętnością.

Czwarta zmiana dotyczy sposobu pracy z treścią: zamiast długich, linearnych materiałów lepiej sprawdzają się krótkie porcje „na żądanie” (ściągi, checklisty, przykłady dobrych i złych rozwiązań), do których uczestnik wraca w trakcie wykonywania zadania. To buduje nawyk korzystania z zasobów w działaniu, a nie „wkuwania przed testem”. W Moodle przekłada się to na kurs, w którym kluczowe aktywności to zadania, warsztaty lub scenariusze decyzyjne, a materiały są podporządkowane ich realizacji.

Jak zmierzyć, czy po zmianach kurs faktycznie rozwija kompetencje lepiej niż wcześniej?

Najpierw zdefiniuj, co w tym kursie znaczy „lepiej rozwija kompetencje”: chodzi o poprawę wykonania zadań wymagających zastosowania wiedzy (transferu), a nie tylko wyższy wynik w teście pamięciowym. Żeby porównanie miało sens, potrzebujesz tej samej (lub równoważnej) miary kompetencji „przed” i „po” zmianach oraz porównywalnych grup (np. dwa kolejne edycje kursu przy tym samym progu zaliczenia i podobnym profilu uczestników).

Najbardziej wiarygodny rdzeń pomiaru to wynik w zadaniu/ocenie, które wprost mapuje się na kompetencję i ma stałe kryteria (rubryka). Mierz nie tylko średnią punktów, ale też rozkład wyników oraz odsetek osób osiągających wymagany poziom w kluczowych kryteriach rubryki. Jeśli zmiany w kursie nie zmieniały samego zadania, porównanie jest proste; jeśli zmieniały, stosuj zadanie równoważne (podobna trudność i te same kryteria), inaczej ryzykujesz, że „poprawa” wynika jedynie z łatwiejszej oceny.

Dopiero do tej miary wynikowej dołącz wskaźniki procesowe z logów Moodle, ale traktuj je jako dowody wspierające, a nie samodzielny dowód kompetencji. Szukasz spójnego wzorca: po zmianach uczestnicy powinni częściej wykonywać aktywności związane z praktyką i informacją zwrotną oraz rzadziej ograniczać się do jednorazowego „przejścia” materiałów. W praktyce oznacza to porównanie między edycjami takich miar jak: odsetek osób, które wracają do zasobów po feedbacku, liczba iteracji podejść do zadań (gdy to ma sens dydaktyczny), czas między pierwszym kontaktem z materiałem a wykonaniem zadania oraz udział aktywności wymagających produkcji (zadania, warsztaty, fora merytoryczne) względem samych odczytów zasobów.

Aby stwierdzić, że kurs „faktycznie” poprawił rozwój kompetencji, wynik końcowy (ocena kompetencyjna według rubryki) powinien wzrosnąć, a jednocześnie wzorce w logach powinny wskazywać na bardziej praktykowy i iteracyjny proces uczenia. Jeśli rosną tylko wyniki, ale nie widać zmiany procesu, możliwa jest zmiana trudności oceny; jeśli zmienia się tylko proces, ale wynik nie rośnie, zmiany mogły zwiększyć aktywność bez realnego efektu kompetencyjnego lub kompetencja była mierzona nieadekwatnie.

icon

Formularz kontaktowyContact form

Imię *Name
NazwiskoSurname
Adres e-mail *E-mail address
Telefon *Phone number
UwagiComments