#image_title

Sztuczna inteligencja w polskich szkołach: Czy nauczyciele przegrali już wojnę z ChatGPT?

Pani Małgorzata, polonistka z wieloletnim stażem w jednym z warszawskich liceów, pokazuje mi pracę domową swojego ucznia.

Wypracowanie o “Weselu” Wyspiańskiego jest bezbłędne, erudycyjne, pełne nietypowych skojarzeń. Problem w tym, że uczeń zwykle pisze z licznymi błędami ortograficznymi i ma problemy z interpretacją tekstów. “Poprosiłam go, żeby wyjaśnił mi jeden ze swoich argumentów. Nie potrafił. ChatGPT napisał to za niego” – mówi z rezygnacją w głosie.

Ta scena powtarza się w tysiącach polskich szkół. Sztuczna inteligencja wdarła się do edukacji siłą wywrotową, stawiając nauczycieli przed pytaniem: czy to jeszcze walka, którą można wygrać, czy może czas zmienić strategię?

Ciche tsunami

Gdy w listopadzie 2022 roku OpenAI udostępniło ChatGPT publicznie, polscy nauczyciele początkowo nie dostrzegli zagrożenia. Narzędzie było dostępne tylko po angielsku, wymagało rejestracji, a jego możliwości wydawały się ograniczone. Kilka miesięcy później sytuacja zmieniła się diametralnie.

“To przyszło jak tsunami. Nagle wszyscy uczniowie wiedzieli, jak używać AI do odrabiania lekcji” – wspomina Tomasz Kowalski, nauczyciel informatyki z Krakowa. Dane z września 2024 roku pokazują, że ChatGPT ma już ponad 200 milionów aktywnych użytkowników tygodniowo na świecie. W Polsce narzędzie to wykorzystuje regularnie około miliona osób, a znaczną część tej grupy stanowią uczniowie i studenci.

Problem narasta lawinowo. AI nauczyła się nie tylko perfekcyjnie pisać po polsku, ale też naśladować indywidualny styl, rozwiązywać skomplikowane zadania matematyczne czy generować prezentacje. Co więcej – każdy kolejny model jest lepszy od poprzedniego. Tam, gdzie rok temu ChatGPT popełniał charakterystyczne błędy, dziś pisze teksty nie do odróżnienia od ludzkich.

Wykrywacze, które nie wykrywają

Ministerstwo Edukacji Narodowej nie wydało jak dotąd systemowych wytycznych dotyczących używania AI w szkołach. Dyrektorzy i nauczyciele poruszają się więc w próżni regulacyjnej, często podejmując chaotyczne decyzje. Niektóre szkoły próbują wprowadzać zakazy, inne kupują drogie oprogramowanie do wykrywania tekstów pisanych przez AI.

“Zapłaciliśmy za dostęp do detektora AI dla całej kadry. Po dwóch miesiącach przestaliśmy mu ufać” – przyznaje Adam Nowak, wicedyrektor liceum w Poznaniu. Problem z detektorami jest fundamentalny: działają zawodnie. Badania pokazują, że narzędzia takie jak GPTZero czy Originality.ai mają wskaźnik fałszywie pozytywnych wyników sięgający nawet trzydziestu procent. Oznacza to, że co trzecia praca napisana przez człowieka może zostać błędnie oznaczona jako wygenerowana przez AI.

Co gorsza, detektory te są szczególnie niesprawiedliwe wobec uczniów, dla których polski nie jest językiem ojczystym lub którzy mają trudności z nauką. Ich prostsze konstrukcje zdaniowe i powtarzalne schematy językowe łatwo wzbudzają fałszywe podejrzenia systemu.

Gra w kotka i myszkę

Uczniowie są o krok przed nauczycielami. W internetowych grupach wymieniają się technikami obchodzenia zarówno detektorów, jak i czujności pedagogów. “Wystarczy poprosić ChatGPT, żeby pisał prostszym językiem i zrobił kilka błędów” – wyjaśnia Kasia, maturzystka z Wrocławia, która zgodziła się rozmawiać pod warunkiem anonimowości. “Albo przepisujesz tekst ręcznie i zmieniasz co trzecie słowo. Nikt nie sprawdzi.”

Pojawiły się też bardziej wyrafinowane metody. Uczniowie proszą AI o stworzenie planu wypracowania, a potem piszą tekst sami na podstawie tego szkieletu. Inni wykorzystują ChatGPT do burzy mózgów, zbierania cytatów czy sprawdzania faktów. To sprawia, że granica między dozwolonym wsparciem a niedozwolonym oszustwem staje się coraz bardziej rozmyta.

“Gdzie przebiega ta linia?” – pyta retorycznie Joanna Wiśniewska, nauczycielka języka angielskiego z Gdańska. “Jeśli uczeń używa translatora online, to oszukuje? A jeśli sprawdza słówka w aplikacji? A jeśli prosi AI o wyjaśnienie gramatyki? W pewnym momencie zdałam sobie sprawę, że nie potrafię na to odpowiedzieć.”

Egzamin jako ostatnia twierdza

W obliczu bezradności wobec prac domowych nauczyciele coraz częściej stawiają na sprawdziany pisane w klasie pod nadzorem. To jedyna sytuacja, w której mogą być pewni, że uczeń pracuje samodzielnie. Problem w tym, że taka strategia ma poważne ograniczenia.

“Nie mogę sprawdzać wszystkiego na lekcji. To fizycznie niemożliwe” – tłumaczy Michał Zaremba, nauczyciel historii ze Szczecina. “Poza tym coś się stało z umiejętnością pisania ręcznie. Uczniowie są przyzwyczajeni do klawiatury, piszą wolniej, robią więcej przekreśleń. Sprawdzanie takich prac to koszmar.”

Jest jeszcze inny wymiar problemu. Koncentracja wyłącznie na sprawdzianach w klasie może przesunąć edukację w stronę memoryzacji faktów kosztem rozwijania umiejętności analitycznych i kreatywności. Tymczasem właśnie te kompetencje są kluczowe w świecie, w którym podstawowe informacje są dostępne na wyciągnięcie ręki – czy to przez wyszukiwarkę, czy przez AI.

Zmiana paradygmatu

Część nauczycieli przyjmuje jednak radykalnie inne podejście. Zamiast walczyć z AI, próbują ją włączyć do procesu nauczania.

“Przestałam udawać, że ChatGPT nie istnieje” – mówi dr Katarzyna Lewandowska, nauczycielka języka polskiego w warszawskim liceum. “Teraz zadaję takie polecenia, przy których AI może być narzędziem, ale nie zastąpi myślenia. Na przykład proszę uczniów, żeby poprosili ChatGPT o interpretację wiersza, a potem napisali, co w tej interpretacji jest błędne lub powierzchowne.”

To odwrócenie perspektywy otwiera nowe możliwości. Zamiast pytać “jak sprawdzić, czy uczeń nie korzystał z AI”, nauczyciele zaczynają pytać “jakie zadania rozwijają umiejętności, których AI nie zastąpi”. Odpowiedzią są często zadania wymagające osobistej refleksji, zestawienia różnych źródeł, krytycznej analizy lub rozwiązania problemu w konkretnym, unikalnym kontekście.

“Poproszę uczniów, żeby opisali, jak dzieło literackie odnosi się do ich własnego doświadczenia” – wyjaśnia Lewandowska. “ChatGPT nie wie, co przeżył konkretny siedemnastolatek z Warszawy. Nie zna jego rodziny, jego problemów, jego radości. Tu AI jest bezradne.”

Estonia jako inspiracja

Warto spojrzeć na doświadczenia innych krajów. Estonia, lider cyfryzacji edukacji w Europie, przyjęła pragmatyczne podejście do AI w szkołach już wiosną 2023 roku. Ministerstwo edukacji wydało wytyczne zachęcające nauczycieli do eksperymentowania z narzędziami AI, ale z zachowaniem przejrzystości i odpowiedzialności.

Estońscy pedagodzy traktują sztuczną inteligencję jak kiedyś kalkulator czy internet – jako narzędzie, które zmienia sposób nauczania, ale go nie niszczy. Kluczem jest nauczenie uczniów, kiedy i jak korzystać z AI, a kiedy polegać na własnych kompetencjach. Podobne podejście przyjęły Dania, Singapur czy niektóre stany w USA.

W Polsce brakuje systemowego wsparcia dla nauczycieli chcących iść tą drogą. Nie ma szkoleń, gotowych scenariuszy lekcji ani centralnych wytycznych. Innowacyjni pedagodzy działają w pojedynkę, często na własną rękę ucząc się możliwości i ograniczeń AI.

Pytanie o sens edukacji

Prawdziwe wyzwanie, przed którym stają polscy nauczyciele, wykracza poza techniczne aspekty wykrywania czy blokowania AI. To pytanie o fundamenty: czemu właściwie mamy uczyć w świecie, gdzie znaczna część tradycyjnych umiejętności szkolnych może być zautomatyzowana?

“Jeśli ChatGPT potrafi napisać wypracowanie lepsze niż większość uczniów, to może problem nie leży w ChatGPT, tylko w tym, że kazaliśmy pisać schematyczne wypracowania według sztywnego klucza” – zastanawia się Piotr Kowalczyk, polonista i bloger edukacyjny. “Może to okazja, żeby przemyśleć, czego tak naprawdę chcemy nauczyć młodych ludzi.”

Dyskusja ta dopiero się zaczyna, ale jej stawką jest przyszłość polskiej edukacji. W starciu z AI szkoła nie musi przegrać – pod warunkiem, że przestanie walczyć o zachowanie status quo i zamiast tego przemyśli, co w edukacji jest naprawdę wartościowe i nie do zastąpienia przez algorytmy.

Droga do przodu

Rzeczywistość jest taka, że AI nikąd nie zniknie. ChatGPT to dopiero początek – kolejne wersje będą jeszcze potężniejsze, bardziej dostępne, łatwiejsze w użyciu. Za kilka lat w szkołach pojawią się dzieci, które dorastały w świecie, gdzie AI było czymś oczywistym jak smartfon czy internet.

Pytanie nie brzmi więc “czy nauczyciele przegrali wojnę z ChatGPT”, ale raczej “czy przegrali, walcząc nie tę wojnę”. Prawdziwe wyzwanie nie polega na zablokowaniu technologii, ale na przemyśleniu, czego naprawdę chcemy nauczyć młodych ludzi i jak przygotować ich do świata, w którym AI będzie wszechobecne.

Pani Małgorzata, polonistka z początku tego tekstu, zmieniła ostatnio swoje podejście. Zamiast walczyć z ChatGPT, zaczęła uczyć uczniów, jak krytycznie oceniać teksty generowane przez AI. “Pokazuję im, że ChatGPT często pisze płytko, że powtarza stereotypy, że nie ma prawdziwego zrozumienia” – mówi. “I wie co? Oni sami zaczynają to dostrzegać. To otwiera im oczy bardziej niż jakiekolwiek zakazy.”

Może w tym tkwi odpowiedź. Nie w zakazywaniu, nie w wykrywaniu, nie w karaniu. Ale w nauczeniu młodych ludzi, że AI to potężne narzędzie, które wymaga mądrego wykorzystania – i że są rzeczy, których żadna sztuczna inteligencja nigdy nie zastąpi: autentyczne myślenie, osobiste doświadczenie, ludzka wrażliwość i głębokie rozumienie świata.

Wojna z ChatGPT to fałszywy problem. Prawdziwym wyzwaniem jest nauczenie się życia z AI – i nauczanie w świecie, który się bezpowrotnie zmienił.

Previous Post

Zimna śmierć na Bałtyku – katastrofa promu “Jan Heweliusz”

Next Post

Koniec ery Roomby? Jak pionier robotycznych odkurzaczy znalazł się na skraju bankructwa