Aktualność
17 Czerwca 2025|9 min. czytania

Gdy sztuczna inteligencja wkracza do szkoły

Najwięcej nauczycieli – aż 81 proc. – obawia się, że młodzież, korzystając z generatywnej sztucznej inteligencji (GSI), uzależni się od niej. Wśród zagrożeń pedagodzy wymieniali brak zdolności krytycznego myślenia czy pogorszenie relacji między uczniami. Są jednak także korzyści, a wśród nich oszczędność czasu i większa kreatywność. Oto wnioski z badań zaprezentowane w raporcie NASK “GSI w polskiej szkole. Przecieranie szlaków".

Raport Generatywna sztuczna inteligencja  w polskiej szkole. Przecieranie szlaków
Łuna gradientu wychodząca od dołu

Zainteresowanie wykorzystaniem GSI w edukacji powoli rośnie. Największą barierą pozostają jednak obawy nauczycieli. Zmiany wywołane przez pojawienie się GSI budzą opór – wielu pedagogów obawia się, że technologia ta może doprowadzić do radykalnej transformacji ich pracy, do której nie są odpowiednio przygotowani. Jak zauważył jeden z uczestników badania, już samo pojęcie „sztucznej inteligencji” budzi niepokój i dystans: „ja tam wolę naturalną inteligencję”.

W siedzibie Polskiej Agencji Prasowej odbyło się spotkanie autorów raportu i pracowników NASK z dziennikarzami, podczas którego omówiono badanie.

Raport powstał pod redakcją naukową prof. Jacka Pyżalskiego. Zauważył on, że często rozmowy o sztucznej inteligencji opierają się na domysłach, a nie konkretach. – Być może jest to jedna z przyczyn, dla których w nauczycielach wciąż jest tak wiele obaw związanych z wykorzystaniem GSI w szkołach – mówił.

Dyrektor NASK Radosław Nielek podkreślił, że właśnie z tego powodu powstają podobne raporty.

–  Chcemy dawać ludziom i instytucjom możliwość prowadzenia dyskusji i wyciągania wniosków na podstawie faktów, a nie domysłów – zaznaczał. – Sztuczna inteligencja jest obszarem, który wzbudza wiele obaw, dlatego prowadzenie badań w tym obszarze jest tak ważne.

Obawy i zagrożenia z korzystania z SI

Obawy te często wynikają z braku dostatecznej wiedzy na temat możliwości, jakie oferują narzędzia oparte na GSI. Nauczycielki i nauczyciele wskazywali, że boją się utraty kontroli nad procesem nauczania, nie wiedząc, jak w praktyce efektywnie i bezpiecznie korzystać z nowych technologii.

Wśród kluczowych trudności wskazano:

  • brak czasu na naukę nowych narzędzi i wdrażanie ich do praktyki szkolnej,
  • niskie kompetencje cyfrowe kadry,
  • opór przed zmianą i obawa przed utratą kontroli nad procesem dydaktycznym,
  • brak jasnych wytycznych i regulacji dotyczących stosowania SI w edukacji,
  • gorsze działanie narzędzi SI w języku polskim i utrwalanie stereotypów płciowych.

W wypowiedziach badanych często powtarzał się lęk przed zastąpieniem przez technologię istotnych elementów „ducha szkoły”: relacji, emocji, komunikacji. Nauczyciele podkreślali, że SI nie zastąpi wspólnego projektu, rozmowy w czasie przerwy czy rozwiązania konfliktu między uczniami.

Przemyślenia jednego z nauczycieli obrazują to następująco:

(…) musi być taka druga osoba, kiedy robimy jakiś projekt wspólnie, kiedy prowadzimy jakąś dyskusję, te neurony lustrzane muszą zadziałać, ktoś tam się uśmiechnął na mój argument, ktoś się nie uśmiechnął, to już nie są fakty, tylko opinie i te rzeczy powinniśmy robić z ludźmi. Kwestia taka relacyjna tego, że czat GPT nie zorganizuje im wycieczki, czat GPT nie weźmie ich na wieczór w szkole, czat GPT nie wyjdzie do nich na przerwę pogadać, czat GPT nie pomoże im przepracować tego, że się czymś obwiniają, albo nie rozwiąże konfliktu między nimi (…)

Prócz tego nauczyciele obawiają się, że uczniowie będą wykorzystywać GSI do pisania prac domowych bez odpowiedniego oznaczenia, że wspomagali się sztuczną inteligencją. To z kolei może prowadzić do osłabienia krytycznego myślenia uczniów i braku samodzielności w działaniu. Wśród zagrożeń nauczyciele wskazują także nadużycia, w tym wykorzystania GSI do cyberprzemocy (3 proc. wielokrotnie, 11 proc. raz lub kilka razy).

– W rozmowach z nauczycielami często pojawiała się obawa dotycząca tego, że GSI „zabije” krytyczne myślenie – opowiadała na spotkaniu Julia Piechna, kierowniczka Zespołu Projektów Społecznych i Współpracy Międzynarodowej w NASK i współautorka raportu. – Częściej wybrzmiewały też obawy i zagrożenia niż pozytywy. To pokazuje, że jest ogromna potrzeba, żeby edukować nauczycieli i uczniów nie tylko na temat tego, co to narzędzie potrafi, ale także traktować jak pomnik. Chodzi o to, by pokazywać GSI uczniom pod kątem tego, jakie może nieść ze sobą konsekwencje – etyczne, społeczne, co może nam dać dobrego i złego. Nie tylko uczyć tego, jakie funkcje ma GSI – dodała ekspertka.

Z kolei prof. Pyżalski wyjaśnił, na czym polega obawa nauczycieli dotycząca uzależnienia się od GSI. – To uzależnienie można rozumieć też przez to, że uczniowie będą zlecać sztucznej inteligencji jakieś zadania i zaczną się nią wyręczać. A jak stracą to narzędzie, to okaże się, że nic nie potrafią zrobić – mówił. – I tutaj jest niezmiernie ważna rola nauczyciela, żeby uczniom pokazywać, że z GSI można korzystać w sposób ułatwiający pracę, ale nie wyręczający.

Korzyści z korzystania z SI

Mimo dostrzeganych obaw i zagrożeń, nauczyciele wymieniają także korzyści
z korzystania z GSI. Główną motywacją do sięgania po generatywną sztuczną inteligencję w edukacji była najczęściej chęć oszczędności czasu, szczególnie w zakresie przygotowania materiałów dydaktycznych, pisania sprawozdań czy korespondencji z rodzicami. 64 proc. badanych wskazało automatyzację rutynowych zadań jako kluczową zaletę. Nauczyciele wykorzystywali ChatGPT m.in. do generowania prezentacji, scenariuszy zajęć, klasówek, a także do konsultowania trudnych sytuacji wychowawczych czy pisania uprzejmych wiadomości.

– Co ciekawe, częściej nauczyciele sami wychodzili z inicjatywą, by uczyć o GSI. Większość mówiła, że nie czuła takiej potrzeby w sensie realizacji programu, tylko raczej mieli poczucie, że to coś, czego używają dzieci i warto im pokazywać sztuczną inteligencję z innej perspektywy – zaznaczała Julia Piechna.

GSI wspierała także personalizację nauczania – 28 proc. nauczycieli stosujących to narzędzie, używało go w pracy z uczniami o zróżnicowanych potrzebach edukacyjnych, w tym neuroatypowych i pochodzących z innych krajów, np. Ukrainy.

Uczniowie samodzielnie wykorzystywali GSI do tłumaczenia tekstów, odrabiania prac domowych, tworzenia kreatywnych treści. Nauczyciele podkreślali, że generatywna sztuczna inteligencja wprowadza do lekcji element interaktywności, zabawy i zaangażowania, co często motywowało młodych ludzi. Jednocześnie pokazywali uczniom, że zawsze należy weryfikować treści generowane przez GSI – prezentowali to podczas lekcji wychowawczych, zadając ChatGPT takie pytania, na które odpowiadał błędnie. W ten sposób uczniowie przekonywali się, że nie zawsze to, co podpowie im sztuczna inteligencja, jest zgodne z prawdą.

Ciekawym przykładem może być zastosowanie ChatGPT jako niezależnego konsultanta pewnych zagadnień. Podczas lekcji na temat SI jeden z uczniów wyjął telefon, co jest niedozwolone. Jak zachował się wtedy nauczyciel? W raporcie przytoczono jego słowa:

Wtedy zacząłem ustalać z Chatem GPT, co powinniśmy zrobić w tej sytuacji. ChatGPT świetnie odpowiadał, że trzeba się odwołać do zasad, do regulaminu, który ustaliliśmy, ale też zapytałem ChatGPT, czy ten uczeń powinien zostać jakoś ukarany… Potem poszliśmy krok dalej, bo uczniowie mnie zainspirowali, żeby zadać mu pytanie, czy to może być kara cielesna, no to ChatGPT absolutnie wykluczył taką możliwość i podał 20 argumentów, dlaczego nie i to były bardzo mądre argumenty.

Potrzeba nowych regulacji

Ważnym pytaniem podczas spotkania były także kwestie etyczne – jak daleko może posunąć się sztuczna inteligencja w budowaniu relacji z innymi ludźmi, w tym przypadku – z uczniami. Zarówno w raporcie, jak i podczas spotkania z dziennikarzami, rozmawiano o swoistym “oderwaniu” młodzieży od realnych uczuć, wartości, wiedzy.

– Warto zauważyć, że skoro paliwem dla naszych relacji jest komunikacja, to takie zastosowanie narzędzi GSI niesie ze sobą wiele etycznych wyzwań oraz konsekwencji dla jakości relacji międzyludzkich, które są trudne do przewidzenia na obecnym etapie naszej wiedzy. To, co już obecnie widać, to fakt, że chociaż wykorzystanie tego typu jest technicznie możliwe, to być może właściwą decyzją byłoby ograniczanie wykorzystania narzędzi GSI w tej właśnie sferze. Kwestie te z pewnością wymagają szczególnej uwagi
i namysłu, także w kontekście przygotowania nauczycieli do stosowania narzędzi SI w pracy – mówił prof. Pyżalski.

– Mądrą decyzją będzie też, gdy nauczyciel powie, gdzie GSI nie powinno być stosowane. Bo gdy do dziewczyny pisze chłopak, ona nie wie, co mu odpisać i generuje odpowiedź w ChatGPT, to należy się zastanowić, kto pisze z tym chłopakiem – ona czy sztuczna inteligencja? I czy ona w przyszłości będzie umiała prowadzić takie rozmowy? – dodał.

Anna Rywczyńska podkreśliła, że “rozmowy” prowadzone przez uczniów z GSI mogą pomóc, ChatGPT potrafi wskazać sensowne, wartościowe rozwiązanie. – Na przykład, gdy młodzi ludzie zaczynają opowiadać czatowi o swoich problemach, to ten podsuwał numery do ogólnodostępnych telefonów zaufania. Należy jednak zadać pytanie, na ile sztuczna inteligencja zastąpi prawdziwe relacje, jakie może to mieć w przyszłości konsekwencje i dlaczego akurat to do technologii młodzi ludzie zwracają się ze swoimi problemami. Być może to właśnie GSI pokaże nam, że należy bardziej rozwijać umiejętności komunikacyjne u siebie oraz u dzieci, wspierać je w budowaniu bezpiecznych wspierających relacji –mówiła ekspertka.

Na spotkaniu nie brakowało trudnych pytań, a najwięcej z nich dotyczyło właśnie kwestii emocji uczniów i etyki w wykorzystywaniu GSI. Dyrektor Nielek podkreślił na koniec: – Raport jest właśnie po to – żeby padały pytania, na które jeszcze nie ma odpowiedzi. I żeby formułować je na podstawie faktów, a nie domniemań czy opinii.

Pobierz raport!

Wyróżnione aktualności

Zdjęcie z wydarzenia medialnego Impact. Na pierwszym planie widać ekran podglądu realizatorskiego, który pokazuje dwa kadry: po lewej stronie Radosław Nielek, dyrektor NASK, w brązowej marynarce i białej koszuli, po prawej stronie dziennikarka trzymająca mikrofon. W tle widoczni rozmyci uczestnicy rozmowy oraz kamery.
Typ_aktualnosc Aktualność
14 Maja 2025|3 min. czytania

Szeroki front małych systemów na Impact’25

Wbrew pozorom zapewnienie cyfrowego bezpieczeństwa w gminie jest trudniejsze niż w banku – mówił w dyskusji podczas Impact’25 Radosław Nielek, dyrektor NASK. W jednej gminie może znajdować się jednocześnie wiele różnych systemów informatycznych – wodociągów, szkół, placówek medycznych.

Piotr Bisialski z NASK na scenie podczas konferencji.
Typ_aktualnosc Aktualność
13 Maja 2025|7 min. czytania

NASK o krok przed cyberprzestępcami. Forum Bezpieczeństwa Banków 2025

Kradzież tożsamości, ataki na infrastrukturę i próby manipulacji danymi. Sektor finansowy jest na pierwszej linii frontu w walce z cyberprzestępcami. NASK – jako lider w dziedzinie cyberbezpieczeństwa - wychodzi naprzeciw tym wyzwaniom. – Udział w Forum Bezpieczeństwa Banków to dla nas okazja do poznania realnych potrzeb sektora bankowego i wdrożenia konkretnych działań – mówił Piotr Bisialski, kierownik zespołu NASK Incident Response Team.

Wiceminister cyfryzacji Dariusz Standerski przemawia podczas konferencji dotyczącej projektu HIVE AI. W tle na ekranie widoczne są slajdy prezentacji z tytułem „Cele, założenia i organizacja projektu”. Przy stole prezydialnym siedzą Radosław Nielek, Agnieszka Karlińska. W sali znajduje się licznie zgromadzona publiczność, a jedno z przemówień jest rejestrowane telefonem przez uczestnika.
Typ_aktualnosc Aktualność
12 Maja 2025|5 min. czytania

PLLuM rośnie w siłę

600 tysięcy promptów wpisanych w okienko PLLuMa i nowości, od których dzielą nas nie lata, a zaledwie tygodnie – kolejne modele i prototyp inteligentnego asystenta. W siedzibie NASK w Warszawie spotkali się wszyscy uczestnicy konsorcjum HIVE AI. Grupy, która ma za zadanie rozwijać i wdrażać polski model językowy (PLLuM).

MAK od NASK
Typ_aktualnosc Aktualność
12 Maja 2025|4 min. czytania

Rozkwitnij z MAK. Program Mentoringu Aktywnych Kobiet nabiera barw

Podnieś swoje kompetencje z zakresu cyberbezpieczeństwa i wejdź na rynek nowych technologii! Już kilkaset kobiet zgłosiło chęć udziału w programie MAK (Mentoring Aktywnych Kobiet), ogłoszonym przez NASK we współpracy z Ministerstwem Cyfryzacji. Zostań jedną z nich — zgłoś swój udział i rozwiń skrzydła w indywidualnym programie mentoringowym. Nabór trwa do końca maja.

Informacje

Najnowsze aktualności

Karol Bojke, ekspert z zespołu CERT Polska, siedzi na scenie na tle różowej ścianki, trzyma mikrofon i gestykuluje podczas wypowiedzi. Ubrany jest w jasnoniebieską koszulę i jasne spodnie, ma okulary i opaskę na ręce.
Typ_aktualnosc Aktualność
17 Czerwca 2025|6 min. czytania

Co jest grane? Cyberbezpieczeństwo z Karolem Bojke z CERT Polska

Podczas „Co Jest Grane Festival” w Warszawie miało miejsce spotkanie festiwalowiczów z Karolem Bojke, ekspertem z zespołu CERT Polska. W przystępny sposób opowiedział on o zagrożeniach czyhających na nas w sieci oraz o tym, jak się przed nimi skutecznie bronić.

Dzieci uczestniczą w warsztatach z robotyki. Jedno z dzieci, ubrane w koszulkę z kolorowymi klockami, pracuje nad małym robotem z zestawu LEGO Education SPIKE. W tle widać opiekunów wspierających uczestników oraz pojemniki z elementami konstrukcyjnymi.
Typ_aktualnosc Aktualność
16 Czerwca 2025|8 min. czytania

Cyfrowe co jest grane z NASK

Czy wiesz, że nie wielozadaniowość sprawdza się tylko u 1% ludzi? Uważasz, że jesteś czujny na cyberoszustów? Wiesz, jak wspierać swoje dziecko w cyfrowym świecie? Ruszył sezon muzycznych imprez plenerowych, gdzie można spotkać ekspertów NASK, którzy dzielą się swoją wiedzą na temat bezpieczeństwa w sieci. Pierwsza letnia impreza – „Co Jest Grane Festival” – już za nami.

Dziewczynka skulona pod ścianą na podłodze, niedaleko niej leży telefon.
Aktualność
12 Czerwca 2025|12 min. czytania

Przemoc, której nie widać

Przemoc nie znika, gdy dziecko wróci ze szkoły do domu. Ona jest stale, bo rozgrywa się głównie w telefonie – na komunikatorach, w mediach społecznościowych. Dziś wystarczy jeden unlike, jedno unfollow, brak zaproszenia do grupy. Nie ma słów, nie widać krzywdy. Ale w głowie dziecka dzieje się dramat. Cyberprzemoc to jeden z tematów poruszonych w nowym poradniku NASK "W sieci wyzwań. Sztuka wychowania w cyfrowym świecie”.