Czy AI zrobi za mnie projekt? Jak uczelnie i studenci podchodzą do sztucznej inteligencji

Czy AI zrobi za mnie projekt? Jak uczelnie i studenci podchodzą do sztucznej inteligencji

Studenci
Studenci Źródło: Shutterstock
Po maturach 2025 roku młodzi ludzie wkraczają na uczelnie w świecie, gdzie sztuczna inteligencja zmienia edukację. Czy generatywne narzędzia AI zrewolucjonizują tworzenie projektów i prac dyplomowych? Jak polskie uczelnie regulują ich użycie? Rozmawiamy z ekspertami i sprawdzamy, jak maturzyści mogą przygotować się do studiów w nowej erze.

Od kilku lat sztuczna inteligencja zmienia świat studentów szybciej, niż ministerstwa i dziekani są w stanie nadążyć z nowymi regulacjami. W teorii w Szkole Głównej Handlowej, czy na Uniwersytecie Warszawskim obowiązują już precyzyjne zasady dotyczące korzystania z generatywnej sztucznej inteligencji. W praktyce... wszystko za leży od konkretnego wydziału, promotora, a często nawet – konkretnej grupy studenckiej.

– Z perspektywy dydaktyka w SGH, regulacje są raczej konserwatywne. Dozwolone jest np. wspomaganie się narzędziami AI przy redakcji czy burzy mózgów, ale napisanie całości pracy przez AI, nawet z zaznaczeniem tego faktu, jest zabronione – tłumaczy dr Albert Tomaszewski, ekspert AI Lab Szkoły Głównej Handlowej.

Podobnie jest na Uniwersytecie Warszawskim: – Najważniejsze, by korzystać z tych narzędzi transparentnie – podkreśla prof. Katarzyna Śledziewska, szefowa DELab UW. Uczelnia promuje odpowiedzialne, świadome używanie AI i formalnie wdrożyła zalecenia dotyczące „GenAI” w dydaktyce. Promotorzy mają uzgadniać ze studentami zakres dopuszczalnego wy korzystania AI, a na egzaminach pisemnych jej użycie jest zakazane.

A jak wygląda rzeczywistość? Regulamin swoje, a codzienne praktyki swoje.

„Shadow AI”, czyli jak naprawdę korzystają studenci ze sztucznej inteligencji

Studenci są, jak zwykle, o krok przed systemem. Mimo oficjalnych zakazów i deklaracji, w środowisku akademickim działa zjawisko, które wykładowcy określają mianem „shadow AI” – korzystanie z AI w tajemnicy, poza oficjalnym obiegiem.

– Według regulacji, użycie AI powinno być zgłaszane, ale nikt tego nie zgłasza, bo nie chce na siebie donosić – rozjaśnia dr Tomaszewski

Dr Albert Tomaszewski, ekspert AI Lab Szkoły Głównej Handlowej

Studenckie grupy na Facebooku, Discordzie czy Messengerze pełne są porad typu „jak wygenerować referat, by nie wzbudzić podejrzeń” czy „który detektor AI łatwo oszukać”. Słynne są instrukcje, jak „przepisać” wygenerowany tekst własnymi słowami lub przepuścić przez inne narzędzie parafrazujące, by AI-detektor zgłupiał. Jedna z popularnych rad, jaką znaleźliśmy w sieci brzmiała: „Wygeneruj w ChatGPT, potem wklej do Deepl i przepuść przez polski korektor”.

– Moim zdaniem obecnie nie ma skutecznych sposobów wykrywania takich tekstów. Algorytmy, z którymi się spotkałem, mają wysoki poziom błędów w obie strony. Często nie wykrywają tekstu stworzonego przez AI, a z drugiej strony potrafią zaznaczać oryginalny tekst jako wygenerowany. Dziś nie da się tego skutecznie sprawdzić – komentuje ekspert SGH.

Jednocześnie, jak pokazują badania na UW, studenci są świadomi zagrożeń. Wielu obawia się nieświadomego plagiatu lub błędów AI. – Wśród głównych powodów nie korzystania z AI respondenci wymieniają: brak zaufania do sposobu przetwarzania danych, obawy przed błędami, halucynacjami i manipulacją treścią, a także ryzyko nieświadomego plagiatu – mówi prof. Śledziewska.

Nie każdy ufa sztucznej inteligencji bezgranicznie – część studentów korzysta z AI nie po to, by oszukiwać, ale by szybciej uporządkować notatki, wygenerować konspekt czy po prawić styl.

– Opiekunowie prac dyplomowych powinni wspólnie ze studentami uzgadniać zakres i sposób wykorzystania AI oraz monitorować postępy, przy zachowaniu zasady pełnej odpowiedzialności autora za treść pracy – wyjaśnia prof. Śledziewska, opisując, jak wygląda wy korzystanie AI przy pisaniu prac dyplomowych

Prof. Katarzyna Śledziewska, Dyrektor Zarządzająca DELab UW

Uniwersytet pod ostrzałem AI. „Submission tornado” i „płaskie” wnioski

Wykładowcy nie mają złudzeń: „submission tornado” – lawina szybko generowanych, do bólu podobnych prac, to nowy standard. – Przy zadaniach na zajęciach, jak referaty, projekty grupowe czy eseje, widać konwergencję tematyczną – 30 studentów składa prace wokół kilku tych samych wątków, bo algorytm nie generuje zbyt oryginalnych pomysłów. Kiedyś prace były bardziej zróżnicowane – zauważa dr Tomaszewski.

Powierzchowność, brak głębokiej analizy, „płaskie” wnioski – to najczęstsze znaki rozpoznawcze tekstów generowanych przez AI.

– Studenci przerzucają takie prace na promotora, w myśl zasady „a nuż to wystarczy”. Jeśli tekst jest słabej jakości i mało zróżnicowany, prawdopodobnie powstał z użyciem AI – dodaje.

Systemy antyplagiatowe z wtyczkami antyAI w praktyce są mało skuteczne. – Jeśli system coś wykryje, trudno to udowodnić, bo student zawsze może zaprzeczyć. Nie popieram sprowadzania wszystkiego do detektorów – mówi prof. Śledziewska. O wiele skuteczniejsza okazuje się stara, ludzka metoda: bezpośrednia rozmowa i sprawdzenie, czy student naprawdę rozumie, o czym napisał.

– Detektory są mało skuteczne, a zaufanie i współpraca dużo ważniejsze – dodaje ekspertka UW.

W wąskich specjalizacjach nawet najlepszy LLM (ang. large language model, duży model językowy) nie udaje eksperta: – W przypadku wąskich specjalizacji bardzo łatwo wychwycić nadużycia – bez dogłębnej znajomości tematu tekst AI jest powierzchowny – zauważa prof. Śledziewska

Nowe podejście uczelni: więcej badań, mniej „wypracowań”

Eksperci są zgodni: pisanie tekstu przez AI staje się tak proste, że samo „zaliczenie pracy pisemnej” przestaje mieć sens.

– Kluczowe powinny być badania: wywiady, ankiety, praca w terenie – tego AI nie zrobi – przekonuje dr Tomaszewski.

Prace dyplomowe powinny wymagać oryginalności, pogłębionej analizy i nowatorskiego podejścia do tematu, a nie tylko sprawnej redakcji. Coraz więcej promotorów rezygnuje z klasycznych prac pisemnych na rzecz projektów, prezentacji, a nawet egzaminów ustnych, podczas których łatwiej zweryfikować realną wiedzę studenta. – Odejście od pisemnych prac to najprostsza rzecz, jaką można zrobić, choć to trochę unikanie problemu. Sam częściowo zrezygnowałem na moich zajęciach z prac pisemnych, bo czytanie tekstów wygenerowanych przez AI po prostu nie ma sensu – tłumaczy dr Tomaszewski.

Zmienia się też podejście do oceniania studentów. – Jeśli potraktujemy pracę dyplomową jako wspólne do świadczenie, projekt realizowany razem ze studentem, to korzystanie z AI nie przeszkadza – wspiera proces uczenia się. W takim podejściu ocenianie na „piątkę” czy „trójkę” traci sens. Ważniejsza jest droga, rozwój, współpraca i wzajemne zaufanie – zauważa prof. Śledziewska.

Akademicka przyszłość. Własne narzędzia AI

Sztuczna inteligencja nie zniknie z akademickiego świata. Przeciwnie – będzie coraz bardziej zintegrowana z nauką, dydaktyką i codziennością studentów.

Uczelnie, zdaniem ekspertów, powinny rozwijać własne narzędzia AI, dostosowane do polskich realiów i chroniące suwerenność akademicką. – Dla mnie większym zagrożeniem jest obecność bigtechów w systemie edukacji. Uważam, że powinniśmy za dbać o suwerenność uczelni – Uniwersytet Warszawski ma potencjał do rozwijania własnych narzędzi i modeli. Ministerstwo powinno wspierać takie inicjatywy, promować współpracę z polskimi rozwiązaniami, by zachować niezależność – podkreśla prof. Śledziewska.

Ale na razie wyścig trwa. Studenci wciąż wymyślają nowe sposoby na „obejście systemu”, a prowadzący zajęcia uczą się rozpoznawać, gdzie kończy się kreatywne wsparcie AI, a zaczyna akademicka ściema. Jedno jest pewne: – Wracamy do podstaw: do dyskusji, rozwoju krytycznego myślenia i rozwoju osobowego, a nie tylko sprawdzania informacji, czy pamięci – mówi szefowa DELab UW.

Dyskusję o AI w edukacji można przyrównać do tego, w jaki sposób dzisiaj korzystamy z kalkulatora, który ułatwia życie, czy jak podchodzimy do komputera szachowego. Dr Tomaszewski używa tej analogii: „W szachach komputer pokonał człowieka już ponad 20 lat temu, ale w turniejach dalej gramy bez wspomagania, bo istotą gry jest samodzielność”. W edukacji podobnie – AI może wspierać, ale nie zastąpi ludzkiego wysiłku.

Czytaj też:
Jak z 2222 kierunków studiów wybrać ten jeden
Czytaj też:
Sztuczna inteligencja w polskich szpitalach. Rewolucja, która może uratować tysiące pacjentów