ZESPÓŁ DS. GENERATYWNEJ SZTUCZNEJ INTELIGENCJI

Godło Polski
ZESPÓŁ DS. GENERATYWNEJ SZTUCZNEJ INTELIGENCJI

ZADANIA ZESPOŁU

Do głównych zadań Zespołu powołanego na mocy zarządzenia nr 166 Rektora Uniwersytetu Łódzkiego z dnia 29.09.2023 r. należy w szczególności:

  1. analiza trendów związanych z rozwojem generatywnej sztucznej inteligencji i ocena ich znaczenia dla sektora edukacyjnego i prowadzenia badań naukowych;
  2. ścisła współpraca z zewnętrznymi ekspertami i instytucjami działającymi na rzecz odpowiedzialnego i etycznego rozwoju generatywnej AI, w tym w szczególności w sektorze edukacyjnym i naukowym;
  3. identyfikacja szans i możliwości wykorzystania narzędzi generatywnej AI w Uniwersytecie Łódzkim, a także potencjalnych zagrożeń wynikających z ich rozwoju dla procesów naukowo-badawczych, dydaktycznych i administracyjnych realizowanych w Uczelni;
  4. analiza potrzeb i oczekiwań związanych z rozwojem generatywnej sztucznej inteligencji wszystkich członków społeczności akademickiej (studentów, pracowników naukowych, pracowników dydaktycznych, pracowników administracyjnych);
  5. propagowanie wiedzy o narzędziach generatywnej AI i uwarunkowaniach ich wykorzystania (prawnych, etycznych, kulturowych itp.) w procesie dydaktycznym, naukowo-badawczym i administracyjnym wśród członków społeczności akademickiej oraz rekomendowanie form i narzędzi podnoszenia umiejętności i kompetencji w tym zakresie;
  6. promowaniem dobrych praktyk krajowych i zagranicznych wykorzystania narzędzi generatywnej AI w procesie dydaktycznym, naukowo-badawczym i administracyjnym. 

Interdyscyplinarny Zespoł ds. generatywnej sztucznej inteligencji (generative AI) realizuje swoje zadania od 1 października 2023 r. 

REKOMENDACJE

Biorąc pod uwagę, że:

Rozumiemy istotę generatywnej sztucznej inteligencji (generative AI, GenAI), a także mamy wiedzę na temat jej narzędzi (np. ChatGPT, Midjourney, Dall-E, Stable Diffusion itp.) i ich obecnych możliwości.

Zdajemy sobie sprawę, że będą pojawiały się kolejne, doskonalsze i bardziej zaawansowane narzędzia generatywnej sztucznej inteligencji, oferujące coraz szersze spektrum dostępnych funkcjonalności. 

Jesteśmy przekonani, że narzędzia generatywnej sztucznej inteligencji, z czasem, będą wykorzystywane w większości krajów na świecie, stąd ich zakazanie lub ograniczenie dostępu do nich, w jakiejkolwiek formie, w naszej opinii, mogłoby doprowadzić do powstania nierówności cyfrowych i osłabienia pozycji członków naszej społeczności akademickiej zarówno na rynku krajowym, jak i rynkach zagranicznych.

Jesteśmy zdania, że naszą rolą jako uczelni wyższej jest kształcenie umiejętności odpowiedzialnego, etycznego i refleksyjnego posługiwania się narzędziami generatywnej sztucznej inteligencji, kładąc przy tym nacisk na kreatywność, krytyczne myślenie, kooperację i komunikację wśród wszystkich członków naszej społeczności akademickiej. 

Kluczowe jest dla nas poszanowanie praw podstawowych i godności człowieka, a także to jemu przypisujemy przewodnią i nadzorczą rolę we wszystkich interakcjach z narzędziami generatywnej sztucznej inteligencji i wygenerowanymi w ten sposób materiałami (np. tekst, pliki muzyczne, zdjęcia, grafiki, obrazy, materiały wideo itp.).                                                        

Jesteśmy zgodni, że generatywna sztuczna inteligencja oferuje wiele nowych możliwości dla uczelni wyższych i może znaleźć swoje zastosowanie jako narzędzie wspierające procesy dydaktyczne, pracę naukowo-badawczą, działania na rzecz rozwoju poszczególnych dziedzin i dyscyplin naukowych, a także procesy administracyjne, w tym zarządcze.  

Zdajemy sobie sprawę, że generatywna sztuczna inteligencja, dzięki procesom  jej postępującej demokratyzacji, będzie w coraz większym stopniu wpływała zarówno na oczekiwaną jakość i atrakcyjność procesu kształcenia, doświadczenia edukacyjne i poziom ich immersyjności, a także poziom przystosowania programów nauczania do potrzeb rynku, w tym rynku pracy.

Jesteśmy świadomi wyzwań, jakie stawia przed nami, jako uczelnią wyższą, rozwój narzędzi generatywnej sztucznej inteligencji i konieczności dostosowania, w szczególności, dotychczasowych procesów kształcenia, metod dydaktycznych i narzędzi weryfikacji wiedzy do zmian społecznych i gospodarczych wynikających z rozwoju generatywnej AI, w tym na arenie międzynarodowej.

Uważamy, że narzędzia generatywnej sztucznej inteligencji powinny być jednym z wielu narzędzi technologicznych, jakimi posługują się członkowie naszej społeczności akademickiej.  Powinny one stanowić ich uzupełnienie, nie zaś zamiennik (substytut) przy jednoczesnym zachowaniu określonych ram i wysokich standardów ich wykorzystania w procesach dydaktycznych, naukowo-badawczych i administracyjnych.

Chcemy włączyć się w popularyzację narzędzi generatywnej sztucznej inteligencji i przeciwdziałać negatywnym skutkom jej bezrefleksyjnego i nieetycznego wykorzystania.

Dlatego

  • Zalecamy korzystanie z różnorodnych źródeł pozyskania informacji i generowania treści. Narzędzia generatywnej AI nie powinny być jednak traktowane jako bank wiedzy ani źródło w pełni wiarygodnych i obiektywnych informacji.
  • Biorąc pod uwagę obecne niedoskonałości narzędzi generatywnej AI (np. błędy w generowanych odpowiedziach, ich stronniczość, podatność na wadliwość i ograniczoność źródeł) oraz możliwe nietyczne skutki ich wykorzystania, za konieczne uznaje się weryfikowanie i krytyczne podejście do stworzonych przez nie materiałów.
  • Ze względu na fakt, że sztuczna inteligencja jest coraz bardziej osadzona w naszej codzienności i prowadzi do kształtowania się nowych form współpracy pomiędzy człowiekiem a technologią, narzędzia generatywnej AI, w tym ChatGPT, mogą być jedynie narzędziem wsparcia w nauce, dydaktyce i na etapie prowadzenia badań.
  • Korzystanie z narzędzi generatywnej AI, w tym ChatGPT, które służą do generowania różnych materiałów powinno zawsze łącznie spełniać kryteria:

    zgodności z prawem, w tym z prawem własności intelektualnej, ochrony danych osobowych, prawem do prywatności,
    • zgodności z wartościami etycznymi, w szczególności dobrymi obyczajami akademickimi i standardami rzetelności naukowej, takimi jak sumienność, niezależność, otwartość, odpowiedzialność, przejrzystość. 
     
  • Dla zachowania odpowiedzialności i przejrzystości w korzystaniu z narzędzi generatywnej AI, w tym ChatGPT, można posłużyć się listą kontrolną korzystania z takich narzędzi:

    • analiza poprawności zadanego pytania (prompt),
    • analiza prawidłowości wygenerowanej odpowiedzi,
    • weryfikacja założeń wygenerowanej odpowiedzi,
    • rzetelne ustalenie źródła wygenerowanej odpowiedzi.

    Lista ma pomóc w prawidłowym korzystaniu z narzędzi generatywnej AI, lecz nie ma charakteru wyczerpującego, a jej zakres zależy od kontekstu.
     
  • Ze względu na fakt, że wykorzystanie materiałów generowanych przy wykorzystaniu narzędzia generatywnej AI, w tym ChatGPT, może stanowić naruszenie praw autorskich, zakres ich wykorzystania musi być uzasadniony celem naukowym i/lub dydaktycznym. Odpowiedzialność za wykorzystanie takich materiałów spoczywa zawsze na osobie, która je wykorzystała.
  • Dla celów przejrzystości, konieczne jest wyraźne oznaczanie materiałów wygenerowanych przez narzędzia generatywnej AI, jeśli takie materiały zostaną wykorzystane. Przykładem prawidłowego powołania się na treść wygenerowaną przez ChatGPT jest np.: ChatGPT, odpowiedź na pytanie, „treść pytania”(prompt), chat.openai.com [data dostępu:...]. Taka forma cytowania jest dozwolona wyłącznie w przypadkach, w których pomimo dołożenia najwyższej staranności, nie ma możliwości uzyskania dostępu do oryginalnego źródła treści. W pozostałych przypadkach konieczne jest wskazanie oryginalnych źródeł ich pochodzenia.
  • Istotne jest, aby oznaczenie materiałów wygenerowanych przy wykorzystaniu narzędzi generatywnej AI nie pozostawiało wątpliwości, które słowa, grafiki, obrazy, wyniki badań itp. powstały przy wykorzystaniu tego typu narzędzi.
  • Nie dopuszcza się możliwości korzystania z narzędzi generatywnej AI, w tym w szczególności ChatGPT, podczas egzaminów, w tym egzaminów dyplomowych.
  • Zaleca się stosowanie metod i form zaliczeń oraz egzaminów umożliwiających weryfikację rzeczywistej wiedzy, umiejętności i kompetencji, w tym promowanie rozwiązań kreatywnych i wymagających wieloaspektowego analizowania problemów.
  • Autorem każdej pracy, w której wykorzystano materiały przygotowane przy wykorzystaniu generatywnej sztucznej inteligencji jest osoba, która się nimi posługuje (np. student, 3 pracownik naukowy, pracownik dydaktyczny) i to ona ponosi odpowiedzialność za nietyczne lub niezgodne z prawem wykorzystanie tego typu materiałów.
  • W celu przeciwdziałania potencjalnym nadużyciom wynikającym z niewłaściwego, bezkrytycznego i niezgodnego z prawem wykorzystania narzędzi generatywnej sztucznej inteligencji, w tym ChatGPT, prace studentów będą wyrywkowo weryfikowane za pomocą detektorów sztucznej inteligencji, a student jest zobowiązany do poddania się tej procedurze.
  • Za wykorzystanie narzędzi generatywnej AI w sposób naruszający przepisy obowiązujące w Uniwersytecie Łódzkim, w tym w szczególności za wykorzystanie prowadzące do naruszenia praw autorskich, wyciągane będą w stosunku do pracowników, doktorantów i studentów konsekwencje z tytułu odpowiedzialności dyscyplinarnej na zasadach określonych w przepisach obowiązujących w Uczelni.

Powyższe rekomendacje będą podlegały systematycznej rewizji, aktualizacji i dostosowaniu adekwatnie do zachodzących zmian technologicznych i prawnych.

Rekomendacje zostały przygotowane przez Zespół ds. generatywnej sztucznej inteligencji. 

Komunikatem Rektora Uniwersytetu Łódzkiego z dnia 9.08.2023 r. wprowadzone zostały rekomendacje dotyczące wykorzystania narzędzi generatywnej sztucznej inteligencji w UŁ.