ChatGPT na uczelni - wytyczne. Wskazane krytyczne podejście do generatorów treści i oznaczanie pochodzących z nich informacji

ChatGPT na uczelni. Trzeba krytycznie podchodzić do generatorów treści i oznaczać pochodzące z nich informacje / Shutterstock

Wykorzystanie generatorów treści typu ChatGPT w pracy badawczej oraz dydaktycznej zawsze powinno być zaznaczone (np. w publikacji), ponieważ powstałe w ten sposób dzieło nie jest autorstwa osoby korzystającej z aplikacji – postulują naukowcy z konsorcjum Cyber Science.

Jak akademicy powinni korzystać z generatorów treści typu ChatGPT?

Propozycje rekomendacji – skierowanych głównie do środowiska akademickiego – zostały przedstawione podczas czwartkowej konferencji na Uniwersytecie Śląskim w Katowicach pt. „#AIChallenger. Biznes, nauka i społeczeństwo w świecie sztucznej inteligencji”.

Opracował je zespół naukowców z konsorcjum naukowo-dydaktycznego Cyber Science, tworzonego przez Uniwersytet Śląski w Katowicach, Naukową i Akademicką Sieć Komputerową – Państwowy Instytut Badawczy NASK, Uniwersytet Ekonomiczny w Katowicach oraz Politechnikę Śląską.

Definicja generatorów treści typu ChatGPT

Autorzy rekomendacji, na potrzeby ich opracowania, przyjęli definicję „generatorów treści” typu ChatGPT jako aplikację, która jest w stanie, po zadaniu jej odpowiednich kryteriów, samodzielnie wygenerować treść, np. w formie tekstu, obrazu, która może sprawiać wrażenie stworzonej przez człowieka.

Swoboda w korzystaniu z narzędzi informatycznych

W swoich propozycjach naukowcy z Cyber Science podkreślili, że uczelnie powinny gwarantować otwartość naukową i dydaktyczną na nowoczesne narzędzia informatyczne. „Swoboda w korzystaniu z różnych narzędzi informatycznych, w tym takich jak generatory treści, wpisuje się w otwartość naukową nauki i dydaktyki” – podali, dodając, że w pracy badawczej propaguje się różnorodność źródeł i treści.

Krytyczne podejście do źródeł internetowych. Za dane wygenerowane przez generator treści odpowiada człowiek je publikujący

Jednocześnie, uczelnie powinny zalecać krytyczne podejście do źródeł internetowych (w tym – do wiedzy pozyskanej z generatorów treści), a także do wyników uzyskanych przez generatory treści, uwzględniając ryzyko ich stronniczości, podatności na wadliwość źródeł czy błędy w odpowiedziach. „Wykorzystujący generatory treści ponosi osobiście odpowiedzialność za dane opublikowane, a wcześniej wygenerowane przez generator” – czytamy.

Trzeba oznaczać treści pochodzące z generatora treści

Kolejne punkty odnoszą się do poszanowania zasad etycznych, praw autorskich i innych obowiązujących praw. W tym kontekście naukowcy z Cyber Science postulują konieczność każdorazowego wskazywania użycia generatora treści, ponieważ powstałe w ten sposób dzieło nie jest autorstwa osoby, która skorzystała z tego narzędzia.

Trzeba weryfikować prace studentów

Nauczyciele akademiccy powinni uwzględniać możliwość wykorzystywania przez studentów generatorów treści, a co za tym idzie, powinni tak opracowywać testy, egzaminy i inne formy zaliczeń, by umożliwiały one weryfikację rzeczywistej wiedzy studentów. Naukowcy z Cyber Science zalecają także weryfikowanie np. dyplomowych prac studentów, pod względem wykorzystania w nich treści wygenerowanych przez aplikacje.

Konieczne podnoszenie kwalifikacji w zakresie generatorów treści i przeciwdziałanie nadużyciom

Konieczne – zdaniem naukowców z Cyber Science – jest ciągłe podnoszenie kwalifikacji całego środowiska akademickiego w zakresie wykorzystywania generatorów treści, a także propagowanie wiedzy o narzędziach tego typu, w tym zasad etycznych oraz prawnych ich wykorzystania w procesie naukowym i dydaktycznym.

Twórcy rekomendacji postulują ponadto konieczność przeciwdziałania nadużyciom „wykorzystania w pracy naukowej, dydaktycznej czy też w zakresie zaliczania wiedzy przez studentów narzędzi typu generator treści w sposób sprzeczny z przepisami prawa, przepisami wewnętrznymi uczelni oraz zasadami etycznymi oraz niniejszymi wytycznymi”. (PAP)
Agnieszka Kliks-Pudlik
akp/ zan/

oprac. Paweł Huczko
rozwiń więcej
Sztuczna inteligencja (AI)
Trzeba pilnie dokonać implementacji! Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI)
02 kwi 2024

Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI). Ministerstwo Cyfryzacji przygotowało kilka pytań - trwają prekonsultacje. Podkreśla się, że to pierwsze na świecie prawo, które w tak złożony a zarazem kompleksowy sposób rozwiązuje problemy, które nawarstwiały się od wielu, wielu lat związane z rozwojem sztucznej inteligencji. Płaszczyzn tych problemów jest wiele: od prawa do ochrony wizerunku, danych, odpowiedzialności za błędy sztucznej inteligencji (cywilnej, administracyjnej i karnej), praw pracowniczych, po prawa konsumenckie, autorskie i własności przemysłowej. Nowe unijne prawo wymaga wdrożenia w państwach członkowskich UE, w Polsce trwają więc prace nad implementacją. Są one jednak na początkowym etapie.

Microsoft Copilot, czyli jak AI zmieni codzienny workflow w Microsoft 365
27 mar 2024

Microsoft Copilot to innowacyjne narzędzie oparte na sztucznej inteligencji, które zmienia sposób, w jaki firmy na całym świecie realizują swoje zadania w ramach pakietu Microsoft 365. Według raportu Microsoft "The Future of Work", aż 70% wczesnych użytkowników Copilot zgłasza wzrost produktywności, a 68% odnotowuje znaczącą poprawę jakości swojej pracy. Warto bliżej przyjrzeć się temu narzędziu i zrozumieć, jak działa oraz jakie korzyści może przynieść wdrożenie go do w firmie.

Przełom dla ludzkości, praw człowieka i robotów - podpisano rozporządzenie w sprawie sztucznej inteligencji
13 mar 2024

Trzeba stanowczo stwierdzić, że to przełom dla ludzkości, przełom dla praw człowieka, przełom dla pracowników i przełom dla robotów oraz automatyzacji. W dniu 13 marca 2024 r. podpisano rozporządzenie w sprawie sztucznej inteligencji, AI (Artificial Intelligence Act). To pierwszy w UE tego typu akt. Był bardzo wyczekiwany przez prawników, pracowników, wielkie koncerny, przedsiębiorców ale i po prostu obywateli. 

W tych zawodach sztuczna inteligencja nam nie zagraża
13 mar 2024

Międzynarodowy Fundusz Walutowy szacuje, że rozwój sztucznej inteligencji zmniejszy liczbę miejsc pracy nawet o 40%. W dużej części będą to pracownicy umysłowi. A jakie zawody nie są zagrożone przez sztuczną inteligencję?

Polacy wciąż boją się, ze sztuczna inteligencja zabierze im pracę
04 mar 2024

Już prawie 60 proc. Polaków obawia się wpływu sztucznej inteligencji na przyszłość swojego stanowiska pracy. To dane z raportu Polskiej Agencji Rozwoju Przedsiębiorczości (PARP) „Rynek pracy, edukacja, kompetencje – styczeń 2024”. Pracownik przyszłości powinien umieć efektywnie wykorzystać możliwości oferowane przez AI. 

77% placówek medycznych doświadczyło ataków na pocztę elektroniczną. Jak chronić dane pacjentów?
22 lut 2024

Od 2022 r. podwoiły się ataki ransomware na organizacje działające w obszarze ochrony zdrowia. Tak wynika z raportu Barracuda Networks. Respondenci jednak nie czują się zagrożeni. 

Czy sztuczna inteligencja jest szkodliwa dla środowiska?
22 lut 2024

Rozwój sztucznej inteligencji nie pozostaje bez wpływu na czerpanie zasobów energii i generowanie śladu węglowego. Dlaczego? 

Czy sztuczna inteligencja namiesza w tegorocznych wyborach?
19 lut 2024

Najgłośniejszym tematem 2023 roku była sztuczna inteligencja. Generatywna AI jest niewątpliwie najszybciej rozwijającym się obszarem sztucznej inteligencji. Czy w tym roku można spodziewać się przełomów? Co z tegorocznymi wyborami pod okiem AI? 

Pracownicy nie wiedzą, czy w ich firmach korzysta się ze sztucznej inteligencji
02 lut 2024

Sztuczna inteligencja jednocześnie fascynuje i budzi obawy. Na rynku pracy są one związane z możliwą utratą miejsca pracy czy zmianami w strukturze zatrudnienia. Tym bardziej, że pracownicy często nie wiedzą, czy w ich firmach wykorzystuje się AI. 

Jak wykorzystać Gen. AI w biznesie? [10 zasadniczych kroków] Czy umiejętność korzystania ze sztucznej inteligencji daje przewagę konkurencyjną już teraz?
01 lut 2024

W dynamicznym świecie biznesu innowacje odgrywają kluczową rolę. Sztuczna inteligencja (AI) staje się rewolucyjnym narzędziem, zmieniającym sposób, w jaki firmy funkcjonują i konkurują na rynku. Rozwój generatywnych modeli sztucznej inteligencji, takich jak ChatGPT, stał się punktem zwrotnym dla liderów biznesu, wyznaczając nowe standardy w dziedzinie technologii. W odpowiedzi na ten trend Lazarski University of Technology wprowadza innowacyjny program "Gen AI dla Biznesu", który nie tylko dostarcza teoretycznej wiedzy o sztucznej inteligencji, ale skupia się też na jej praktycznym wykorzystaniu w biznesie. Uczestnicy zdobędą nie tylko wiedzę, ale i niezbędne narzędzia do efektywnego wykorzystania AI w celu rozwijania innowacji i wzmacniania przewagi konkurencyjnej swoich firm.

pokaż więcej
Proszę czekać...