REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

ChatGPT na uczelni - wytyczne. Wskazane krytyczne podejście do generatorów treści i oznaczanie pochodzących z nich informacji

Subskrybuj nas na Youtube
Dołącz do ekspertów Dołącz do grona ekspertów
ChatGPT na uczelni. Trzeba krytycznie podchodzić do generatorów treści i oznaczać pochodzące z nich informacje
ChatGPT na uczelni. Trzeba krytycznie podchodzić do generatorów treści i oznaczać pochodzące z nich informacje
Shutterstock

REKLAMA

REKLAMA

Wykorzystanie generatorów treści typu ChatGPT w pracy badawczej oraz dydaktycznej zawsze powinno być zaznaczone (np. w publikacji), ponieważ powstałe w ten sposób dzieło nie jest autorstwa osoby korzystającej z aplikacji – postulują naukowcy z konsorcjum Cyber Science.

Jak akademicy powinni korzystać z generatorów treści typu ChatGPT?

Propozycje rekomendacji – skierowanych głównie do środowiska akademickiego – zostały przedstawione podczas czwartkowej konferencji na Uniwersytecie Śląskim w Katowicach pt. „#AIChallenger. Biznes, nauka i społeczeństwo w świecie sztucznej inteligencji”.

Opracował je zespół naukowców z konsorcjum naukowo-dydaktycznego Cyber Science, tworzonego przez Uniwersytet Śląski w Katowicach, Naukową i Akademicką Sieć Komputerową – Państwowy Instytut Badawczy NASK, Uniwersytet Ekonomiczny w Katowicach oraz Politechnikę Śląską.

REKLAMA

Definicja generatorów treści typu ChatGPT

Autorzy rekomendacji, na potrzeby ich opracowania, przyjęli definicję „generatorów treści” typu ChatGPT jako aplikację, która jest w stanie, po zadaniu jej odpowiednich kryteriów, samodzielnie wygenerować treść, np. w formie tekstu, obrazu, która może sprawiać wrażenie stworzonej przez człowieka.

Swoboda w korzystaniu z narzędzi informatycznych

W swoich propozycjach naukowcy z Cyber Science podkreślili, że uczelnie powinny gwarantować otwartość naukową i dydaktyczną na nowoczesne narzędzia informatyczne. „Swoboda w korzystaniu z różnych narzędzi informatycznych, w tym takich jak generatory treści, wpisuje się w otwartość naukową nauki i dydaktyki” – podali, dodając, że w pracy badawczej propaguje się różnorodność źródeł i treści.

Krytyczne podejście do źródeł internetowych. Za dane wygenerowane przez generator treści odpowiada człowiek je publikujący

Jednocześnie, uczelnie powinny zalecać krytyczne podejście do źródeł internetowych (w tym – do wiedzy pozyskanej z generatorów treści), a także do wyników uzyskanych przez generatory treści, uwzględniając ryzyko ich stronniczości, podatności na wadliwość źródeł czy błędy w odpowiedziach. „Wykorzystujący generatory treści ponosi osobiście odpowiedzialność za dane opublikowane, a wcześniej wygenerowane przez generator” – czytamy.

Trzeba oznaczać treści pochodzące z generatora treści

Kolejne punkty odnoszą się do poszanowania zasad etycznych, praw autorskich i innych obowiązujących praw. W tym kontekście naukowcy z Cyber Science postulują konieczność każdorazowego wskazywania użycia generatora treści, ponieważ powstałe w ten sposób dzieło nie jest autorstwa osoby, która skorzystała z tego narzędzia.

Dalszy ciąg materiału pod wideo

Trzeba weryfikować prace studentów

Nauczyciele akademiccy powinni uwzględniać możliwość wykorzystywania przez studentów generatorów treści, a co za tym idzie, powinni tak opracowywać testy, egzaminy i inne formy zaliczeń, by umożliwiały one weryfikację rzeczywistej wiedzy studentów. Naukowcy z Cyber Science zalecają także weryfikowanie np. dyplomowych prac studentów, pod względem wykorzystania w nich treści wygenerowanych przez aplikacje.

Konieczne podnoszenie kwalifikacji w zakresie generatorów treści i przeciwdziałanie nadużyciom

Konieczne – zdaniem naukowców z Cyber Science – jest ciągłe podnoszenie kwalifikacji całego środowiska akademickiego w zakresie wykorzystywania generatorów treści, a także propagowanie wiedzy o narzędziach tego typu, w tym zasad etycznych oraz prawnych ich wykorzystania w procesie naukowym i dydaktycznym.

Twórcy rekomendacji postulują ponadto konieczność przeciwdziałania nadużyciom „wykorzystania w pracy naukowej, dydaktycznej czy też w zakresie zaliczania wiedzy przez studentów narzędzi typu generator treści w sposób sprzeczny z przepisami prawa, przepisami wewnętrznymi uczelni oraz zasadami etycznymi oraz niniejszymi wytycznymi”. (PAP)
Agnieszka Kliks-Pudlik
akp/ zan/

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

Źródło: PAP

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Sztuczna inteligencja (AI)
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Dezinformacja bronią XXI wieku. 6 wskazówek jak się przed nią chronić i nie rozpowszechniać „fake newsów”

Manipulowanie informacjami i ingerencja zagraniczna są poważnym zagrożeniem dla społeczeństwa. Fake newsy mogą podważać wiarygodność instytucji i procesów demokratycznych, uniemożliwiając ludziom podejmowanie świadomych decyzji lub zniechęcając ich do głosowania. Komisja Europejska w swoim wzmocnionym komunikacie przedstawia sześć wskazówek, jak wykryć i przeciwdziałać manipulacji informacjami.

12 topowych narzędzi do generowania obrazów AI – przegląd

Sztuczna inteligencja rewolucjonizuje tworzenie grafik, umożliwiając szybkie generowanie realistycznych obrazów, koncepcyjnych ilustracji i wizualizacji produktów – bez potrzeby angażowania grafików czy długiego procesu projektowego. Wszystko zależy od tego, czego potrzebujesz: fotorealizmu, stylizowanych grafik koncepcyjnych, a może prostych ilustracji do mediów społecznościowych? Sprawdź 12 najlepszych generatorów obrazów AI, które pomogą Ci wybrać idealne narzędzie do Twoich kreatywnych projektów.

Legislacja a technologia. Regulowanie odpowiedzialności za sztuczną inteligencję

Pamiętacie "A.I. Sztuczna Inteligencja"? Film Spielberga, w którym robot marzy o byciu chłopcem? Ta wizja przyszłości staje się coraz mniej odległa. Choć maszyny jeszcze nie płaczą, już teraz wkraczają w nasze życie, podejmując decyzje w biznesie i przemyśle. To rewolucja, ale z jednym "ale": kto odpowiada za błędy tych cyfrowych mózgów?

Prawo sztucznej inteligencji: co pominięto w AI Act i projekcie polskiej ustawy. Gdzie szukać przepisów o AI jeżeli nie ma ich w AI Act ani w polskiej implementacji?

Sam AI Act jako mimo że jest rozporządzeniem unijnym i nie wymaga implementacji do przepisów prawa danego państwa członkowskiego, tak jak Dyrektywy unijne, to jednak wymaga uzupełnienia w prawie krajowym – co polski ustawodawca już zauważył. Obecnie prace nad taką ustawą (Projekt ustawy o systemach sztucznej inteligencji) są prowadzone, a wynik prac legislacyjnych możemy znaleźć tu: https://legislacja.rcl.gov.pl/projekt/12390551 . Dodatkowo wcześniej opracowano również projekt ustawy o związkach zawodowych mający na celu zapewnienie właściwego informowania pracowników o wykorzystywaniu AI. Te akty prawne w mojej ocenie regulują głównie działania developerów AI oraz relacje między nimi a organami państwowymi i użytkownikami. TO czego ewidentnie brakuje, to regulacji sytuacji prawnej użytkowników i ich relacji z pozostałymi osobami. Czy to oznacza, że nie jest ona uregulowana w prawie?

REKLAMA

Sztuczna inteligencja (AI) - pierwsze europejskie regulacje prawne

W obecnych czasach jesteśmy świadkami kolejnego przełomowego wydarzenia na miarę rewolucji przemysłowej z XVIII wieku oraz nie tak odległej rewolucji cyfrowej. Mowa o sztucznej inteligencji AI (ang. artificial intelligence).

DeepSeek – szansa czy zagrożenie dla rozwoju AI?

Sztuczna inteligencja (AI) dynamicznie zmienia świat biznesu, wnosząc innowacje. Jednym z nich jest DeepSeek – technologia, która budzi zarówno entuzjazm, jak i obawy. Czy DeepSeek to szansa na rozwój AI, czy może zagrożenie dla przedsiębiorców? Jaką rolę odgrywa odpowiedzialne podejście do korzystania z tej technologii?

AI i automatyzacja w sektorze finansowym [WYWIAD]

Jak nowe technologie wpływają na pracę banków? Czy klienci powinni obawiać się o swoje pieniądze? Jak sztuczna inteligencja już teraz wspomaga pracę sektora finansowanego? Na pytania odpowiada Aleksander Kania Lider UiPath w Polsce.

Robot zamiast człowieka w nawigacji Google Maps. Nie usłyszymy już Jarosława Juszkiewicza

Ostatnio pisaliśmy o audycjach radiowych generowanych przez sztuczną inteligencję, a teraz przyszedł czas na robota zamiast człowieka w nawigacji Google Maps.

REKLAMA

Sztuczna inteligencja – AI zaczyna być użytecznym pomocnikiem pracowników na coraz większej liczbie stanowisk pracy

Sztuczna inteligencja automatyzuje procesy, odciąża z rutynowych obowiązków i pomaga w kreatywnych zadaniach. Pracownicy uwolnieni z potrzeby wykonywania czasochłonnych, nudnych i powtarzalnych czynności mają więcej czasu na myślenie koncepcyjne i kreację.

Przejmij kontrolę nad sztuczną inteligencją – a AI w firmie. Jak w praktyce stosować przepisy AI Act

Przepisy regulujące korzystanie ze sztucznej inteligencji przez firmy, tak zwany AI Act, weszły w życie 1 sierpnia 2024 r. Ich celem jest wspieranie biznesu w odpowiedzialnym wdrażaniu oraz rozwoju AI, uwzględniając podnoszenie poziomu bezpieczeństwa obywateli Unii Europejskiej.

REKLAMA