Czy sztuczna inteligencja może doprowadzić do wyginięcia ludzkości?
REKLAMA
REKLAMA
- AI bardziej inteligentna niż ludzie
- Ryzyko egzystencjalne
- Potrzeba kontrolowania sztucznej inteligencji
Clifford, który pomaga premierowi w utworzeniu rządowej grupy zadaniowej ds. sztucznej inteligencji, powiedział, że jeśli ludzkość nie znajdzie sposobu na kontrolowanie tej technologii, decydenci powinni być przygotowani na szereg zagrożeń, od cyberataków po tworzenie broni biologicznej.
REKLAMA
AI bardziej inteligentna niż ludzie
REKLAMA
"Jeśli spróbujemy stworzyć sztuczną inteligencję, która jest bardziej inteligentna niż ludzie i nie będziemy wiedzieć, jak ją kontrolować, to stworzy to potencjał dla wszelkiego rodzaju zagrożeń teraz i w przyszłości. Słuszne, że powinno to być bardzo wysoko w programach rządzących" - powiedział w rozmowie z TalkTV. Jak dodał, tym co go w obecnej sytuacji najbardziej niepokoi, to fakt, że "ludzie, którzy budują najbardziej wydajne systemy (sztucznej inteligencji), swobodnie przyznają, że nie rozumieją dokładnie, w jaki sposób przejawiają one takie zachowania, jakie przejawiają".
Clifford został zapytany m.in. o oświadczenie podpisane w zeszłym tygodniu przez ponad 350 ekspertów zajmujących się sztuczną inteligencją, w tym szefa OpenAI, firmy odpowiedzialnej za stworzenie ChatGPT, w którym ostrzegli oni, że w dłuższej perspektywie istnieje również ryzyko, że technologia ta może doprowadzić do wyginięcia ludzkości.
Ryzyko egzystencjalne
"Ryzyko egzystencjalne, o którym jak sądzę, mówili autorzy listu, dotyczy tego (...), co się stanie, gdy skutecznie stworzymy nowy gatunek, inteligencję, która jest większa niż ludzka" - powiedział. Zapytany, w jakim czasie może to nastąpić, odparł, że spektrum czasowe wśród ekspertów od sztucznej inteligencji jest bardzo szerokie, ale w najbardziej skrajnej obecnie perspektywie, może to się stać w ciągu dwóch lat. Zastrzegł jednak, że nie ma na myśli zniszczenia całej ludzkości, lecz zdolności do zabijania wielu ludzi, a także, że niektórzy eksperci mówią o dekadach.
Potrzeba kontrolowania sztucznej inteligencji
Clifford dodał, że te dwa lata to czas, w którym ludzkość musi znaleźć sposób na skuteczne kontrolowanie sztucznej inteligencji, zanim stanie się ona niemożliwa do opanowania. Podkreślił też, że sztuczna inteligencja ma potencjał, by stać się przytłaczającą siłą dobra - pod warunkiem, że znajdziemy sposoby na jej kontrolowanie. "Jeśli wszystko pójdzie dobrze, można sobie wyobrazić sztuczną inteligencję leczącą choroby, zwiększającą produktywność gospodarki, pomagającą nam osiągnąć gospodarkę neutralną pod względem emisji dwutlenku węgla" - powiedział.
Z Londynu Bartłomiej Niedziński
REKLAMA
REKLAMA