REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Interfejs mózg–komputer to nie to samo co interfejs komputer–mózg. Rozmowa z prof. Szczepanem Paszkielem

Subskrybuj nas na Youtube
Dołącz do ekspertów Dołącz do grona ekspertów
Interfejs komputer–mózg pozwoli na to, że maszyna będzie oddziaływać na człowieka, wpływać na podejmowane przez niego decyzje
shutterstock

REKLAMA

REKLAMA

Wszczepiany do mózgu czip Neuralink ma wejść w fazę badań z udziałem ludzi. Z pomocą rezonansu magnetycznego naukowcy odczytują już całkiem dokładnie, o czym myśli dana osoba. O potencjalnych korzyściach i zagrożeniach związanych z czytaniem pracy ludzkiego mózgu opowiada dr hab. inż. Szczepan Paszkiel z Politechniki Opolskiej.

Świat obiegła właśnie wiadomość, że Neuralink został w USA dopuszczony do badań na ludziach. Czy to bezpieczna technologia?

REKLAMA

Wspomniana technologia bazuje na tym, że do mózgu człowieka wszczepia się pewne czujniki, przy czym chodzi o zrealizowanie interfejsu mózg–komputer. Ponieważ trzeba dostać się do wnętrza organizmu człowieka, podejście to budzi kontrowersje. Trzeba dokonać ingerencji w organizm, aby ten układ wszczepić, nie można też go, tak po prostu odłączyć. Elektronika może się przy tym nagrzewać w czasie pracy i spowodować uszkodzenia w ujęciu biologicznym. Niniejsze problemy mogą być jednak minimalizowane. Warto jednak nadmienić, iż stosując tę technologię, można też liczyć na wiele korzyści.

Jakich?

Technologia ta powstała przede wszystkim po to, aby wspierać osoby z różnego rodzaju niepełnosprawnościami, szczególnie te, które nie mogą korzystać z kończyn górnych, ani dolnych. Taka osoba może, mimo sprawnego mózgu, czuć się uwięziona w swoim ciele. W tym zakresie chodzi tym samym o odczytywanie aktywności mózgu i sterowanie za jej pomocą różnymi urządzeniami.

Czy taki ktoś poprowadzi samochód?

Dalszy ciąg materiału pod wideo

Mówimy raczej o zmianie kanałów w telewizorze, sterowaniu komputerem, robotem odkurzającym, czy urządzeniami w tzw. inteligentnym domu. Sterowanie samochodem byłoby bardzo wymagające. Mogłaby wystarczyć chwila dekoncentracji, aby doszło do tragedii. Jednak były robione i takie badania z całkiem dobrymi wynikami. W podobny sposób podejmowano próby sterowania dronami. Nie korzystano przy tym jeszcze z wszczepianych implantów, a z headsetów umieszczanych na głowie oraz wielu innych, dodatkowych, umieszczanych na ciele czujników.

Zatem niekoniecznie trzeba przedostawać się do wnętrza głowy, aby połączyć mózg z maszynami?

Dzięki implantom takim jak Neuralink pokonuje się główne przeszkody, które stoją na drodze sygnału płynącego z mózgu do elektroniki. Mowa o czaszce, skórze czy włosach. Implant umożliwia więc dużo dokładniejsze odczytywanie aktywności mózgu. We wcześniejszych eksperymentach z takimi technologiami pojawiały się jednak spore problemy.

Co ma pan na myśli?

Jeden z najważniejszych jest taki, że w miejscu wszczepienia elektrod pojawiały się tzw. owrzodzenia. Wtedy, mimo że na początku sygnał był odczytywany doskonale, później jego jakość znacznie słabła.

Nieinwazyjne metody wydają się więc dużo bezpieczniejsze…

Technologia taka rozwijana jest od kilkudziesięciu lat i ma coraz większe możliwości. Nad takim podejściem pracuje właśnie mój zespół z Politechniki Opolskiej.

W ubiegłym roku rozpocząłem realizację projektu naukowego finansowanego z Narodowego Centrum Nauki w zakresie badań pilotażowych dotyczących zastosowania systemu treningowego opartego na obrazowaniu motorycznym w zakresie sterowania obiektami rzeczywistymi. W przypadku metody nieinwazyjnej elektrody mocuje się do skóry głowy i z ich pomocą odczytuje się elektryczną aktywność mózgu, czyli tzw. EEG. Odbierany sygnał biegnie do niewielkiego urządzenia, które można umieścić np. przy pasku. Trzeba jednak jeszcze pokonać kilka przeszkód. Jedną z nich są artefakty techniczne, które powstają z powodu wspomnianych barier na drodze sygnału. Na odczyt wpływać mogą też zewnętrzne zakłócenia, a także sygnały płynące z organizmu (tzw. artefakty biologiczne) – choćby związane z pracą serca, oddechem, a nawet mruganiem powiekami. W niniejszym zakresie można jednak zauważyć na przestrzeni lat kolejne postępy – w tym dokładniejsze algorytmy filtrujące, które coraz lepiej radzą sobie z usuwaniem z sygnału różnych zakłóceń.

Porozmawiajmy o zagrożeniach innych niż medyczne. Czy dostrzega pan jakieś niebezpieczeństwa?

Zwróciłbym w pierwszej kolejności uwagę na te, które wiążą się z wszczepianymi do organizmu chipami. Z założenia ma powstać interfejs mózg–komputer. Jednak niektórzy obawiają się odwrócenia sytuacji i powstania interfejsu komputer–mózg, w którym to maszyna może oddziaływać na człowieka, wpływać na podejmowane przez niego decyzje. Takie badania są nawet prowadzone, choć w dobrej wierze i na razie z wykorzystaniem metod nieinwazyjnych.

Jaki jest ich cel?

Chodzi na przykład o pomoc osobom z różnymi zaburzeniami, choćby z ADHD. Najpierw sczytuje się u dziecka sygnał pochodzący z jego mózgu w czasie, gdy jest ono poddawane działaniu różnych bodźców, np. wizualnych w specjalnej komputerowej grze. Na podstawie analizy tych sygnałów później, w sprzężeniu zwrotnym, wpływa się na aktywność mózgu dziecka, poprzez odpowiednią w tym zakresie stymulację graficzną, wymuszoną koncentrację w grze, etc. (tzw. Biofeedback EEG). Warto też zwrócić uwagę na neuromarketing.

Co to takiego?

Kiedyś działanie reklam analizowało się z pomocą ankiet i nadal, w niektórych przypadkach jest to w ten sposób realizowane. Niemniej jednak obecnie możliwe jest też bezpośrednie badanie reakcji na nie, wprost z mózgów ochotników. To pozwala kreować reklamy czy inne przekazy, które jeszcze silniej będą oddziaływałyby na człowieka. Z rozwojem tego typu technologii działanie na klienta może jeszcze zyskać na sile.

A czy nie może kiedyś nastąpić taki moment, że stan ludzkiego mózgu, choćby jego nastawienie, będzie odczytywane zdalnie, na przykład w sklepie?

REKLAMA

To niestety, albo na szczęście się raczej nie wydarzy. Po pierwsze dlatego, że mierzone sygnały są niezwykle słabe (mają wartości kilkunastu mikrowoltów), więc elektrody muszą znaleźć się bezpośrednio na głowie. Po drugie, jak już wspomniałem, metody te są wyjątkowo czułe na zakłócenia, których, w typowym otoczeniu człowieka jest mnóstwo. Zdalnej obserwacji pracy mózgu człowieka bym się więc nie obawiał.

A co z implantami? Czy z pomocą Neuralinka, czy innego, podobnego urządzenia nie dałoby się sprawdzać, o czym dany człowiek myśli? To byłoby chyba ostateczne zagrożenie dla prywatności.

Czasami studenci na zajęciach ze sterowania obiektami przy pomocy technologii BCI (ang. Brain Computer Interfaces) pytają mnie, czy jak założą na głowę headset do EEG, to będę wiedział, o czym myślą. Oczywiście tego się nie da w ten sposób zrobić. Podobnie wszczepialne chipy nie czytają dokładnie wnętrza umysłu człowieka – jego myśli – w sposób jeden do jednego. Wychwytują tylko pewne stany mózgu z ograniczoną dokładnością, a nie myśli w znaczeniu kognitywnym. Nawet osoba z wszczepionym implantem, tylko do sterowania jakimś urządzeniem, np. komputerem będzie potrzebowała specjalnego treningu oraz kalibracji ze sprzętem.

Jednak niedawno naukowcy z University of Texa w Austin dosyć precyzyjnie zdołali odczytywać ludzkie myśli, choć dokonali tego z pomocą zajmującego wiele miejsca, drogiego urządzenia do rezonansu magnetycznego.

Takie badania wiążą się z ogromnymi kosztami, nie mówiąc już o stopniu skomplikowania całego procesu. Ochotnik musi właściwie cały wejść do skanera do funkcjonalnego rezonansu magnetycznego (fMRI), czy pozytronowej tomografii emisyjnej (PET). Takich urządzeń w mojej opinii nigdy nie zminiaturyzujemy. Z punktu widzenia komercyjnego nie będą więc przydatne. Takie prace mogą natomiast okazać się pomocne z punktu widzenia medycznego.

Jak tego typu technologie, pana zdaniem, będą więc się rozwijały w najbliższej przyszłości i co zaoferuje? Pokusi się pan o prognozę na kolejne 5–10 lat?

REKLAMA

Technologie nieinwazyjne muszą pokonać jeszcze kilka wyraźnych barier związanych z dokładnością i usuwaniem szumów w mierzonych sygnałach EEG w przypadku, kiedy mówimy o technologii BCI bazującej na tym źródle sygnału. Jednak z czasem takie headsety mogłyby powszechnie pomagać niepełnosprawnym, a nawet stać się tak popularne, jak dzisiejsze ekrany dotykowe. Kiedyś używało się fizycznej klawiatury w telefonach, a za jakiś czas może będzie się nimi sterowało z pomocą myśli.

Jeśli chodzi o metody inwazyjne, są dużo one dokładniejsze, ale skomplikowane. Przed ich wprowadzeniem potrzebne są badania kliniczne za zgodą komisji bioetyki. Podobnie ich wszczepianie jest ściśle regulowane. Nie mówimy przecież o aparacie słuchowym, który zakłada się na ucho, tylko o urządzeniu, które bezpośrednio łączy się z mózgiem. Takie urządzenia mogą wejść do użycia, ale raczej jako wsparcie dla wybranej grupy pacjentów.(PAP)

Rozmawiał Marek Matacz

Dr hab. inż. Szczepan Paszkiel jest profesorem na Wydziale Elektrotechniki, Automatyki i Informatyki Politechniki Opolskiej. W swojej pracy naukowej zajmuje się przede wszystkim badaniami nad interfejsami mózg–komputer. Piastuje także stanowisko Associate Editor w periodyku „IET Science, Measurement & Technology” oraz Deputy Editor w czasopiśmie Neuroscience Informatics wydawnictwa Elsevier.

 

Oprac. Piotr T. Szymański
Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

Źródło: PAP

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Sztuczna inteligencja (AI)
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Prawo sztucznej inteligencji: co pominięto w AI Act i projekcie polskiej ustawy. Gdzie szukać przepisów o AI jeżeli nie ma ich w AI Act ani w polskiej implementacji?

Sam AI Act jako mimo że jest rozporządzeniem unijnym i nie wymaga implementacji do przepisów prawa danego państwa członkowskiego, tak jak Dyrektywy unijne, to jednak wymaga uzupełnienia w prawie krajowym – co polski ustawodawca już zauważył. Obecnie prace nad taką ustawą (Projekt ustawy o systemach sztucznej inteligencji) są prowadzone, a wynik prac legislacyjnych możemy znaleźć tu: https://legislacja.rcl.gov.pl/projekt/12390551 . Dodatkowo wcześniej opracowano również projekt ustawy o związkach zawodowych mający na celu zapewnienie właściwego informowania pracowników o wykorzystywaniu AI. Te akty prawne w mojej ocenie regulują głównie działania developerów AI oraz relacje między nimi a organami państwowymi i użytkownikami. TO czego ewidentnie brakuje, to regulacji sytuacji prawnej użytkowników i ich relacji z pozostałymi osobami. Czy to oznacza, że nie jest ona uregulowana w prawie?

Sztuczna inteligencja (AI) - pierwsze europejskie regulacje prawne

W obecnych czasach jesteśmy świadkami kolejnego przełomowego wydarzenia na miarę rewolucji przemysłowej z XVIII wieku oraz nie tak odległej rewolucji cyfrowej. Mowa o sztucznej inteligencji AI (ang. artificial intelligence).

DeepSeek – szansa czy zagrożenie dla rozwoju AI?

Sztuczna inteligencja (AI) dynamicznie zmienia świat biznesu, wnosząc innowacje. Jednym z nich jest DeepSeek – technologia, która budzi zarówno entuzjazm, jak i obawy. Czy DeepSeek to szansa na rozwój AI, czy może zagrożenie dla przedsiębiorców? Jaką rolę odgrywa odpowiedzialne podejście do korzystania z tej technologii?

AI i automatyzacja w sektorze finansowym [WYWIAD]

Jak nowe technologie wpływają na pracę banków? Czy klienci powinni obawiać się o swoje pieniądze? Jak sztuczna inteligencja już teraz wspomaga pracę sektora finansowanego? Na pytania odpowiada Aleksander Kania Lider UiPath w Polsce.

REKLAMA

Robot zamiast człowieka w nawigacji Google Maps. Nie usłyszymy już Jarosława Juszkiewicza

Ostatnio pisaliśmy o audycjach radiowych generowanych przez sztuczną inteligencję, a teraz przyszedł czas na robota zamiast człowieka w nawigacji Google Maps.

Sztuczna inteligencja – AI zaczyna być użytecznym pomocnikiem pracowników na coraz większej liczbie stanowisk pracy

Sztuczna inteligencja automatyzuje procesy, odciąża z rutynowych obowiązków i pomaga w kreatywnych zadaniach. Pracownicy uwolnieni z potrzeby wykonywania czasochłonnych, nudnych i powtarzalnych czynności mają więcej czasu na myślenie koncepcyjne i kreację.

Przejmij kontrolę nad sztuczną inteligencją – a AI w firmie. Jak w praktyce stosować przepisy AI Act

Przepisy regulujące korzystanie ze sztucznej inteligencji przez firmy, tak zwany AI Act, weszły w życie 1 sierpnia 2024 r. Ich celem jest wspieranie biznesu w odpowiedzialnym wdrażaniu oraz rozwoju AI, uwzględniając podnoszenie poziomu bezpieczeństwa obywateli Unii Europejskiej.

Sztuczna inteligencja w nowoczesnym biznesie

W dobie cyfryzacji, sztuczna inteligencja (AI) staje się nieodłącznym elementem strategii biznesowych firm na całym świecie. Jej rola w zwiększaniu efektywności i produktywności zespołów jest nieoceniona. AI rewolucjonizuje codzienne operacje zarówno na poziomie indywidualnym, jak i zespołowym.

REKLAMA

AI w biznesie. Większość firm ogranicza się do pilotażów i eksperymentów

AI ma być najbardziej dochodowym sektorem w gospodarce globalnej w ogóle, obok przemysłu zbrojeniowego. Tymczasem na obecnym etapie sektor biznesu wyraża ostrożne zainteresowanie sztuczną inteligencją. Okazuje się bowiem, że większość firm ogranicza się do pilotażów i eksperymentowania.

AI w Polsce do 2030 roku jak 4,9 mln osób. Wartość produkcyjna: 90 mld USD rocznie [prognoza]

Wśród beneficjentów AI znajdzie się Polska, która może zyskać nawet 90 mld dolarów rocznie. Polska znalazła się na siódmym miejscu wśród gospodarek z UE, USA, Wielkiej Brytanii i Szwajcarii o najwyższej rocznej zdolności produkcyjnej wytworzonej dzięki wsparciu tej technologii - wynika z raportu firmy EY. Podano, że AI pozwoli osiągnąć w Polsce wartość produkcyjną odpowiadającą pracy 4,9 mln osób.

REKLAMA