Reklama

Wiadomości

Prof. Zybertowicz dla PAP: ChatGPT to przełom negatywny; następuje przekroczenie bezpiecznej granicy rozwoju technologii

W mojej ocenie to przełom o negatywnym charakterze; następuje bowiem przekroczenie bezpiecznej granicy rozwoju technologii. Można nawet powiedzieć – takie głosy są obecne – że szerokie udostępnienie ChatuGPT to w istocie eksperyment nieetyczny - zauważył w rozmowie z PAP prof. Andrzej Zybertowicz, socjolog i doradca prezydenta RP.

Bądź na bieżąco!

Zapisz się do newslettera

"Zazwyczaj, zanim przeprowadzi się eksperyment na ludziach czy zwierzętach, jego możliwe skutki są obowiązkowo oceniane przez specjalne komisje. W tym przypadku poważna ingerencja w tkankę społeczną całej ludzkości przebiega żywiołowo" - wyjaśnił profesor.„To wypuszczenie w przestrzeń społeczną narzędzia, które potęguje zgiełk informacyjny. Żyjemy w cyfrowej infosferze nasączającej nas każdego dnia strumieniami informacji, które nie układają się w wiedzę, nie układają się w prawdę ani w opowieści sensownie tłumaczące świat. Generowanie kolejnych fal informacji sprzyja dezinformacji rodzącej głębokie spolaryzowanie w wielu krajach. To zaś obok samotności staje się jednym z głównych wyzwań wielu nowoczesnych społeczeństw” – przestrzegł socjolog, mówiąc o zagrożeniach związanych z ChatemGPT.

Chat GPT został opracowany przez amerykańską firmę OpenAI i służy m.in. do tworzenia odpowiedzi na pytania lub polecenia wprowadzane przez jego użytkownika. Potrafi wykonać bardziej złożone zadania, na przykład napisać opowiadanie czy program komputerowy. Wyróżnia się np. tym, że jest w stanie pisać teksty o jakości porównywalnej do treści tworzonych przez utalentowanych ludzi. Wykorzystując techniki głębokiego uczenia się generuje odpowiedzi w czasie rzeczywistym w zależności od przedstawionych mu w pytaniu parametrów.

Pomóż w rozwoju naszego portalu

Wspieram

Reklama

„To narzędzie, które niemal całkowicie unieważnia niektóre ludzkie kompetencje. Przez rozwój sztucznej inteligencji zostają również zaburzone sprawdzone i tradycyjne zasady porządkowania rzeczywistości – np. zdjęcie czy film tracą wartość wiarygodnego źródła informacji o czymś, co obiektywnie zaistniało. Być może jesteśmy też o krok od śmierci sztuki” – ocenił prof. Zybertowicz.

Dodał, że powszechność ChatuGPT może również wpłynąć na osłabienie więzi społecznych i nawet intymnych kontaktów międzyludzkich. „Poza pewnymi przydatnymi funkcjami, które oczywiście istnieją, jest także zabawką atrakcyjniejszą od kontaktów z rówieśnikami, rodzicami czy ludzką kulturą w ogóle” – powiedział rozmówca PAP.

„ChatGPT nie umie (na razie!) odróżnić prawdy od fałszu, nie ma wyczucia rzeczywistości, tworzy jedynie kolejne warstwy rzeczywistości językowej. Ale za pomocą opowieści kompletnie fikcyjnych także można zarządzać ludzką wyobraźnią, mobilizować lub demobilizować do aktywności. Wygląda na to, że niebawem – o ile już się tak nie stało – systemy sztucznej inteligencji będą w stanie tworzyć opowieści o wiele bardziej kuszące, perswazyjnie efektywniejsze, niż to, co potrafią zaoferować ludzie” – zwrócił uwagę profesor.

„Możemy stać się ofiarami albo tych, którzy będą dysponentami systemów sztucznej inteligencji, albo – jeśli się ona zautonomizuje – jej samej. W obu przypadkach oddziaływanie negatywne może być równie silnie” - ostrzegł.

Reklama

Mówiąc o tym, jak należy reagować na możliwie niekontrolowany rozwój technologii, prof. Zybertowicz przypomniał o „podpisanym przez tysiące badaczy apelu o wprowadzenie moratorium, czyli powstrzymanie badań nad sztuczną inteligencją na minimum pół roku, zanim eksperci i politycy zastanowią się, jak dalsze badania można prowadzić w sposób bezpieczny dla ludzkości”.

„Moim zdaniem nie ma obecnie dla ludzkości większego zagrożenia niż niekontrolowany rozwój sztucznej inteligencji. W odróżnieniu od wcześniej budowanych przez ludzkość technologii, ta ma potencjał kompletnego wymknięcia się spod kontroli” – zaznaczył rozmówca PAP.

„W polskich kręgach analitycznych prowadzone są pilne badania. Także w Centrum Badań nad Bezpieczeństwem Akademii Sztuki Wojennej w Warszawie przygotowujemy pogłębiony raport z rekomendacjami dla kierownictwa państwa” – podsumował prof. Zybertowicz.Jakub Bawołek (PAP)

jbw/ jar/

2023-05-27 07:54

Oceń: +3 -2

Reklama

Wybrane dla Ciebie

UODO zaleca ostrożność w korzystaniu z DeepSeek

Urząd Ochrony Danych Osobiwych zaleca ostrożność w korzystaniu z chatbota oraz innych usług oferowanych przez DeepSeek. Dane użytkowników mogą być przechowywane w Chinach, w związku z czym rząd chiński może mieć do nich dostęp - ostrzega UODO.

Usługa darmowego chatbota jest świadczona przez zarejestrowane w Chinach firmy: Hangzhou DeepSeek Artificial Intelligence Co., Ltd. oraz Beijing DeepSeek Artificial Intelligence Co. - wskazał urząd. Dodał, że głównym elementem Deepseek jest model, który w ciągu zaledwie dwóch tygodni został pobrany przez 3,6 mln osób na całym świecie.
CZYTAJ DALEJ

Nowy Papież, stary algorytm. AI nie zna Leona XIV

2025-11-05 15:08

[ TEMATY ]

sztuczna inteligencja

AI

nowy papież

Leon XIV

stary algorytm

Adobe Stock

Choć od wyboru Papieża Leona XIV minęło już kilka miesięcy, niektóre algorytmy sztucznej inteligencji wciąż żyją w przeszłości. Jak zauważa National Catholic Register, popularne czaty wykorzystujące AI - w tym ChatGPT - mają poważny problem z uznaniem nowego Papieża.

Podziel się cytatem - odpowiedział ChatGPT na pytanie NCR o obecnego Papieża.
CZYTAJ DALEJ

Papież spotkał się z prezydentem Palestyny

2025-11-06 13:14

[ TEMATY ]

spotkanie

prezydent Palestyny

Papież Leon XIV

Vatican Media

Papież i prezydent Palestyny

Papież i prezydent Palestyny

Leon XIV przyjął na audiencji prezydenta Palestyny. Rozmawiano o pomocy humanitarnej dla Strefy Gazy oraz o perspektywach zakończenia konfliktu w Ziemi Świętej.

Mahmud Abbas przybył do Watykanu z okazji przypadającej w tym roku (26 czerwca 2015 r.), 10. rocznicy porozumienia między Stolicą Apostolską a państwem palestyńskim.
CZYTAJ DALEJ

Reklama

Najczęściej czytane

REKLAMA

W związku z tym, iż od dnia 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia Dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) uprzejmie Państwa informujemy, iż nasza organizacja, mając szczególnie na względzie bezpieczeństwo danych osobowych, które przetwarza, wdrożyła System Zarządzania Bezpieczeństwem Informacji w rozumieniu odpowiednich polityk ochrony danych (zgodnie z art. 24 ust. 2 przedmiotowego rozporządzenia ogólnego). W celu dochowania należytej staranności w kontekście ochrony danych osobowych, Zarząd Instytutu NIEDZIELA wyznaczył w organizacji Inspektora Ochrony Danych.
Więcej o polityce prywatności czytaj TUTAJ.

Akceptuję