Reklama

Wiadomości

Prof. Zybertowicz dla PAP: ChatGPT to przełom negatywny; następuje przekroczenie bezpiecznej granicy rozwoju technologii

W mojej ocenie to przełom o negatywnym charakterze; następuje bowiem przekroczenie bezpiecznej granicy rozwoju technologii. Można nawet powiedzieć – takie głosy są obecne – że szerokie udostępnienie ChatuGPT to w istocie eksperyment nieetyczny - zauważył w rozmowie z PAP prof. Andrzej Zybertowicz, socjolog i doradca prezydenta RP.

Bądź na bieżąco!

Zapisz się do newslettera

"Zazwyczaj, zanim przeprowadzi się eksperyment na ludziach czy zwierzętach, jego możliwe skutki są obowiązkowo oceniane przez specjalne komisje. W tym przypadku poważna ingerencja w tkankę społeczną całej ludzkości przebiega żywiołowo" - wyjaśnił profesor.„To wypuszczenie w przestrzeń społeczną narzędzia, które potęguje zgiełk informacyjny. Żyjemy w cyfrowej infosferze nasączającej nas każdego dnia strumieniami informacji, które nie układają się w wiedzę, nie układają się w prawdę ani w opowieści sensownie tłumaczące świat. Generowanie kolejnych fal informacji sprzyja dezinformacji rodzącej głębokie spolaryzowanie w wielu krajach. To zaś obok samotności staje się jednym z głównych wyzwań wielu nowoczesnych społeczeństw” – przestrzegł socjolog, mówiąc o zagrożeniach związanych z ChatemGPT.

Chat GPT został opracowany przez amerykańską firmę OpenAI i służy m.in. do tworzenia odpowiedzi na pytania lub polecenia wprowadzane przez jego użytkownika. Potrafi wykonać bardziej złożone zadania, na przykład napisać opowiadanie czy program komputerowy. Wyróżnia się np. tym, że jest w stanie pisać teksty o jakości porównywalnej do treści tworzonych przez utalentowanych ludzi. Wykorzystując techniki głębokiego uczenia się generuje odpowiedzi w czasie rzeczywistym w zależności od przedstawionych mu w pytaniu parametrów.

Pomóż w rozwoju naszego portalu

Wspieram

„To narzędzie, które niemal całkowicie unieważnia niektóre ludzkie kompetencje. Przez rozwój sztucznej inteligencji zostają również zaburzone sprawdzone i tradycyjne zasady porządkowania rzeczywistości – np. zdjęcie czy film tracą wartość wiarygodnego źródła informacji o czymś, co obiektywnie zaistniało. Być może jesteśmy też o krok od śmierci sztuki” – ocenił prof. Zybertowicz.

Dodał, że powszechność ChatuGPT może również wpłynąć na osłabienie więzi społecznych i nawet intymnych kontaktów międzyludzkich. „Poza pewnymi przydatnymi funkcjami, które oczywiście istnieją, jest także zabawką atrakcyjniejszą od kontaktów z rówieśnikami, rodzicami czy ludzką kulturą w ogóle” – powiedział rozmówca PAP.

Reklama

„ChatGPT nie umie (na razie!) odróżnić prawdy od fałszu, nie ma wyczucia rzeczywistości, tworzy jedynie kolejne warstwy rzeczywistości językowej. Ale za pomocą opowieści kompletnie fikcyjnych także można zarządzać ludzką wyobraźnią, mobilizować lub demobilizować do aktywności. Wygląda na to, że niebawem – o ile już się tak nie stało – systemy sztucznej inteligencji będą w stanie tworzyć opowieści o wiele bardziej kuszące, perswazyjnie efektywniejsze, niż to, co potrafią zaoferować ludzie” – zwrócił uwagę profesor.

„Możemy stać się ofiarami albo tych, którzy będą dysponentami systemów sztucznej inteligencji, albo – jeśli się ona zautonomizuje – jej samej. W obu przypadkach oddziaływanie negatywne może być równie silnie” - ostrzegł.

Mówiąc o tym, jak należy reagować na możliwie niekontrolowany rozwój technologii, prof. Zybertowicz przypomniał o „podpisanym przez tysiące badaczy apelu o wprowadzenie moratorium, czyli powstrzymanie badań nad sztuczną inteligencją na minimum pół roku, zanim eksperci i politycy zastanowią się, jak dalsze badania można prowadzić w sposób bezpieczny dla ludzkości”.

„Moim zdaniem nie ma obecnie dla ludzkości większego zagrożenia niż niekontrolowany rozwój sztucznej inteligencji. W odróżnieniu od wcześniej budowanych przez ludzkość technologii, ta ma potencjał kompletnego wymknięcia się spod kontroli” – zaznaczył rozmówca PAP.

„W polskich kręgach analitycznych prowadzone są pilne badania. Także w Centrum Badań nad Bezpieczeństwem Akademii Sztuki Wojennej w Warszawie przygotowujemy pogłębiony raport z rekomendacjami dla kierownictwa państwa” – podsumował prof. Zybertowicz.Jakub Bawołek (PAP)

jbw/ jar/

2023-05-27 07:54

Ocena: +3 -2

Reklama

Wybrane dla Ciebie

Wojny na algorytmy – nowe wyzwanie dla cyberbezpieczeństwa

Piosenka puszczona w radio może spowodować serię katastrof w ruchu drogowym lub wyciek poufnych danych bankowych. O tym, jak można oszukać asystentów głosowych i wprowadzić w błąd autonomiczne pojazdy, telefony i urządzenia, które same się uczą – pisze w nagrodzonej pracy doktorant Wojskowej Akademii Technicznej.

Od sztucznej inteligencji może zależeć nasze życie, jeśli jest zastosowana w medycynie, albo w autonomicznych pojazdach. A jednak łatwo da się oszukać maszyny – dowodzi Łukasz Tymoszuk. Drogą do “złośliwej” ingerencji jest budowanie systemów-hakerów, które same szukają sobie niewidocznych uchylonych drzwi.

CZYTAJ DALEJ

Projekt nowelizacji "uelastyczniającej" organizację lekcji religii lub etyki

2024-04-30 12:22

[ TEMATY ]

katecheza

Karol Porwich/Niedziela

Do konsultacji publicznych skierowany został projekt nowelizacji rozporządzenia, który "uelastycznia" możliwość organizacji nauki religii i etyki. Łatwiej niż dotychczas będzie można tworzyć grupy dzieci z różnych roczników i oddziałów klasowych.

Chodzi o projekt nowelizacji rozporządzenia ministra edukacji w sprawie warunków i sposobu organizowania nauki religii w publicznych przedszkolach i szkołach. Treść projektu opublikowano we wtorek na stronie internetowej Rządowego Centrum Legislacji.

CZYTAJ DALEJ

#PodcastUmajony: Bez przesady!

2024-04-30 21:13

[ TEMATY ]

Ks. Tomasz Podlewski

#PodcastUmajony

Mat.prasowy

Po co Jezus dał nam Maryję? Jak budować z Nią relację? Czy da się przesadzić w miłości do Matki Bożej? Tymi i innymi przemyśleniami dzieli się w swoim podcaście ks. Tomasz Podlewski. Zapraszamy do wysłuchania pierwszego odcinka "Podcastu umajonego".

CZYTAJ DALEJ

Reklama

Najczęściej czytane

W związku z tym, iż od dnia 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia Dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) uprzejmie Państwa informujemy, iż nasza organizacja, mając szczególnie na względzie bezpieczeństwo danych osobowych, które przetwarza, wdrożyła System Zarządzania Bezpieczeństwem Informacji w rozumieniu odpowiednich polityk ochrony danych (zgodnie z art. 24 ust. 2 przedmiotowego rozporządzenia ogólnego). W celu dochowania należytej staranności w kontekście ochrony danych osobowych, Zarząd Instytutu NIEDZIELA wyznaczył w organizacji Inspektora Ochrony Danych.
Więcej o polityce prywatności czytaj TUTAJ.

Akceptuję