niedziela, 16 kwietnia 2023
Nie znaleźliśmy żadnych wyników
Pokaż wszystko
Radio Zachód
  • WIADOMOŚCI
    • LUBUSKIE
    • GOŚĆ RADIA ZACHÓD
    • KRAJ I ŚWIAT
    • KULTURA
    • NA DROGACH
    • #FAKENEWS STOP
  • SPORT
  • MUZYKA
  • REPORTAŻ
  • TV
  • PODCASTY
  • RADIO
    • RAMÓWKA
    • LUDZIE RADIA
    • PATRONAT MEDIALNY
    • REGULAMINY
    • KONTAKT
  • REKLAMA
LOGO, Radio Zielona GóraLOGO, Radio GorzówLOGO, Zachod24.pl

SŁUCHAJ

Radio Zachód
  • WIADOMOŚCI
    • LUBUSKIE
    • GOŚĆ RADIA ZACHÓD
    • KRAJ I ŚWIAT
    • KULTURA
    • NA DROGACH
    • #FAKENEWS STOP
  • SPORT
  • MUZYKA
  • REPORTAŻ
  • TV
  • PODCASTY
  • RADIO
    • RAMÓWKA
    • LUDZIE RADIA
    • PATRONAT MEDIALNY
    • REGULAMINY
    • KONTAKT
  • REKLAMA
Radio Zachód
Strona główna KRAJ I ŚWIAT

Sztuczna inteligencja – Terminator czy raczej Dziki Zachód?

PAP PAP
2023-04-16 08:49
Sztuczna inteligencja - Terminator czy raczej Dziki Zachód? Radio Zachód - Lubuskie
Udostępnij na FacebookuUdostępnij na TwitterzeUdostępnij na telegramieUdostępnij przez WhatsappaEmail

Nie sądzę, by martwienie się scenariuszem rodem z filmu „Terminator” było pożyteczne, ale widzimy, że obecny rozwój sztucznej inteligencji wystarczy, by zrewolucjonizować świat – mówi PAP prof. Aleksander Mądry, badacz AI z Massachusetts Institute of Technology (MIT). Ostrzega jednak, że pozostawienie świata AI bez regulacji, niczym Dzikiego Zachodu może przynieść daleko idące konsekwencje.

Ponad tysiąc inwestorów, badaczy i ekspertów od sztucznej inteligencji podpisało w marcu list otwarty wzywający do wstrzymania prac nad najbardziej zaawansowanymi modelami sztucznej inteligencji. Autorzy listu zwrócili uwagę zarówno na krótkoterminowe i przyziemne ryzyka związane z nieokiełznanym wyścigiem o coraz potężniejsze modele AI, takie jak potencjalna masowa utrata pracy czy zalew dezinformacji, jak i na „zastąpienie ludzi przez maszyny”, a nawet „utratę kontroli nad cywilizacją”.

Polski informatyk prof. Aleksander Mądry, szef ośrodka Deployable Machine Learning na MIT w marcu odpowiadał na te i inne pytania związane z rozwojem AI, w tym m.in. na to, czy nie obawia się „scenariusza z Terminatora” podczas wysłuchania przed podkomisją amerykańskiej Izby Reprezentantów ds. nadzoru.

Jak ocenia w rozmowie z PAP, choć problemem związanym z zagrożeniami „superinteligencją” czy AGI (ogólnej sztucznej inteligencji) zajmują się poważni ludzie, to obecnie wciąż jest to odległa perspektywa. Tymczasem istnieją znacznie pilniejsze problemy.

„Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko” – mówi badacz. „To z pewnością możliwa przyszłość, ale nie sądzę, by obecnie była to najbardziej produktywna rzecz, którą powinno zajmować się państwo” – dodaje.

Jak jednak zaznacza, postęp, który widzieliśmy do tej pory wystarczy, by zmienić świat w niemal każdej dziedzinie. I podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.

Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób wielkie modele językowe (LLM), takie jak ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak na bazie podstawowych modeli będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i „łańcuch dostaw AI” – uzupełnia naukowiec.

Wynika to z tego, że interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. Jak zaznacza badacz, taki ekosystem już się tworzy i można spodziewać się eksplozji różnych zastosowań AI.

„Nie jest do końca jasne, jak wyglądają te interakcje między różnymi modelami. Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+” – tłumaczy rozmówca PAP. Dodaje, że może to wywołać bardzo konkretne i trudne do rozwiązania konsekwencje.

„Może być tak, że cała ta kompozycja złożona z różnych modeli popełni jakiś poważny w skutkach błąd, nawet jeśli te pojedyncze komponenty nie popełniły osobno żadnego. I teraz pojawi się pytanie: kto ma za to odpowiadać?” – mówi prof. Mądry. Zaznacza przy tym, że choć problem „halucynacji” i błędów modeli takich jak ChatGPT da się poprawić, to wyeliminowanie ich może być bardzo trudne.

Jak dodaje, w tym kontekście niepokojący był ruch obecnego lidera wyścigu AI, firmy OpenAI, by wraz z wypuszczeniem najnowszego modelu, GPT-4, skończyć z modelem „open source” i zamknąć dostęp do wewnętrznych danych programu dla badaczy z zewnątrz.

„Musimy zacząć poważnie myśleć, jaki może być tu realistyczny model dla otwarcia tej +czarnej skrzynki+. Może to wymagać znacznych wysiłków publicznych” – ocenia Mądry. Dopowiada, że brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google’a Blake’a Lemoine’a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.

„Jeśli nie widzimy, jak coś działa, zaczynamy to antropomorfizować, bo faktycznie można odnieść wrażenie, że rozmawiamy z człowiekiem. Myślę, że to bardzo niebezpieczny błąd poznawczy. Choć w pewnym sensie rozmawiamy z człowiekiem, bo to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie. Warto pamiętać, że te maszyny mówią jak człowiek, bo takie jest ich zadanie próbować uczyć się mówić jak człowiek, opierając się na potężnej bazie danych i tekstów” – wyjaśnia badacz. Jak dodaje, choć modele LLM są w stanie „myśleć”, czyli dochodzić do logicznych konkluzji, to są to zwykle płytkie myśli.

„Oczywiście, te narzędzia są niesamowicie zdumiewające. Jestem nimi bardzo podekscytowany i lubię z nimi pracować. Ale musimy przestać myśleć o nich jak o ludziach. One nie są świadome” – zaznacza profesor.

Jego zdaniem, z wyścigiem firm rozwijających systemy AI, wiąże się kilka zagrożeń. Wyjaśnia, że ponieważ tworzenie dużych modeli sztucznej inteligencji wymaga dużych środków i inwestycji, oznacza to, że kluczowy obszar gospodarki i życia może leżeć w rękach kilku największych graczy.

„Myślę też, że należałoby pomyśleć, czy na przykład rząd USA powinien mieć własny model. Bo przecież nie może polegać na tym, że zawsze będzie miał do dyspozycji te z OpenAI czy Google’a” – mówi Mądry.

Poza tym – argumentuje badacz – jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

Jak dodaje, to samo tyczy się rywalizację USA z Chinami, która dodatkowo wywiera presję na szybkie, choć niekoniecznie dobrze przemyślane postępy.

„Mój argument jest taki, że jeśli nie stworzymy sztucznej inteligencji, która odzwierciedla nasze wartości, gdy odrzucimy kwestie etyczne i kwestie praw na bok, to już przegramy. Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. Więc jakie to jest zwycięstwo?” – pyta ekspert. I nawołuje do stworzenia regulacji – zaczynając od dobrowolnych +najlepszych praktyk+ i dialogu – by uniknąć błędów z przeszłości.

„Pesymistyczny scenariusz jest taki, że nic się nie zrobi: że będzie tak, jak z mediami społecznościowymi, których zadaniem jest maksymalizacja zysku bez względów na szersze efekty. To będzie taki +Dziki Zachód+. Dlatego ja muszę być optymistą, bo jeśli nic się nie zdarzy, to będzie bardzo źle” – przyznaje profesor.

 

Czytaj również

fot. Pixabay
Lubuski Szlak Natury

Lubuski Szlak Natury 16.04.2023

16 kwietnia 2023

Kwietniowe prace w ogrodzie ozdobnym. Pielęgnacja forsycji i oleandrów. Eko-warsztaty w gminie Szczaniec. Dziś, jak co tydzień, kilka interesujących tematów...

W Słowiańsku Rosjanie zniszczyli 30 bloków, zginęło 11 osób Radio Zachód - Lubuskie
KRAJ I ŚWIAT

W Słowiańsku Rosjanie zniszczyli 30 bloków, zginęło 11 osób

16 kwietnia 2023

Pod gruzami budynków ostrzelanych w piątek przez rosyjskie wojsko w Słowiańsku na wschodzie Ukrainy jeszcze są ciała ofiar - poinformował...

Fot. PAP/EPA
KRAJ I ŚWIAT

Niemcy zamykają ostatnie elektrownie atomowe

16 kwietnia 2023

Niemcy zamykają w sobotę ostatnie działające w kraju elektrownie atomowe. "Wyjście z atomu czyni nasz kraj bezpieczniejszym. (…) Wkraczamy w nową erę...

Fot. facebook.com/MorawieckiPL
KRAJ I ŚWIAT

Będzie zawiadomienie o podejrzeniu popełnienia przestępstwa przeprowadzenia zamachu na L. Kaczyńskiego i morderstwa 95 osób

16 kwietnia 2023

Podkomisja smoleńska złoży zawiadomienie o podejrzeniu popełnienia przestępstwa polegającego na przeprowadzeniu zamachu na życie prezydenta Lecha Kaczyńskiego oraz morderstwa pozostałych...

Niedźwiadki wyraźnie lepsze od SKM-u Radio Zachód - Lubuskie
SPORT

Niedźwiadki wyraźnie lepsze od SKM-u

15 kwietnia 2023

Koszykarze Aldemedu SKM-u Zastalu Zielona Góra przegrali w Przemyśli z Niedźwiadkami 51:86 w pierwszym meczu II rundy play off II...

Wyjazdowe zwycięstwa Zewu i Trójki. Przegrał AZS Radio Zachód - Lubuskie
SPORT

Wyjazdowe zwycięstwa Zewu i Trójki. Przegrał AZS

15 kwietnia 2023

W I lidze szczypiornistów dokładnie w grupie B wszystkie lubuskie zespoły grały w sobotę swoje spotkania na wyjazdach. Dwa z...

najnowsze z Lubuskiego

Niedźwiadki wyraźnie lepsze od SKM-u

Wyjazdowe zwycięstwa Zewu i Trójki. Przegrał AZS

Porażki Olimpii i Astry. Derby dla Iwanickich

Turnieje półfinałowe: W sobotę wygrały tylko zielonogórskie siatkarki

Nieważne kto prowadzi przez cały mecz. Ważne kto go wygrywa

RT zdominowało Watahę w młynie

Hala w Gubinie gotowa na 100 procent

Lechia wraca z punktem

Mecz jak pogoda, ale Warta trzy punkty ma

Stilon podbił Kluczbork

popularne

  • Fot. Radio Zielona Góra

    Zmarł zastępca naczelnika zielonogórskiej drogówki. Policjant miał 42 lata

    0 udost.
    Udostępnij 0 Tweet 0
  • W nocy, w środku lasu zepsuł mu się rower. Za pomoc dziękuje policjantom z Międzyrzecza

    0 udost.
    Udostępnij 0 Tweet 0
  • W Lubuskiem nie zdobędziesz prawa jazdy. Egzaminatorzy WORD w Zielonej Górze i Gorzowie Wlkp. nie stawiają się do pracy

    0 udost.
    Udostępnij 0 Tweet 0
  • Poznaj twarze Radia Zachód

    0 udost.
    Udostępnij 0 Tweet 0
  • Myśliwi i uczniowie z Lipinek Łużyckich posadzili drzewa

    0 udost.
    Udostępnij 0 Tweet 0

FACEBOOK
TWITTER
YOUTUBE
INSTAGRAM
RSS
LOGO, Radio Zachód, Informacje, Lubuskie, 103 i 106 FM

Polskie Radio Regionalna Rozgłośnia w Zielonej Górze
Radio Zachód S.A.

ul. Kukułcza 1
65-472 Zielona Góra

  • BIP
  • Reklama
  • Formularz kontaktowy
  • Cookies i polityka prywatności
  • Archiwum
Copyright © Polskie Radio Regionalna Rozgłośnia w Zielonej Górze Radio Zachód S.A. 2022.

Nie znaleźliśmy żadnych wyników
Pokaż wszystko
  • WIADOMOŚCI
    • LUBUSKIE
    • KRAJ I ŚWIAT
    • GOŚĆ RADIA ZACHÓD
    • KULTURA
    • NA DROGACH
    • #FAKENEWS STOP
  • SPORT
  • MUZYKA
  • REPORTAŻ
  • TV
  • PODCASTY
  • RADIO
    • RAMÓWKA
    • LUDZIE RADIA
    • PATRONAT MEDIALNY
    • REKLAMA
    • REGULAMINY
    • KONTAKT
  • ZIELONA GÓRA
  • GORZÓW
  • ZACHÓD24

Copyright © Polskie Radio Regionalna Rozgłośnia w Zielonej Górze Radio Zachód S.A. 2022.

Ta witryna wykorzystuje pliki cookie. Kontynuując przeglądanie wyrażasz zgodę na ich używanie. Zachęcamy do odwiedzenia naszej strony Polityki prywatności.
Skip to content
Open toolbar Narzędzia ułatwień

Narzędzia ułatwień

  • Powiększ tekstPowiększ tekst
  • Zmniejsz tekstZmniejsz tekst
  • KontrastKontrast
  • NegatywNegatyw
  • Podkreślone linkiPodkreślone linki
  • Czcionka alternatywnaCzcionka alternatywna
  • Reset Reset