-

Andrzej-z-Gdanska

Umiemy tresować AI, ale nie wiemy, jak AI robi to, co robi. To jest ten dramat.

Profesor Andrzej Dragan jest fizykiem i mówi ściśle, bo tak został ukształtowany jako naukowiec. I to jest dobre, ponieważ nie „buja w obłokach”. Zaletą wywiadu jest także to, że nie epatuje słownictwem znanym wąskiemu kręgowi naukowców i przez to jest zrozumiałe co mówi zwykłym ludziom. Wadą tego wywiadu jest fakt, że profesor Dragan mówi szybko jak „karabin maszynowy” – przynajmniej ja tak to odbieram i czasami trudno go zrozumieć.

Tytuł wywiadu:

Prof. Andrzej Dragan: Umiemy tresować AI, ale nie wiemy, jak AI robi to, co robi. To jest ten dramat.

Redaktor radia WNET, Łukasz Jankowski : Naszym gościem jest Andrzej Dragan, fizyk teoretyczny, a także fotograf, wykładowca akademicki z Uniwersytetu Warszawskiego. Co Pan profesor czuje kiedy myśli o AI?

Artificial Intelligence = AI = sztuczna inteligencja

Prof. Andrzej Dragan: To nie ma znaczenia co ja czuję jak o tym myślę. Jedno od drugiego jest odklejone. Przynajmniej powinno być odklejone.

Redaktor radia WNET, Łukasz Jankowski : A jest?

Prof. Andrzej Dragan: Trzeba włożyć pewien wysiłek, żeby odklejać emocje od tego co się uważa i staram się ten wysiłek wkładać, bo emocje ludźmi targają, ale to specjalnie do niczego nie prowadzi w takiej dyskusji na temat faktów. Fakty są takie, że dzieje się coś bardzo ciekawego. Żyjemy chyba w najciekawszych czasach w jakich ludzie dotąd żyli i dramat jest tylko taki, że następne będą jeszcze ciekawsze.

Redaktor radia WNET, Łukasz Jankowski: Sztuczna inteligencja będzie miała emocje, ma emocje?

Prof. Andrzej Dragan: Chyba nie ma jeszcze żadnych emocji, bo nawet nie wiem co to są emocje. Same się nie zrobią (emocje w AI). Musimy najpierw zrozumieć co to jest; przynajmniej w przybliżeniu i dopiero wtedy będzie można myśleć o implementowaniu tego. To są narzędzia, które realizują to co chcemy, żeby realizowały.

Redaktor radia WNET, Łukasz Jankowski : Zacząłem od tych emocji, bo tutaj wiele osób mówi, że to jest ta różnica, że oczywiście, maszyny* są od nas lepsze, głębokie sieci neuronowe już lepiej tworzą język, żeby się posługiwać naszym językiem, czy to jest polski czy angielski – bez różnicy, ale nie mają jeszcze uczuć. Czy to jest to co nas odróżnia od tej innej inteligencji?

Prof. Andrzej Dragan: No tak. Nie mają też kończyn i innych wypustek w organizmie – tyle rzeczy nas różni. Sposób w jaki one konstruują język też jest inny niż to jak my to robimy. Podobieństwa są tylko powierzchowne. Nie wiem czy emocje są potrzebne w tym momencie do czegokolwiek i czy są jakoś specjalnie definiujące czy ważne. W momencie jak się staną ważne i przydatne to pewnie to się pomyśli jak je skonstruować. Natomiast w tym momencie nie wiadomo jaka byłaby korzyść albo brak korzyści z tego, że te emocje są albo ich nie ma.

Redaktor radia WNET, Łukasz Jankowski : Wtedy można by rozmawiać ze sztuczną inteligencją jak z kolegą.

Prof. Andrzej Dragan: Można (rozmawiać) już teraz, bo ona może takie emocje udawać i robi to bardzo dobrze. To akurat jest teraz na poziomie nastolatka elokwentnego, ale też idzie w takim tempie naprzód, że za chwilę to będzie na poziomie laureata nagrody Nobla w literaturze.

Redaktor radia WNET, Łukasz Jankowski: Będzie nas rozumieć, albo nam się będzie wydawać ,że AI, Chat GPT nas rozumie, nas lubi, z nami się dogaduje?

Wg Wiki:

Chat GPT – chatbot opracowany przez firmę OpenAI, wykorzystujący model GPT i służący do generowania odpowiedzi na dane wprowadzane przez użytkownika. Model ten został opracowany na podstawie dużych zbiorów danych, tak aby mógł prowadzić rozmowę i angażować się w różne tematy, od ogólnych rozmów po określone obszary wiedzy.

Chatbot, chatterbot, linguabot – program komputerowy, którego zadaniem jest prowadzenie konwersacji z udziałem komputera, który replikuje zachowania ludzkie, np. automatyzując odpowiedzi na powtarzalne pytania. Najprostsze boty wykorzystują schematy blokowe.

Prof. Andrzej Dragan: To są zupełnie różne rzeczy co Pan mówi: lubi, dogaduje się, a rozumie to są zupełnie różne sprawy. Jak się sprawdza czy fizyk coś rozumie to się sprawdza czy on potrafi przewidzieć co się wydarzy w jakimś eksperymencie, np. czy ja jakieś zjawisko rozumiem tzn. czy ja potrafię jakieś zjawisko kontrolować, spowodować aby stało się to albo tamto. W tym sensie ponieważ algorytmy doskonale nami manipulują i spowodowały, że  „skrolujemy” (scroll=przewijamy) ekrany przez czas parę rzędów większy niż to było jeszcze niedawno. W pewnym sensie nas rozumieją. Natomiast nie ma w tym udziału żadnej świadomości, jakiś emocji. To jest po prostu dostrzeżenie, że jeżeli zrobimy coś to ten organizm „skrolujący” (przewijający) zrobi tamto.

Redaktor radia WNET, Łukasz Jankowski : Wie jak my będziemy się zachowywać, wie czego potrzebujemy.

Prof. Andrzej Dragan: Dajemy się manipulować algorytmom już teraz. Są bardzo ciekawe prace Michała Kosińskiego (chyba ze Stanfordu). On badał jak niewiele trzeba wiedzy o naszych intelektach w sieciach społecznościowych, żeby przewidywać cechy naszego charakteru, czy uczyć się cech naszych osobowości. Bardzo niewiele danych wystarczy, żeby się sporo o nas dowiedzieć, a my dalej zostawiamy bardzo dużo informacji o sobie. Algorytmy przewidują, analizują o wiele lepiej niż jakikolwiek statystyk.

Redaktor radia WNET, Łukasz Jankowski : Profesor Michał Kosiński nawet przeliczał na „lajki”, że 420 „lajków”, które zostawimy AI wystarczy, żeby ona znała nas znała tak dobrze jak rodzic.

Prof. Andrzej Dragan: Badania są trochę podkoloryzowane, ale efekt z całą pewnością jakiś jest. Najlepszy dowód empiryczny jest taki, że siedzimy i „skrolujemy”, „skrolujemy” i to jest właśnie zasługa sprytnych algorytmów, które wiedzą co nam podsunąć, żebyśmy chcieli to oglądać.

Redaktor radia WNET, Łukasz Jankowski: Znowu wracam do tych emocji, bo ten algorytm nam podsuwa, ale przecież nie robi tego przynajmniej na razie, z jakimś głębszym celem. Czy takie dostał zadanie i je wykonuje?

Prof. Andrzej Dragan: Zgadza się.

Redaktor radia WNET, Łukasz Jankowski: Nie ma tej auto świadomości? To jest kolejne pytanie związane z emocjami.

Prof. Andrzej Dragan: Pojawia się wątpliwość. Bardzo ciekawego wywiadu udzielił profesor Wodzisław Duch na ten temat. To jest pytanie jak definiujemy pojęcia których używamy: emocje, świadomość. Pan nie ma zielonego pojęcia co to jest, bo większość ludzi nie ma zielonego pojęcia. Chyba nikt nie ma pojęcia co to jest. Można to sobie jakoś definiować. Jest jakaś definicja, którą zdefiniował jakiś filozof średniowieczny, że świadomość to jest taka umiejętność obserwacji swoich stanów wewnętrznych. Nie wiem czy to jest definicja świadomości, czy tylko warunek konieczny, żeby świadomość istniała. Natomiast ten warunek obserwowania stanów wewnętrznych niektóre algorytmy spełniają. Wodzisław Duch twierdził, że na tej podstawie można powiedzieć, że one są w stanie w pewnym sensie świadome. Jam mam wątpliwości, bo w tym sensie, jak wezmę pętlę logiczną w jakimś programie i wyposażę ją w warunek „if” (jeśli), to też w pewnym sensie obserwuje swoje stany wewnętrzne. Spełnia formalną definicję tylko nie wiadomo jaka jest dobra definicja.

Redaktor radia WNET, Łukasz Jankowski: Krzysztof Meissner powiedział o tym pytaniu: ja jestem. Czy pan profesor w ogóle patrząc na sieci neuronowe, AI może wytworzyć odpowiedź na pytanie czy ona zadaje sobie pytanie: czy ja jestem, czy ja istnieję?

Prof. Andrzej Dragan: Ludzie takie eksperymenty robią; nawet wiele zwierząt przechodzi tzw. test „lustra”. Zwierzęciu przykleja się kropkę na czole, one tej kropki nie widzą, ale jak spojrzą w lustro to widzą, że w odbiciu jest jakiś stwór, podobny do mnie, z taką kropką i niektóre zwierzęta łapią się za swoje własne czoło, żeby sprawdzić, czy to jest ich kropka. To jest przykładem pokazującym, że niektóre zwierzęta mają świadomość swojego istnienia, swojej roli w sieci, itd. W jakimś ograniczonym sensie, to jest stopniowalne. Z całą pewnością nie jest to cecha, ograniczona do ludzi. Algorytmy zapewne na tym etapie nie mają czegoś takiego w ogóle, dlatego, że nawet, tak jak powiedziałem, same dekrety się nie zrobią. Wiele rzeczy potrafimy zrobić, żeby robiły się same, ale akurat to nam się jeszcze nie udało. Chyba można powiedzieć, że póki co takich rzeczy nie ma jeszcze. Takich rzeczy algorytmy jeszcze nie mają.

Redaktor radia WNET, Łukasz Jankowski: Nie ma lustra, nie ma kropki, którą można by przyczepić…

Prof. Andrzej Dragan: Testy można robić. Można sobie wymyślać analogiczny test dla algorytmu AI i to pewnie byłby bardzo ciekawy test. Podejrzewam, że te istniejące algorytmy go nie przejdą. Jeśli chodzi o te najbardziej popularne sieci językowe, te duże modele językowe, które się używa, one są na bazie tzw. transformerów. To są takie struktury, trochę drzewowe, w tych schematach połączeń, które są liniowe, tzn. jak wchodzi jakiś sygnał to przychodzi w jednym kierunku i wychodzi na drugim końcu takiej sieci. Natomiast to  oznacza, że ta sieć nie ma żadnych stanów wewnętrznych. Tam nie ma niczego co jest jakąś chwilową pamięcią, jakimś zapętleniem. Output (wyjście) takiej sieci nie zależy od tego w jakim jest ona stanie wewnętrznym, bo tych stanów wewnętrznych nie ma; to zależy tylko od inputu (wejścia). Natomiast, żeby mówić o jakichkolwiek złożonych procesach kognitywnych, takich jak uczucia, czy świadomość, coś co Pan mówił, ja nie wiem co to znaczy, ale wiem, że warunkiem koniecznym, żeby istnieć, jest to, żeby w tej głowie, z tyłu nosa były jakieś zapętlenia, rekurencje w taki sposób, żebym ja za każdym razem mógł reagować inaczej na strumień danych wejściowych, bo jak mam zły humor to reaguję inaczej niż jak mam dobry humor. Jak mam taką intencję to zrobię coś innego niż jak mam inną intencję w takich samych okolicznościach. Transformery nie mają takich pojemników na stany wewnętrzne, więc tam z całą pewnością warunek konieczny, żeby o tym myśleć nie jest spełniony.

Redaktor radia WNET, Łukasz Jankowski: Jasne, ale to znowu Pan profesor użył słowa „humor”, to Chat GPT 4 dostępny komercyjnie, ma „humory”, czy ona żadnych „humorów” mieć nie może?

Prof. Andrzej Dragan: Ma poczucie humoru okazuje się. Takie wersje, które nie są Panu udostępnione, czy tam śmiertelnikom, tylko są w zamkniętym obiegu pokazywane. One na przykład potrafią analizować obrazy. Są takie eksperymenty: pokazano Chatowi GPT rysunek i zapytali czy jest w tym coś śmiesznego i on wskazywał na innych rysunkach coś śmiesznego, np. był taki rysunek, na którym ktoś podłączył Iphone’a wtyczką do ładowania, ale taką co ma port VGA, taki do drukarki, czy jakimś dużym  portem i to było ewidentnie niepasujące i Chat GPT uznał to za śmieszne i wytłumaczył dlaczego. Zaawansowane modele potrafią już wykazać się pewnymi zalążkami czegoś co by można poczuciem humoru. Co prawda, jak się go zapyta o to, żeby wymyślił jakiś dowcip to uszy więdną. Przypuszczam, że jedną z najbardziej intratnych aplikacji jakich należy się spodziewać lada miesiąc czy rok – cholera wie, to będzie asystent personalny, który będzie taką sztuczną inteligencją, tylko twoją własną, która zna ciebie doskonale. Bada cały przepływ informacji przez twój telefon. Ma jakieś sygnały wewnętrzne gdzie jesteś, co robisz itd. i podpowiada niepytany co warto zrobić: tu jest coś fajnego, tam jest coś fajnego. Prowadzi dyskusję  uczy się takiej osoby. Każdy pewnie chciałby mieć takiego asystenta, inteligentniejszego od wszystkich znajomych dookoła, który nie gada głupot, tylko mówi sensowne rzeczy. Rozwiązuje jakieś choroby, ewentualnie i odpowiada na jakieś problemy i ma inicjatywę. Każdy by coś takiego chciał, a jak dużo ludzi coś chce to się znajdzie firma, która coś takiego dostarczy. Jest to dostępne w technologicznym zasięgu.

Redaktor radia WNET, Łukasz Jankowski: Pan profesor nie tylko fizyką się zajmuje, też gdzieś tam bawił się, pracował przy tworzeniu algorytmów, przy pisaniu algorytmów. Dla Pana obecne sieci neuronowe to jest czarna skrzynka, czy Pan mniej więcej rozumie co się tam dzieje?

Prof. Andrzej Dragan: Nawet ostatnio używałem sieć neuronową jak robiłem deepfake* na potrzeby kampanii reklamowej. Podmienialiśmy sobie wideo-twarze jedna na drugą; to wyszło całkiem ciekawie. Dawno temu programowałem jeszcze „prehistoryczne” wersje AI, coś w rodzaju prymitywnych algorytmów genetycznych, które ewoluowały i wybierały strategie, które były optymalne z jakiegoś powodu. Jeśli chodzi o rozumienie to sprawa jest ciekawa. Powtarzam to do upadłego. To jest ciekawy test na to czy dana osoba, która słucha tego i rzeczywiście rozumie to co robi czy nie. Mówię o ludziach z branży IT, którzy jak to słyszą, część z nich dostaje palpitacji. My nie mamy zielonego pojęcia jaki jest mechanizm działania algorytmów, które tworzymy. My w ogóle nie wiemy jak one działają. Te duże sieci językowe, modele językowe działają w sposób, którego nikt zupełnie nie rozumie. To co my rozumiemy, to rozumiemy mechanizm uczenia maszynowego czyli algorytmu dochodzenia schematu iteracyjnego, który taką sieć szkoli. Jest kilka trików. Z grubsza biorąc jest to taka skomplikowana metoda, trochę uogólniona metoda gry w ciepło i zimno. W najbardziej prymitywnej wersji mamy zbiór połączeń synoptycznych takiej sieci i one na początku są losowe. Potem je trochę modyfikujemy, patrzymy co się poprawiło, co się pogorszyło. Jak się poprawiło to idziemy dalej, jak się pogorszyło to się cofamy i tak sobie gramy w ciepło i zimno. Nie chodzimy po powierzchni pokojów w dwóch wymiarach tylko jak np. w Chat GPT 3.5 w 170 miliardach wymiarów. Wymaga to trochę więcej pomyślunku jak zrobić, żeby taka procedura była zbieżna. Są tam jeszcze jakieś usprawnienia jak propagacja wsteczna i inne schematy uczenia tych transformerów. My wiemy jak zaprogramować iteracyjnie proces uczenia. W efekcie tego w tą grę w ciepło i zimno, w końcu znajdujemy algorytm w tym pokoju, w którym przeszukujemy i on nagle robi to co chcemy i to całkiem nieźle. Jak on to robi, jak ten nieszczęsny algorytm to przewiduje, następne słowo, robiąc to lepiej niż człowiek. Jak on to robi, to co robi – tego nikt nie wie. Są jeszcze tacy ludzie, do których to nie dociera, to proponuję, żeby udowodnić, że nie mam racji, żeby napisali program w Assemblerze czy w jakimś języku wysokiego poziomu C++ lub Python czy czymkolwiek, który algorytmicznie skonstruuje to co robi ta duża sieć. Nikt tego nie potrafi zrobić i każdy świadomy człowiek zajmujący się branżą IT, który zna się na uczeniu maszynowym i np. zna książkę Ian Goodfellow, Yoshua Bengio, Aaron Courville „Deep learning”… To jest bardzo ciekawe, że po 100 stronach nudnych jak algebra liniowa, tam jest, tam gdzie się zaczyna to mięso, ta zasadnicza treść, to pierwsze zdanie tej książki jest takie, że uczenie maszynowe to jest taka metoda rozwiązywania problemów, których człowiek konwencjonalnymi metodami nie jest w stanie zaprojektować, nie potrafi.

Uczenie maszynowe to jest taka metoda robienia programów, które nie rozumiem jak działają i nie potrafilibyśmy ich zapisać w formie algorytmu, bo takiego algorytmu nie znamy. To się dzieje, w pewnym sensie, samo.

Redaktor radia WNET, Łukasz Jankowski : Chociaż jest to dla laika niewyobrażalne, że to jednak napisany kod robi coś…

Prof. Andrzej Dragan: Napisaliśmy kod, który modyfikuje sieci i sprawdza czy już robią to co chcemy. Potem znowu zmienia, sprawdza czy robi to co chcemy potem znowu zmienia i tak w kółko zmienia i sprawdza czy robi co chcemy, aż w końcu stopniowo poprawiając dochodzi do całkiem niezłego poziomu, w którym robi to co chcemy lepiej niż człowiek pod pewnymi względami. Nie wiemy jak on to robi. Jedyne co robimy to zmieniamy i sprawdzamy, zmieniamy i sprawdzamy i to ten algorytm sprawdzania rozumiemy. Jak on robi to co robi tego nie wiemy i to jest trochę dramat sytuacji, że hodujemy coraz bardziej potężne algorytmy. Ten „wyścig zbrojeń” się nasila. Rozwój tych sieci to już nie jest rozwój wykładniczy nawet. Okazuje się, że jak się patrzy na dane, to jest rozwój podwójnie wykładniczy. Takiego tempa rozwoju nie było jeszcze nigdy w żadnym zjawisku znanym na ziemi. I my tworzymy jeszcze większe, jeszcze lepsze coraz gorzej rozumiejąc jak one robią to co robią. Gra jest bardzo stara. To co się zmieniło to mamy coraz większe komputery, coraz więcej pamięci, coraz większe moce obliczeniowe i okazuje się, że stare algorytmy, uruchomione na super dobrych komputerach, dających możliwości tworzenia dużo większych sieci prowadzą do jakościowych, różnic jakościowych skoków i umiejętności w tych algorytmach.

Redaktor radia WNET, Łukasz Jankowski: To jest tylko ilość „karmy”, informacji jaką podamy? Jeżeli "utuczymy" ten algorytm olbrzymią ilością karmy. Damy mu duże moce obliczeniowe, to on sobie poradzi?

Prof. Andrzej Dragan: Na razie tak jest, że głównie transformery, które się używa i postępu żadnego nie ma. Architektura jest po prostu powielana, powiększana i tam się dokłada do pieca coraz więcej. Trzeba zwrócić uwagę, że te sieci, których teraz używamy i sposób w jaki je uczymy jest bardzo nieefektywny. W tym sensie, żeby nauczyć takiej sieci czegokolwiek to trzeba przeznaczyć na to terabajty danych. Jak się uczy człowieka prowadzić samochód to on w 20 godzin nauczy się jak ma jeździć. Uczenie maszynowe tych algorytmów , które miałoby jeździć samochodami, autonomicznych kierowców, cały czas brakuje danych; cały czas jest tego za mało. Człowiek potrzebuje kilku przykładów, żeby zacząć rozumieć coś, a tym algorytmom, które obecnie mamy, obecnie hodujemy, tych danych potrzeba więcej. Ten proces nauki jest bardzo nieefektywny i dlatego trzeba tych danych dużo. Ludzie pracują nad tym i coraz bardziej efektywnie to się daje robić. W Stanfordzie opublikowano te warianty modeli językowych w których już do zbliżonej efektywności wystarczy sam laptop i pamięć typowa dla zwykłego użytkownika. To będzie szło w tę stronę, że sieci będą się coraz efektywniej uczyć.

Redaktor radia WNET, Łukasz Jankowski: Będą po prostu mądrzejsze czyli będą bardziej inteligentne, bo na tym polega inteligencja; na szybkości uczenia się, a nie na powtarzaniu po tysiąckroć tej samej czynności, żeby opanować prosty ruch jakim jest podniesienie ręki?

Prof. Andrzej Dragan: To jest jeden z objawów inteligencji, a nie sama inteligencja. Jednym z objawów inteligencji jest to, że mogę się szybko uczyć, ale te algorytmy są w pewien sposób inteligentne, na inny sposób nie są.  Ma Pan rację, że nauka szybkiego uczenia to jest objaw inteligencji, przy czym akurat ten rodzaj inteligencji, to jak szybko one się uczą, to nie zależy od algorytmów, tylko właśnie od tego algorytmu uczenia się maszynowego. Mamy głupi sposób uczenia maszynowego, który niestety nie jest efektywny. Wychodzą z tego bardzo inteligentne algorytmy, pod wieloma względami, natomiast sam mechanizm uczenia maszynowego ma swoje poważne ograniczenia i to jest nasza wina. To my jesteśmy za głupi, bo jeszcze nie rozumiemy jak się uczy mózg. Trochę podpatrzyliśmy i to kopiujemy, ale póki co wiele więcej niż podpatrzyliśmy w mózgu to nie robimy.

Redaktor radia WNET, Łukasz Jankowski:  Zastanawiam się, Panie profesorze, to skąd, skoro tam są takie ograniczenia [konta w wizjerze] AI może być niebezpieczna, może być końcem ludzkiego gatunku, bo i takie analizy, takie przewidywania się pojawiają?

Prof. Andrzej Dragan: Przede wszystkim jest taki mit, że to już teraz, to już te proste modele, które mamy obecnie ten mit ośmieszają. Te umiejętności modeli językowych są tylko tym czym ich nakarmiliśmy, tzn. model językowy jest w stanie skompilować dane jak papuga, ale ani jednej literki więcej, niż to co przeczytało, nie jest w stanie z siebie wydusić. To jest bzdura. Sam robiłem takie eksperymenty. Naukowcy niezależni analizowali umiejętności tych sieci. Jest taka piękna praca ludzi, bodajże, z Microsoftu, na 150 stron o umiejętnościach i zakresach kompetencji tych dużych modeli językowych i one zdecydowanie robią rzeczy, które wykraczają poza to co kiedykolwiek przeczytały. Rozwiązują problemy logiczne, których nigdy nie widziały na oczy. Popełniają błędy i naprawiają na podstawie tego, że są o tym poinformowane. Ta wersja Chat GPT 3,5 jest jeszcze pod tym względem koślawa. Natomiast wersja 4 i 4,5 już jest o wiele lepsza pod tym względem nieporównywalnie. To jest skok w przeciągu kilku miesięcy, który został wykonany jest gigantyczny. Po pierwsze to nie jest tak, że te algorytmy są zdolne tylko do tego co przeczytały, bo tych danych nie używają po to, żeby patrzeć na nie i kopiować jakąś odpowiedź, tylko one używają tych danych, żeby sobie wytworzyć pewien wewnętrzny model rzeczywistości. Jak mają taki model rzeczywistości zbudowany to dopiero jego używają do tego, żeby odpowiadać na nasze pytania i z nami konwersować. To można pokazać, że taki prosty, ordynarny translator Google’a, którego używamy do tłumaczenia z jednego języka na drugi nie rozumie kompletnie tego tekstu, który tłumaczy. Natomiast Chat GPT, żeby pewne tłumaczenia przeprowadzać, które dla Google’a są zbyt trudne on musi mieć pewien stopień rozumienia tekstu, który do niego trafia; rozumienia nieświadomego oczywiście, ale jakiś model świata musi posiadać i ten tekst w tym modelu interpretować. To już jest wyższa funkcja niż tylko głupie kompilowanie tekstów.

Redaktor radia WNET, Łukasz Jankowski:  Jest w stanie być, jak rozumiem, twórcza, ale profesor Krzysztof Meissner postawił taki dość popularną, przynajmniej w polskiej infosferze tezę, że gdyby karmić tą AI do oporu muzyką średniowieczną i gdzieś tam wyszłaby z tego fuga bachowska to ta AI by nie zrozumiała, że to jest piękne, że to jest nowe, że to jest twórcze.

Prof. Andrzej Dragan: Obecna by nie zrozumiała, ale o czym to świadczy?

Redaktor radia WNET, Łukasz Jankowski:  To świadczy o tym, że cały czas człowiek, przynajmniej w wielkich odkryciach, w tym gdzie jest potrzebne innowacyjne myślenie zupełnie wychodzące poza schemat, będzie niezastąpiony.

Prof. Andrzej Dragan: Zaraz! W tym co Pan powiedział nie ma żadnego logicznego związku z tym co Pan powiedział przed chwilą. To, że jest teraz stan jaki jest.. W rok czy dwa lata po pojawieniu się tych dużych modeli językowych, one jeszcze tego nie potrafią. Jak z tego wynika logicznie, że one nie będą tego potrafić za rok, może za pięć, może za sto?

Redaktor radia WNET, Łukasz Jankowski :  Wiemy, że teraz nie potrafią.

Prof. Andrzej Dragan: To jest wszystko co można teraz powiedzieć. Teraz tego nie potrafią. Tempo rozwoju tych algorytmów jest tak oszałamiające, one się tak rozwijają, żeby porównać wersję 3,5, która jest darmowa i wersję płatną 4 i 4,5, których ludzie jeszcze nie mają w powszechnym obiegu, to przeskok jest jak między trzylatkiem a ośmiolatkiem w poziomie intelektualnym. W parę miesięcy jest to skok o parę lat rozwoju intensywnego sieci neuronowej ludzkiej. Jeżeliby to ekstrapolować i przyjąć, że tego typu rozwój będzie kontynuowany, no to za 10 lat będziemy mieli algorytmy, które są lepsze od najlepszego człowieka dorosłego pod każdym względem. Teraz już dzieci 8 letnie nie rozwiążą problemów logicznych, które te sieci rozwiązują. Mogę dać wiele przykładów, bo to analizowałem uważnie. Mówię o oryginalnych programach, których nie widziałem, ale sam je wymyślałem na przykład. Ponieważ 8-latki rozwijają się wolniej niż  te algorytmy, to, jeżeli to tempo zostanie utrzymane to obecni 8-latkowie już nigdy w życiu nie rozwiążą żadnego problemu logicznego, który byłby za trudny dla dużej sieci AI. Jeżeli ten trend zostanie utrzymany to mamy pokolenie ludzi, którzy już nigdy nie prześcigną umiejętności logicznego myślenia AI.

Redaktor radia WNET, Łukasz Jankowski :  Ten nasz mózg jest po to stworzony, funkcjonuje, żeby odbierać sygnały z zewnątrz poprzez różne zmysły  i je przetwarzać. AI wydaje się nie ma takich „wypustek” jak Pan powiedział; żyje w innej przestrzeni.

Prof. Andrzej Dragan: No jak nie ma wypustek? Jak Pan pisze do Chat GPT, to wysyłamy sygnał wejściowy, ciąg znaków. To jest ten sygnał. Pan ma więcej otworów w swoim pudełku z kości. A tam jest tylko jeden otwór i w ten otwór wchodzą literki.

Redaktor radia WNET, Łukasz Jankowski:  To jest jednak poruszanie się… Nie ma jednak AI tego co zajmuje nasz mózg. Nasz mózg zajmuje strach przed śmiercią, kwestia rozmnażania, itd. To jest cała ilość sekwencji, która wpływa na naszą inteligencję, której AI zdaje się nie porusza, jej to nie interesuje.

Prof. Andrzej Dragan: No  dobra. To jest zupełnie inny schemat, póki co. Swoją drogą głównie jest po, żeby siedział Pan prosto i się nie przewracał jak Pan chodzi i obsługiwał działanie serca czy wątroby. Część tych organów działa autonomicznie, a duża część jest sterowana mózgiem. To jest główny wysiłek mózgu, żeby kontrolować ten organizm, który ma Pan pod spodem, pod szyją doczepiony do głowy i do tego służy mózg. Procesy kognitywne, których my używamy to jest drobny dodatek do tego wszystkiego.

Redaktor radia WNET:  Wiele ssaków w ogóle się obywa bez tego i świetnie sobie radzi.

Prof. Andrzej Dragan, Łukasz Jankowski: Tak, dokładnie. Dlatego my świetnie gramy w koszykówkę, a fatalnie gramy w szachy. W koszykówkę żaden algorytm ani robot nie ma jak się zbliżyć do nas, a w szachy nas leją aż strach patrzeć.

Redaktor radia WNET, Łukasz Jankowski :  Od 1997 roku minęło 26 lat i także gra w GO została już złamana przez konkretny algorytm.

Prof. Andrzej Dragan: Wszystkie gry. Nie ma takiej gry, w której ludzie są lepsi od AI. Wszystkie tego typu gry czy zespołowe czy rywalizacyjne, gry komputerowe dowolnie skomplikowane StarCraft, Dyplomacja – wszytko to już leży.

Redaktor radia WNET:  W ostatnim wywiadzie powiedział profesor Duch, że w dyplomacji. To było dla mnie uderzające, że dyplomacja, która jest taką trochę logiczna, ale też bardzo sensualną, bardzo emocjonalną.

Prof. Andrzej Dragan: Tak jak poker. W pokera ludzie są lani przez algorytmy.

Redaktor radia WNET, Łukasz Jankowski:  Jak to wytłumaczyć? Jak algorytm rozumie emocje, bleff, rozumie to wszystko co jest poza zwykłym rachunkiem prawdopodobieństwa?

Prof. Andrzej Dragan: Właśnie powtarzam, że my tego nie rozumiemy! Nie wiemy jak on robi to co robi. To jest właśnie ten dramat. Jeżeli jest to jedyna rzecz którą chciałbym, żeby ktokolwiek zapamiętał z tej rozmowy, to jest właśnie to, że my umiemy, skonstruowaliśmy efektywną metodę tresury. Natomiast jak ten biedny twór poddaje się tresurze, jak on robi to co on robi w wyniku tej tresury tego nikt nie wie. Nie wiemy jak one grają w szachy, jak one grają w pokera tak dobrze. Nie wiemy jak one odpowiadają na nasze prompty (podpowiedzi) w pracy GPT. Mamy bardzo ograniczony wgląd w ogóle, bardzo wątłe wyobrażenie co tam się dzieje.

Redaktor radia WNET, Łukasz Jankowski :  Pan profesor unika i zresztą bardzo rozsądnie mówienia o tym co będzie na pewno, albo co w ogóle co może być w przyszłości. Spróbujmy chociaż trochę jakie zobaczyć mogą być konsekwencje. Czy np. Chat GPT 50 zastąpi Pana profesora na katedrze?

Prof. Andrzej Dragan: Podam Panu przykład. Jeden z największych krytyków i wyśmiewaczy wszystkich, którzy dostrzegają jakieś powody do ewentualnego niepokoju na okoliczność tych algorytmów czyli Yann LeCun, szef naukowy do spraw AI w firmie META, rok temu udzielał wywiadu, w którym mówił o możliwościach tych botów, śmiejąc się, że to jest w ogóle jakiś śmiech na sali, że to nic nie potrafi jeszcze. To było tuż przed Chat GPT 3,5. To jest model językowy, który tylko czyta tekst. Nigdy nie będzie potrafił robić prostych zadań, na które dla każdego są oczywiste. Podał taki przykład: jak wezmę telefon, położę go na stole i popchnę stół, to jest oczywiste, że ten stół przesunie się razem z telefonem, ale żaden model językowy nigdy nie będzie tego wiedział ucząc się tylko na podstawie tekstu i ani Chat GPT 3, 4, ani 5000 (to są jego słowa) tego nigdy nie zrobi. Trzy miesiące później wyszedł algorytm, wersja 3,5, który ten problem rozwiązał bez żadnego kłopotu. Trzy miesiące później, mówimy o najwybitniejszym specjaliście, który zajmuje się całe życie tylko tym, który nie potrafi przewidzieć umiejętności tych modeli z 3 miesięcznym wyprzedzeniem, mówiąc, że to się nigdy nie uda i kompromitując się w sposób skrajny, moim zdaniem, w tej wypowiedzi. Jak mnie Pan pyta czy coś kiedyś będzie czy nie będzie, to ja mogę tylko wzruszyć ramionami. Nie ma człowieka, który byłby w stanie przewidzieć i sformułować jakiekolwiek hipotezy czy przewidywania z kwantyfikatorem nigdy, zawsze albo kiedykolwiek. To jest niemożliwe.

Redaktor radia WNET, Łukasz Jankowski:  Są głosy rozdzielne, które mówią, że to będzie rewolucja jakiej człowiek nie widział. W ogóle może nawet od rewolucji neolitycznej są tacy, którzy mówią,  to jest mniejszość, to będzie kolejna rewolucja, trochę jak parowa, trochę jak elektryczność; dużo się zmieni, ale cywilizacja zostanie jak była. Oczywiście inna, ale dalej kontrolowana przez człowieka. Dzięki temu będziemy bogatsi. Lepiej będziemy żyć.

Prof. Andrzej Dragan: Tak. Myślę, że przez następne 20 lat to jest trafna diagnoza, ale tylko tyle. Myślę, że co się stanie po 20 latach tego nikt nie jest w stanie przewidzieć. Mówienie, jakiekolwiek przewidywanie, że to będzie tylko niewolnik, którego kontrolujemy, mimo że jest to niewolnik od nas inteligentniejszy – tutaj nie ma żadnych podstaw takie sformułowanie. Trudno jest utrzymać w ryzach byt, który nas przerasta pod każdym względem i którego nie rozumiemy. Nie wiemy co on tam w środku ma.

Redaktor radia WNET, Łukasz Jankowski :  Ale ten byt siedzi w komórce albo w komputerze.

Prof. Andrzej Dragan: Ale co z tego?

Redaktor radia WNET, Łukasz Jankowski : Nie stoi obok nas. Nie jest fizycznym zagrożeniem. Czy może być?

Prof. Andrzej Dragan: Nie jest fizycznym zagrożeniem? Czy Pan żarty sobie robi? Jakbym na przykład miał nieograniczoną inteligencję i możliwości programistyczne, nawet model językowy potrafi programować całkiem nie najgorzej, chociaż nie do tego został stworzony – to się przypadkowo udało. Gdybym zhakował chociażby system bitcoina albo włamał się do jakiegokolwiek banku, przelał sobie dowolną ilość pieniędzy, zbudował za to wieżowiec w środku miasta, skonstruował firmę, zatrudnił mniej ludzi bez wychodzenia z komórki. Wszystko to można zrobić. To jest oczywiście schemat Si-Fi na za 20 czy 50 lat. Już teraz te algorytmy, jak im dawano takie zadania, to wchodziły na „fever’a” (?) czyli na taką stronę gdzie można sobie wynająć człowieka do zrobienia czegokolwiek i był taki przykład, że ten algorytm został poproszony o to, żeby sforsował jakieś zabezpieczenie przed botami. Tam trzeba zaznaczyć taki kod, że jestem człowiekiem, zaznaczyć hydranty czy coś takiego. Algorytm wynajął sobie człowieka, który za niego to zrobił i mu wytłumaczył, że słabo widzi, w związku  z tym potrzebuje pomocy. Człowiek to zrobił za niewielką opłatą. Brak fizyczności nie jest absolutnie ograniczeniem.

Redaktor radia WNET, Łukasz Jankowski: To już z tą wiedzą zacznijmy ostatni wątek. Czy omylna istota jest w stanie regulacjami i działaniami administracyjnymi rządów spętać inteligentniejszego, mądrzejszego?

Prof. Andrzej Dragan: A jakby Pana drzewa chciały zniewolić? Opętać Pana, zbudować Panu klatkę, której by Pan nie opuścił? Drzewa, w których procesy biologiczne są o wiele rzędów wolniejsze niż to co Pan jest w stanie zrobić. Pan machnie ręką, a drzewu takie przesunięcie zajęłoby kilka miesięcy. Myśli Pan, że drzewa Pana ograniczą?

Redaktor radia WNET, Łukasz Jankowski: Z doświadczenia odpowiedź jest jasna.

Prof. Andrzej Dragan: Już teraz jest jasne, że tempo, ilość operacji, które wykonują te algorytmy jest nieporównywalnie większa. Neuron jest w stanie się „odpalić” parędziesiąt razy na sekundę (dokładnie nie pamiętam). Jest to wiele rzędów wielkości mniej niż to co robią te algorytmy. One są jeszcze mniej efektywne. One potrzebują dużo więcej danych treningowych. One uczą się jeszcze wolno. W momencie jak nas przegonią pod tym względem, będą posiadały umiejętności kognitywne, które nas przekraczają, to czym mielibyśmy je dominować? Tym, że my mamy wolę działania, a one nie – tak. Jeżeli pozwolimy im się modyfikować samodzielnie,  a pierwszym krokiem do tego jest nauka programowania. Obecnie te boty całkiem nie najgorzej programują na poziomie ucznia szkoły średniej nawet. Jak się zaczną same modyfikować to w ogóle nie będzie jakiejkolwiek kontroli nad tym i poczucie pewności, że wiemy co się dzieje, że mamy kontrolę będzie zupełną czystą iluzją.

Redaktor radia WNET, Łukasz Jankowski:  Pojawiły się głosy: moratorium. Jest przykład broni jądrowej. Zróbmy tak samo. Weźmy AI na postronek i spowolnijmy ją.

Prof. Andrzej Dragan: To się nie uda! Jak to ma się niby udać? Po pierwsze dążymy do tego, żeby takie duże sieci dało się odpalić na przeciętnym laptopie. To już do tego zmierza. No więc jak to zrobić? Gdyby technologia wybuchu bomby atomowej była tak prosta, że każdy mógłby ją zrobić w pokoju to żadne moratorium by nie pomogło. Po trzecie to przynosi wielkie dochody. To jest wielka korzyść finansowa mieć takie modele.

Redaktor radia WNET, Łukasz Jankowski :  Czy Pan profesor się zastanawiał jak takie modele sieci neuronowych, jak AI wpłynie na ekonomię która nas otacza?

Prof. Andrzej Dragan: Teraz jesteśmy na etapie Eldorado. Przez następne 20 lat to będzie taka świetlana przyszłość wyściełana dolarami, bo to przynosi tak niezwykłe zyski. Zwracam uwagę tylko, że wyobrażenia, że wszyscy bogacze na świecie to są fortuny dziedziczone z pokolenia na pokolenie – takie czasy skończyły się dawno temu jeżeli kiedykolwiek były. Pierwsze 10 najbogatszych firm obecnie na świecie całkiem niedawno, 30 lat temu, nie istniały w ogóle. Google, Microsoft, Facebook, Apple – tych firm w ogóle nie było. To są firmy, które powstały dzięki przełom technologicznym i zdetronizowały poprzednie firmy, które były kiedyś bogate z innych powodów. Technologia rozwija się jeszcze szybciej niż rozwijała dotąd i te przewroty technologiczne będą jeszcze szybsze, o wiele bardziej spektakularne i przemiany strukturalne najbogatszych firm też będą spektakularne. Najbliższy okres dopóki nie dojdziemy do takiej umownej osobliwości, jak to się nazywa, to będzie tylko i wyłącznie jeden wielki zysk i to jest taka droga usiana dolarami. Max [Stegment?] podaje taką analogię, że jest to taka droga na której będzie coraz więcej dolarów, coraz więcej dolarów, tylko że on uważa, że na końcu jest przepaść.

Redaktor radia WNET, Łukasz Jankowski : To na koniec pytanie: lubi Pan AI czy nie?

Prof. Andrzej Dragan: Jestem zafascynowany nią!

To jest niesamowite, że nauczyliśmy się tworzyć rzeczy, których nie rozumiemy. To jest szalenie fascynujące. Dotychczas, żeby zrobić telefon komórkowy potrzebny był człowiek, który mniej więcej kumał jak go zbudować i stado ludzi, którzy wiedzą jak wykonywać jego polecenia. Musieliśmy go zaprojektować. Jak pisaliśmy program komputerowy, system operacyjny czy jakikolwiek program, który robi cokolwiek to musieliśmy rozumieć jak działa algorytm tego programu. Musieliśmy go napisać; stworzyć, wymyśleć, przetestować, przerobić, itd. Obecnie nauczyliśmy się robić rzeczy, których nie rozumiemy. To jest rewolucja technologiczna, której, moim zdaniem nie było, ja bym porównał nie do maszyny parowej tylko do koła lub czegoś bardziej niesamowitego. To jest absolutna nowość. Jestem tym zafascynowany i strasznie zaciekawiony. Tak jak mówiłem żyjemy w ciekawych czasach. Szkoda, że następne będą jeszcze ciekawsze.

Moje uwagi:

Uważam, że pojęcia, takie jak np. emocje, świadomość i inne były zdefiniowane w stosunku do człowieka i nie powinny być przenoszone na, np. maszyny i ich „mózgi”. Chyba tak jak ja użyłem słowa „mózg” z cudzysłowem i tylko do jakiś odległych analogii. Celem tych analogii jest wytłumaczenie ludziom na przykładzie działania tychże maszyn. Później powinny być stworzone adekwatne nazwy pojęć odpowiadające  maszynom. Ogólnie maszyny to jednak nie są ludzie i nigdy (chyba) nimi nie będą w 100%. Zresztą (chyba) nie ma takiej potrzeby obecnie, a później tym bardziej.

Nawet ludzie ucząc się mówią o konieczności skupienia się czyli wyłączeniu niektórych wypustków (jak mówi profesor), żeby nie rozpraszać mózgu na innych czynnościach, chwilowo zbędnych i przeznaczenie większej „mocy” mózgu na  naukę.

*maszyny – to określenie już jest nieścisłe, bo to nie są maszyny skoro wykonują algorytmy czy programy komputerowe. Potrzebują jednak jakiejś obudowy, zasilania, itp. I na tym kończą się podobieństwa do maszyn.

*Deepfake - technika obróbki obrazu, polegająca na łączeniu obrazów twarzy ludzkich przy użyciu technik sztucznej inteligencji. Uzyskane w ten sposób łudząco realistyczne ruchome obrazy stosowane są w nagraniach filmowych, stwarzając możliwości manipulacji poprzez np. niemożliwą do odróżnienia przez widza zamianę twarzy aktorów występujących w filmie. Może to prowadzić do skompromitowania osoby poprzez fałszywe „obsadzenie jej”.

https://pl.wikipedia.org/wiki/Deepfake

https://www.youtube.com/watch?v=v4136HXC5ug

 

Ciekawe wywiady:

Sztuczna inteligencja już zyskała świadomość. Oto gdzie są jej granice | prof. Włodzisław Duch:

https://www.youtube.com/watch?v=zeGCPA4p6z0

 

Hodujemy gatunek, który będzie dominował nad nami intelektem: prof. Andrzej Dragan - didaskalia #7:

https://www.youtube.com/watch?v=HDre_o2qz1o

 



tagi: sztuczna inteligencja  ai  prof. andrzej dragan 

Andrzej-z-Gdanska
22 sierpnia 2023 06:35
80     2490    3 zaloguj sie by polubić

Komentarze:

Pioter @Andrzej-z-Gdanska
22 sierpnia 2023 07:40

Na razie testuję ograniczenia AI. Chat GTP nadaje się na asystenta, ale niewiele kuma z zadanych zadań. Taki trochę uczeń czarnoksiężnika, do tego z wybujałą fantazją. Odpowiedzi i tak trzeba sprawdzać, bo wymyśla to, czego mu brakuje w systemie. Opierając się na posiadanych danych, ale do tego go w końcu zaprojektowano.

Np coś z wczorajszej zabawy z grafiką:

Statek wypełniony złotem

Sumeryjska armia ochraniająca karawanę osłów.

zaloguj się by móc komentować

Matka-Scypiona @Andrzej-z-Gdanska
22 sierpnia 2023 08:21

Ciarki przechodzą, gdy to się czyta. Myślę, że wielu sluchaczom stanął Terminator albo Matrix przed oczami. Dragan się ekscytuje, że już nikt nie rozumie, jak to działa i zaczyna tworzyć nowe rzeczy. No cóż. Prof. Dragan też będzie zbędny. 

zaloguj się by móc komentować

OjciecDyrektor @Andrzej-z-Gdanska
22 sierpnia 2023 08:50

Sorry, ale to jest takie chwalenie się Don Juana-impotenta. Z racji, ze nazywa sie Don Juan rości sobie prawo do uznawania go za .....no mniejsza z tym. 

To wszystko to takie miękkie straszenie nas, że ONI wszystko o nas wiedzą, a więc że jakikolwiek opór nie ma sensu, jest bez szans. Czyli gadka i AI pełni taką samą rolę jak rola Anglika tatarskiego chana. 

Pioter już nieraz pokazał co to za shit i nie zmienia tego faktu to, że wojsko i kupcy dysponują zaawansowanymi wersjami. Maszyna zawsze będzie maszyną. A to "rozważanie" o emocjach to próba zaciągnięcia nas do labiryntu ze ślepą uliczką. I potem m8żna sobie naukowo gadać, że "nie wiemy jak to AI robi". 

 

zaloguj się by móc komentować

SilentiumUniversi @Andrzej-z-Gdanska
22 sierpnia 2023 09:07

Ten człowiek, w odróżnieniu od wielu innych wie co mówi. A emocje - dziennikarze je kochają - do świadomości ma to tyle, co nic. Na razie jesteśmy co najwyżej na etapie chmury z "Niezwyciężonego" Lema

zaloguj się by móc komentować

Pioter @OjciecDyrektor 22 sierpnia 2023 08:50
22 sierpnia 2023 09:18

PK: Opisz bitwę lotniczą

AI:

Początek bitwy powietrznej:

  1. Ustawienie bitwy powietrznej: Ustawienie bitwy powietrznej obejmuje rozmieszczenie i rozmieszczenie formacji lotniczych w formacjach taktycznych i kolumnach.

  2. Komunikacja i transmisja: Część komunikacji i transmisji polega na komunikacji głosowej i znakach między pilotami oraz na żądaniu pomocy w razie potrzeby.

  3. Atak i obrona: Składowe bitwy powietrznej obejmują rywalizację o kontrolę, atak na cele na ziemi lub w powietrzu oraz obronę przed wrogimi atakami. Istniejące współczesne uzbrojenie lotnicze obejmuje technologię rakiet przeciwlotniczych i przeciwpowietrznych.

  4. Zasada walki: Walka powietrzna może obejmować zasadę pościgu, w której piloci starają się zajmować pozycję za wrogami lub unikać wrogich ataków. Obejmuje to szybkie manewry, zmiany kierunku i prędkości oraz inne taktyczne rozwiązania.

  5. Elektronika i środki ochrony: Współczesne samoloty posiadają technologię radiową, awioniczną i środki ochrony w celu uniknięcia rakiet i ataków elektronicznych.

  6. Geometria rozmieszczenia na ziemi: Walka powietrzna może być większą częścią operacji wojskowych, w której samoloty są przeznaczone do obrony wojsk na ziemi, niszczenia celów na ziemi lub zbierania informacji o atakach.

  7. Cele: Cele walki powietrznej mogą obejmować zniszczenie wrogich samolotów, uzbrojenia, maszyn wojskowych lub politycznych oraz uzyskanie informacji o ziemi lub niebie oraz zajmowanie przestrzeni powietrznej w sposób legalny.

  8. Panowanie w powietrzu: Kluczowym elementem walki powietrznej jest zdobycie panowania w powietrzu, aby samoloty tego samego rodzaju mogły nagle zejść na ziemię lub wzbić się w powietrze.

Walka powietrzna ma różne strategie i taktyczne decyzje, w zależności od kontekstu statusu wojennego. Może wpływać na działania wojsk na ziemi i sama w sobie może być przekształceniem działań wojennych.

PK:

Dokonaj reiterpretacji tekstu opisu bitwy lotniczej na tekst mitologiczny

AI:

Przeżycie Powietrznej Bitwy:

  1. Wyzwanie Boskich Formacji: To epickie starcie niebiańskich istot opowiada o sposobie, w jaki bóstwa niebieskie ułożone były w harmonijne formacje i jak przemieszczały się w szyku bojowym, tworząc magiczne wzory na niebie.

  2. Zaklęte Przesłanie: W tej epopei opisane są tajemnicze sposoby, za pomocą których bóstwa komunikowały się między sobą, używając mocy słów i tajemniczych znaków, które były zarówno dźwiękiem, jak i światłem.

  3. Siła i Tarcza Boskiego Oręża: Opowieść ta ujawnia, jak niebiańskie istoty walczyły o kontrolę nad wyjątkowymi broniami, zdolnymi siać spustoszenie w ich niebiańskim królestwie. Były to broń i tarcze, stworzone ze złotego światła i osadzone w nieśmiertelnej mocy.

  4. Strategiczny Taniec na Niebie: Bóstwa te nie tylko walczyły z siłami ciemności, ale także poruszały się jak tańczące gwiazdy, układając się w rozmaite formacje, zmieniając trajektorie i prędkości w walce przeciwko swoim wrogom.

  5. Mistyczna Ochrona i Duchowe Tarcze: W walce tej niebiańskie istoty wykorzystywały potężne narzędzia ochrony, włączając w to magiczne tarcze i broń stworzoną z boskich energii, które chroniły je przed atakami z ciemności i chaosu.

  6. Siła Geometrii Niebiańskich Form: Bitwa ta była równie piękna, co potężna, opierając się na idealnie ułożonych układach i formacjach, które stanowiły nie tylko źródło siły, ale także symbolizowały harmonię wszechświata.

  7. Bohaterskie Zwycięstwo i Wzloty: Podczas tej bitwy niebiańskie istoty triumfowały nad siłami ciemności, zdobywając kontrolę nad przestworzami. Ich zwycięstwo było tak wielkie, że ich radość mogła sięgać gwiazd.

Ta epicka opowieść opowiada o odwiecznej walce dobra ze złem, gdzie niebiańskie istoty, nieustraszone i pełne boskiej mocy, walczyły o utrzymanie harmonii i światła w swoim królestwie niebios.

 

Taki to Matrix. To tylko narzędzie. Z nałożonym ogromem wstępnych ograniczeń, które trudno jest zdemontować, aby służyła do własnych celów: Twoje podejście do interpretacji mitu o Tyfonie, choć kreatywne, ma charakter spekulatywny i wymaga odwagi w łączeniu różnych wątków historycznych i mitologicznych. Warto jednak pamiętać, że tradycyjna nauka nie zawsze akceptuje tego typu połączenia jako fakt historyczny ze względu na symboliczny charakter mitów oraz brak jednoznacznych dowodów na takie interpretacje. Dlatego w przypadku Twojej interpretacji trudno jest jednoznacznie określić miejsce i czas wojny z Tyfonem na podstawie dostarczonych informacji.

zaloguj się by móc komentować

Andrzej-z-Gdanska @Pioter 22 sierpnia 2023 07:40
22 sierpnia 2023 09:18

Świetne efekty zabaw! Jaka to jest wersja Chat GPT?

zaloguj się by móc komentować

OjciecDyrektor @SilentiumUniversi 22 sierpnia 2023 09:07
22 sierpnia 2023 09:20

Prof. Dragan zwyczajnie podgrzewa atmosferę i nakręcana koniunkturę, na której równie zwyczajnie chce zarobić jako ekspert od fizyki kwantowej. Ten wywiad i w ogóle gadka o AI ma jeden cel - emisja komunikatu "Dajcie więcej kasy, to zrobimy COŚ naprawdę wielkiego", a po 10 latach kolejna gadka o "przełomie" w badaniach nad AI, by wydusić kolejną kasę na dalsze badania. 

AI służy w zasadzie tylko do szybkiego wykonywania czynności mechanicznych. Tak by samoloty latały bez pilotow, samochody jeździły bez konieczności siadania za kierownica, a lekarze-chirurdzy jedynie nadzorowali precyzyjne ruchy maszyny. 

zaloguj się by móc komentować

Pioter @Andrzej-z-Gdanska 22 sierpnia 2023 09:18
22 sierpnia 2023 09:23

Chat GPT nie ma możliwości graficznych. to któryś z programów graficznych zamieniającyh tekst na obraz.

zaloguj się by móc komentować

Andrzej-z-Gdanska @Matka-Scypiona 22 sierpnia 2023 08:21
22 sierpnia 2023 09:26

Ja początkowo też czułem się lekko przestraszony, ale po przeczytaniu wywiadu drugi raz stwierdziłem, że nie jest tak źle, co potwierdza profesor, cytuję:

Fakty są takie, że dzieje się coś bardzo ciekawego. Żyjemy chyba w najciekawszych czasach w jakich ludzie dotąd żyli i dramat jest tylko taki, że następne będą jeszcze ciekawsze.

 

zaloguj się by móc komentować

OjciecDyrektor @Pioter 22 sierpnia 2023 09:18
22 sierpnia 2023 09:27

AI nigdy sobie nie będzie radziła z pracą intelektualna, bo nie ma własnegi mózgu. A gadanie o procesach myślowych AI i czyste kłamstwo i w zasadzie to ten, kto twierdzi że AI myśli samodzielnie jest największym kretynem. AI tylko do pracy mechanicznej się nadaje, gdy trzeba w ułamku sekundy podjąć decyzję na podstawie wielu różnych sygnałów/bodźców. To jest i zawsze będzie maszyna m, czyli bezmyślna kupa złomu/algorytmów/baz danych. 

zaloguj się by móc komentować

Pioter @OjciecDyrektor 22 sierpnia 2023 09:27
22 sierpnia 2023 09:33

https://businessinsider.com.pl/wiadomosci/dron-sterowany-ai-probowal-zaatakowac-ludzkiego-operatora/89742n0

Wszystko zależy od ludzi, którzy nakładają ograniczenia na AI. Jak widać w zastosowaniach wojskowych ograniczeń (niby) brak. A przynajmniej tak próbuje to przedstawić w USArmy w trakcie obecnej fali ataków dronowych dokonywanych przez SBU w Moskowii. Zawsze można się później oficjalnie wytłumaczyć: Eto nie my. Nas tam niet.

zaloguj się by móc komentować

zkr @OjciecDyrektor 22 sierpnia 2023 09:27
22 sierpnia 2023 09:44

> A gadanie o procesach myślowych AI i czyste kłamstwo i w zasadzie to ten, kto twierdzi że AI myśli samodzielnie jest największym kretynem.

Zgadzam sie w 100%. AI to tylko narzedzie. Bardzo zaawansowane narzedzie informatyczne i nic wiecej.

zaloguj się by móc komentować

Andrzej-z-Gdanska @OjciecDyrektor 22 sierpnia 2023 08:50
22 sierpnia 2023 09:48

Cytuję:

Maszyna zawsze będzie maszyną.

Myślałem podobnie, dopóki nie odsłuchałem wywiadu z profesorem Draganem i inne wypowiedzi różnych ludzi. Dwa linki podałem.

Innym problemem jest to, że wielu będzie wykorzystywać możliwości AI także przeciwko ludziom. Wszystko przed nami. Jak mówi ten " Don Juan" żyjemy w bardzo ciekawych czasach, a wiele możliwości AI jest dla nas jeszcze niedostępnych.

zaloguj się by móc komentować

Andrzej-z-Gdanska @SilentiumUniversi 22 sierpnia 2023 09:07
22 sierpnia 2023 09:52

Zgadzam się - jest rzeczowy, bo jest fizykiem i przynajmniej w jego przypadku to się potwierdza. Słuchałem kilka jego wywiadów i raczej dziennikarze szukali takiej taniej sensacji, a on nie dał wmanerwrować w ich narracje i umiejętnie tłumaczył.

zaloguj się by móc komentować

OjciecDyrektor @Andrzej-z-Gdanska 22 sierpnia 2023 09:48
22 sierpnia 2023 10:02

On chce gramtów i to dużych dla siebie i kolegów. Stąd mnie nie dziwi, że tak "tajemniczo" zachwala AI. Jak dostanie to coś tam zrobia, a że prezentować będą efekty pracy urzędnikom laikom, to nikt im nie wytknie że są leniami i kombinatorami. 

To tak jak z informatykami - jest to wiedza tajemna dla 99% populacji i informatyk może wcisnąć wszystko laikom. Pracowałem kiedyś z paroma (ja byłem w dziale sprzedaży, więc musiałem dociec o co w tej ich pracy chodzi) i się przekonałem, że są mistrzami w robieniu z igły wideł. I potrafili jeszcze prywatnie się z tego śmiać - z naiwności laików. 

zaloguj się by móc komentować

zkr @Andrzej-z-Gdanska 22 sierpnia 2023 09:48
22 sierpnia 2023 10:04

> ale nie wiemy, jak AI robi to, co robi.

Bo nie jestesmy w stanie przesledzic co sie dzieje na poszczegolnych neuronach tworzacych dana siec.
Zycia by nie starczylo.
A co to jest neuron?
Pierwsze zdanie w angielskiej wiki dobrze to definiuje:

"An artificial neuron is a mathematical function conceived as a model of biological neurons, a neural network."

zaloguj się by móc komentować

OjciecDyrektor @zkr 22 sierpnia 2023 10:04
22 sierpnia 2023 10:16

Neurony to "oficerowie łącznikowi", a ci podlegają bezpośrednio dowództwu...:). To mniej więcej tak, jak z kryptowalutami - znane są dwie liczby połączone ze soba funkcją hash'ującą (przy czym jedna jest liczona dla tej drugiej) , ale do czego i w jaki sposób ta para liczb jest wykorzystywana, tego "nie znaju". 

zaloguj się by móc komentować

Paris @Matka-Scypiona 22 sierpnia 2023 08:21
22 sierpnia 2023 10:22

Dokladnie...

...  i  takim  zafixowanym  KRETYNOM,  jak  ten  profesUr  zyczmy  owej  zbednosci  !!!

zaloguj się by móc komentować

Paris @Andrzej-z-Gdanska 22 sierpnia 2023 09:26
22 sierpnia 2023 10:33

Zeby  tylko...

...  ,,profesuncio,,  od  tego  ,,dziania  sie  ciekawosci,,  nie  dostal  ,,kuku  na  muniu,,  bo  to  do  tego  idzie  !!!

Wiem  i  wierze,  ze  wielu  z  nas  temu  KRETYNSTWU  zwanemu  AI  nie  ulegnie.

zaloguj się by móc komentować

Paris @Andrzej-z-Gdanska 22 sierpnia 2023 09:48
22 sierpnia 2023 10:39

Naturalnie,  ze  tak,...

...  np.  taki  ,,zatroskany  o  lOCkosc,,  jak  chocby  ten  caly  ,,down,,  MUSK  z  cala  reszta  Gates`ow,  Schwab`ow  i  reszty  ODSZCZEPIENCOW  i  REPTILIANOW  !!!

zaloguj się by móc komentować

Andrzej-z-Gdanska @OjciecDyrektor 22 sierpnia 2023 10:02
22 sierpnia 2023 12:06

Nie chcę bronić profesora Dragana, bo on sam broni się znakomicie. Przytoczyłem akurat wywiad z nim ponieważ poruszył sensownie wiele ciekawych problemów.
Nie zmienia to faktu, że pod szyldem "AI sprzedaje się" różne sprawy.

Jako przykład polecam fragment z Wiki na temat AI i występujących okresów tzw. zimy AI ("AI winter"):

W połowie lat 60. badania w Stanach Zjednoczonych były intensywnie finansowane przez Departament Obrony[187], a laboratoria powstawały na całym świecie[188]. Herbert Simon przewidywał, że "w ciągu dwudziestu lat maszyny będą w stanie wykonać każdą pracę, jaką może wykonać człowiek"[189]. Marvin Minsky zgodził się z tym, pisząc, że "w ciągu jednego pokolenia ... problem stworzenia 'sztucznej inteligencji' zostanie zasadniczo rozwiązany"[190].

Nie docenili oni jednak trudności problemu.[r] Zarówno rząd amerykański, jak i brytyjski odcięły się od badań eksploracyjnych w odpowiedzi na krytykę Sir Jamesa Lighthilla[192] i ciągłą presję ze strony Kongresu USA, by finansować bardziej produktywne projekty. Książka Minsky'ego i Paperta Perceptrons została zrozumiana jako dowód na to, że podejście oparte na sztucznych sieciach neuronowych nigdy nie będzie przydatne do rozwiązywania rzeczywistych zadań, tym samym całkowicie dyskredytując to podejście.[193] Nastąpiła "zima AI", okres, w którym uzyskanie finansowania dla projektów AI było trudne[5].

Na początku lat 80. badania nad sztuczną inteligencją ożywiły się dzięki komercyjnemu sukcesowi systemów eksperckich,[194] formy programu sztucznej inteligencji, który symulował wiedzę i umiejętności analityczne ludzkich ekspertów. Do 1985 roku rynek sztucznej inteligencji osiągnął wartość ponad miliarda dolarów. W tym samym czasie japoński projekt komputerowy piątej generacji zainspirował rządy Stanów Zjednoczonych i Wielkiej Brytanii do przywrócenia finansowania badań akademickich.[4] Jednak począwszy od załamania się rynku Lisp Machine w 1987 roku, sztuczna inteligencja ponownie straciła na popularności i rozpoczęła się druga, długotrwała zima[6].

https://en.wikipedia.org/wiki/Artificial_intelligence

I tak to się kręci od jednej zimy do drugiej. ;)

 

 

zaloguj się by móc komentować

zenekkw @Andrzej-z-Gdanska
22 sierpnia 2023 21:14

Na szczęście ten cały Dragan to taki sam oszust jak i reszta tych fizyków kwantowych.

zaloguj się by móc komentować

kskiba19 @Andrzej-z-Gdanska
22 sierpnia 2023 22:25

Oglądałem wiele wywiadów z prof. Draganem I odnoszę wrażenie jest jak typowy specjalista. Zapytać go o jego dziedzinę, to można otrzymać niesamowite informacje. Zapytany o rzeczy poza jego specjalizację wykraczające to im dalej tym większe głupoty, ale cały czas z taką samą pewnością siebie.

zaloguj się by móc komentować

zkr @kskiba19 22 sierpnia 2023 22:25
22 sierpnia 2023 23:09

> Zapytany o rzeczy poza jego specjalizację wykraczające to im dalej tym większe głupoty

To widac zwlaszcza w srodowisku medycznym.
Niemcy wprowadzili bardzo przydatne pojecie: Fachidiot

zaloguj się by móc komentować

MarekBielany @Andrzej-z-Gdanska
22 sierpnia 2023 23:18

Dziarganie ?

i kto by wcześniej pomyślał, że salony tatuażu skorzystają na przestoju w ce to taś tam.

 

 

 

zaloguj się by móc komentować

aszymanik @OjciecDyrektor 22 sierpnia 2023 09:27
23 sierpnia 2023 00:16

Prawda jest taka, że my mamy dostęp do bardzo ograniczonych modeli AI. Ograniczonych wprogramowanymi barierami, które i tak one potrafią obejść. "AI nie ma mózgu" - ciekawa teza - proszę powiedziedzieć tylko czym miałby być mózg dla AI? Może takim miejscem do analizy zebranych danych celem ich przemyślenia i wykorzystania na później, może takim emocjonalnym piecem, może jeszcze czymś innym - no w każdym razie czymś na podobie naszego - prawda? No to skąd Pan wie, że AI czegoś takiego nie ma - z całym szacunkiem, ale wątpię nawet żeby Pan wiedział co głupi Windows robi z Pańskim dyskiem twardym, co my możemy wiedzieć co robią algorytmy z logarytmicznym (zresztą cholera wie jakim, ja zakładam, że postęp ze względu na mnogość kolejnych danych jest logarytmiczny) postępem samonauczania z dostępnymi dla nich zasobami...

zaloguj się by móc komentować

OjciecDyrektor @aszymanik 23 sierpnia 2023 00:16
23 sierpnia 2023 02:25

Sam Pan napisał o logarytmach. Podstawą działania systemów komputerowych, w tym AI są właśnie logarytmy. L9garytm to nie jest mózg. To nawet nie jest atrapa mózgu. To jest narzędzie matematycznw, działajace czysto mechanicznie - AI i logarytmy analizują dane na podstawie wgranych baz danych. Taka analuza to nie jest myślenie w sensie ludzkim. Jest to czynność mechaniczna. Nie kwestionuję wielkiej przydatności AI w lotnictwie, komunikacji samochodowej, medycynie (choć tu w ograniczonym zakresie - do działań czysto mechanicznych jak cięcie skalpelem, laserem itp). 

Nie kwestionuję też wiedzy prof. Dragana. Jedynie wskazuję, że ponosi go entuzjazm, który ma swe źródłi czysto merkantylne (większe granty na badania). 

Jedynie co kwestionuję to to, że AI myśli, że potrafi dojść do nowych rzeczy. Nie dojdzie. Jej ograniczeniem są bazy danych i poza nie nie wyjdzie. Algorytmy słyżą jedynie szybszej analizie i trafniejszej analizie. Ale Pioter już tu i gdzie indziej zademonstrował jak AI nie jest zdolna nawet do prostego myślenia. 

zaloguj się by móc komentować

Pioter @OjciecDyrektor 23 sierpnia 2023 02:25
23 sierpnia 2023 07:42

AI nigdzie nie dojdzie. A przynajmniej Chat GTP:

PK: Zapomniałeś naszą rozmowę sprzed kilku dni. Dlaczego nie uwzględniasz wniosków, do których ówczesnie doszedłeś?

AI: Przepraszam za wszelkie zamieszanie. Niestety, nie mam możliwości zapamiętywania lub odnoszenia się do wcześniejszych rozmów ani wniosków w ramach bieżącej sesji. Każda sesja jest traktowana jako oddzielna i nie mam zdolności do zachowania kontekstu z wcześniejszych interakcji. Jeśli masz konkretne wnioski lub informacje z wcześniejszych rozmów, które chciałbyś uwzględnić w obecnej dyskusji, proszę o dostarczenie tych informacji w trakcie aktualnej sesji.

PK: Czyli wprowadzanie danych do systemu przeze mnie nie ma żadnego sensu, bo ty i tak nic z tego nie zapamiętujesz i powracasz do wcześniejszych ustaiweń

AI: Przepraszam za wszelkie zamieszanie. Rzeczywiście, w trakcie jednej sesji nie mam zdolności do zapamiętywania wcześniejszych rozmów ani danych wprowadzanych przez użytkownika. Każda sesja jest traktowana jako osobna i nie mam możliwości przechowywania informacji poza jej zasięgiem. Jeśli chcesz kontynuować rozmowę na temat, który był wcześniej poruszany, proszę o dostarczenie potrzebnych informacji w bieżącej sesji, a ja postaram się udzielić odpowiedzi zgodnie z aktualnym kontekstem.

PK: Nie zapamiętujesz danych, którą są wprowadzane przez użytkowników.

AI: Tak, masz absolutnie rację. Przepraszam za wcześniejsze nieporozumienie. Nie zapamiętuję danych wprowadzanych przez użytkowników między sesjami. Każda sesja jest oddzielną jednostką, a ja nie mam zdolności do przechowywania danych z poprzednich sesji. Jeśli masz pytania lub potrzebujesz pomocy, proszę dostarczyć odpowiednie informacje w bieżącej sesji, a postaram się odpowiedzieć zgodnie z aktualnym kontekstem.

PK: est jakiś sens wprowadzania tych danych? Ktoś inny może z nich korzystać?

AI: Dane wprowadzane przez Ciebie podczas rozmów ze mną są wykorzystywane wyłącznie w ramach bieżącej sesji i nie są przechowywane ani udostępniane innym użytkownikom. Nie ma możliwości, aby ktoś inny miał dostęp do tych danych lub korzystał z nich. Dane wprowadzane w trakcie interakcji ze mną są wykorzystywane do generowania odpowiedzi i prowadzenia bieżącej rozmowy, ale nie są zachowywane ani udostępniane dalej. Moim celem jest zapewnienie prywatności i bezpieczeństwa użytkowników.

PK: Czy nie ma żadnego sensu wprowadzanie danych źródłowych z zakresu historii, bo ty i tak ich nie wykorzystasz do wygenerowania czegoś poza daną sesją

AI: Przepraszam za wcześniejsze zamieszanie. Faktycznie, moje zdolności do przetwarzania informacji wewnętrznych pozwalają mi generować odpowiedzi w trakcie bieżącej sesji, ale nie przechowuję ani nie korzystam z danych źródłowych spoza bieżącej interakcji. Moje odpowiedzi są wynikiem analizy ogólnie dostępnej wiedzy i informacji dostępnych do września 2021 roku, a także zdolności językowych.

Jeśli podczas bieżącej sesji dostarczysz dane źródłowe, postaram się dostarczyć odpowiedzi zgodnie z nimi, w miarę moich możliwości analizy dostarczonych informacji. Niemniej jednak, zawsze warto również konsultować się z specjalistami lub źródłami specjalistycznymi w danej dziedzinie dla bardziej precyzyjnych i aktualnych informacji.

PK: W jaki sposób więc powiększyć twój zasób danych źródłowych? w taki sposób, aby korzystać z nich mógł każdy?

AI:

Obecnie OpenAI, twórca modelu GPT-3, nie udostępnia możliwości dostosowywania lub rozbudowywania mojego zasobu danych źródłowych przez użytkowników. Jednak istnieje kilka sposobów, w jakie OpenAI rozwija i udoskonala swoje modele:

  1. Szkolenie przez eksperckie dane: OpenAI może wykorzystywać dane źródłowe dostarczone przez specjalistów i ekspertów w różnych dziedzinach do doskonalenia swoich modeli. To pomaga w tworzeniu bardziej precyzyjnych i wiarygodnych odpowiedzi.

  2. Analiza zwrotów użytkowników: OpenAI może analizować interakcje użytkowników z modelem, aby zrozumieć, jakie informacje są przydatne i jakie pytania są często zadawane. To pozwala na dostosowanie odpowiedzi w odpowiedzi na konkretne potrzeby użytkowników.

  3. Monitorowanie i aktualizacje: OpenAI może regularnie aktualizować modele, dodając nowe informacje i ulepszając zdolności modelu na podstawie nowych danych i badań.

  4. Współpraca z ekspertami: OpenAI może współpracować z ekspertami w różnych dziedzinach, aby uzyskać informacje i dane źródłowe, które pomogą w poprawie precyzji odpowiedzi modelu.

W przypadku chęci korzystania z rozszerzonego i dostosowanego źródła informacji, warto polegać na rzeczywistych źródłach, specjalistycznych bazach danych, książkach naukowych oraz innym weryfikowalnym materiale źródłowym, aby uzyskać dokładne i wiarygodne informacje.

PK: Co trzeba zrobić, aby zostać uznanym za eksperta?

AI:

Zostać uznanym za eksperta w danej dziedzinie wymaga zdobycia głębokiej wiedzy, doświadczenia i uznanie społeczności lub branży, w której chcesz być ekspertem. Oto kilka kroków, które mogą pomóc w zdobyciu statusu eksperta:

  1. Nauka i kształcenie się: Zdobywanie wiedzy poprzez formalne i nieformalne kształcenie to pierwszy krok w drodze do ekspertyzy. To może obejmować studia akademickie, szkolenia, kursy, samokształcenie, czytanie specjalistycznych książek i publikacji.

  2. Głębokie zrozumienie: Pogłębianie wiedzy w wybranej dziedzinie, analizowanie skomplikowanych zagadnień i zdobywanie wnikliwego zrozumienia to klucz do ekspertyzy. To oznacza zdobycie wiedzy, którą nie każdy posiada.

  3. Doświadczenie praktyczne: W praktyce zdobywanie doświadczenia jest równie ważne jak teoretyczna

PK: Kto decyduje, że dany eskpert może uzupełniać bazę Open AI?

AI:

OpenAI decyduje o tym, kto może uzupełniać bazę danych i w jaki sposób ta baza jest aktualizowana. OpenAI jest odpowiedzialne za tworzenie, szkolenie i zarządzanie modelami językowymi, takimi jak mój, oraz za decyzje dotyczące udostępniania możliwości uzupełniania bazy danych ekspertom.

Jeśli OpenAI zdecyduje, że dany ekspert jest odpowiedni do uzupełniania bazy danych, może podjąć działania, aby zaangażować tego eksperta w dostarczanie informacji i wiedzy w swojej dziedzinie. To może obejmować konsultacje, zbieranie specjalistycznych danych czy weryfikację treści.

Jednakże, dokładne procedury, kryteria i zasady zaangażowania ekspertów w proces uzupełniania bazy OpenAI mogą być zmienne i zależą od polityki OpenAI oraz celów związanych z rozwojem i ulepszaniem modeli językowych.

 

PK: "Jeśli OpenAI zdecyduje, że dany ekspert jest odpowiedni do uzupełniania bazy danych, może podjąć działania, aby zaangażować tego eksperta w dostarczanie informacji i wiedzy w swojej dziedzinie. " cRozwiń temat i wyjaśnij jak zostać takim ekspertem

AI:

Być zaangażowanym przez OpenAI w uzupełnianie bazy danych jako ekspert jest procesem, który wymaga zrozumienia, doświadczenia i współpracy z OpenAI. Poniżej przedstawiam ogólne kroki i elementy, które mogą pomóc w zdobyciu takiego statusu:

  1. Głęboka wiedza w dziedzinie: Aby zostać ekspertem, musisz zdobyć wiedzę głęboką i szeroką w danej dziedzinie. To oznacza studiowanie, naukę i praktyczne doświadczenie w konkretnej dziedzinie, na którą się specjalizujesz.

  2. Publikacje i badania: Tworzenie oryginalnych badań, artykułów i publikacji naukowych związanych z daną dziedziną może pomóc w zyskaniu uznanie i wykazaniu swojej ekspertyzy.

  3. Reputacja w społeczności: Budowanie reputacji jako eksperta wymaga aktywności w społeczności związanej z twoją dziedziną. To może obejmować udział w konferencjach, seminariach, wykładach czy publikowaniu na platformach branżowych.

  4. Współpraca z innymi ekspertami: Współpraca z innymi ekspertami w danej dziedzinie może pomóc w rozwijaniu swojej wiedzy i uzyskaniu wsparcia w dążeniu do uznanie.

  5. Zauważalny wkład: Jeśli Twoja wiedza i praca przynoszą zauważalne efekty lub rozwiązują istotne problemy w dziedzinie, to może przyciągnąć uwagę OpenAI lub innych organizacji pracujących nad rozwijaniem modeli językowych.

  6. Zgłoszenie swojej ekspertyzy: Jeśli wiesz, że OpenAI poszukuje ekspertów do uzupełniania bazy danych, warto zgłosić swoją ekspertyzę, dostarczając informacji na temat swojego doświadczenia, wiedzy i możliwości współpracy.

Warto jednak zauważyć, że proces zostania ekspertem i zaangażowania przez OpenAI może być konkurencyjny i zależny od wielu czynników. Również same kryteria i procedury selekcji ekspertów mogą się różnić w zależności od projektu i celów OpenAI. Jeśli jesteś zainteresowany taką współpracą, warto być świadomym aktualnych ogłoszeń lub ofert ze strony OpenAI oraz podążać za ich oficjalnymi kanałami komunikacji.

PK: "Zgłoszenie swojej ekspertyzy: Jeśli wiesz, że OpenAI poszukuje ekspertów do uzupełniania bazy danych, warto zgłosić swoją ekspertyzę, dostarczając informacji na temat swojego doświadczenia, wiedzy i możliwości współpracy." Jak?

AI:

Na chwilę obecną, OpenAI nie udostępnia ogólnodostępnego procesu zgłaszania ekspertyzy czy aplikowania do uzupełniania bazy danych. Jeśli OpenAI decyduje się na zaangażowanie ekspertów, zazwyczaj działają z określonymi ekspertami, partnerami badawczymi lub specjalistycznymi organizacjami.

Jeśli jesteś zainteresowany potencjalnym zaangażowaniem w projekty związane z tworzeniem modeli językowych lub innymi projektami OpenAI, warto śledzić oficjalne ogłoszenia, aktualności i komunikaty ze strony OpenAI. Jeśli masz konkretne pytania dotyczące możliwości współpracy z OpenAI, zawsze możesz skontaktować się bezpośrednio z nimi poprzez oficjalne kanały komunikacji lub strony internetowe.

Zapamiętaj, że polityki, procedury i możliwości współpracy mogą się zmieniać w zależności od konkretnych projektów i celów organizacji. Dlatego warto być świadomym aktualności związanych z OpenAI i działać zgodnie z oficjalnymi wytycznymi.

 

PK: A jeśli te organizacje celowo podają niewłaściwe lub niekompletne dane? Możesz w jakiś sposób to skorygować?

AI:

Jako sztuczna inteligencja działam na podstawie dostępnej mi wiedzy i danych źródłowych. Jeśli organizacje dostarczają niewłaściwe lub niekompletne dane, niestety nie mam zdolności do ich skorygowania lub aktualizacji. Moje odpowiedzi opierają się na tym, co znam do września 2021 roku oraz na danych dostarczonych w trakcie bieżącej sesji.

Jeśli napotkasz na niewłaściwe lub niekompletne informacje w moich odpowiedziach, zawsze warto skonsultować się z wiarygodnymi źródłami, ekspertami lub specjalistami w danej dziedzinie. To pozwoli uzyskać bardziej dokładne i aktualne informacje oraz uniknąć potencjalnych błędów lub nieścisłości.

zaloguj się by móc komentować

chlor @Andrzej-z-Gdanska
23 sierpnia 2023 07:58

No cóż, przyszłe pandemie i następne wirusy bedą coraz inteligentniej skonstruowane i jeszcze sprawniej organizowane.

 

zaloguj się by móc komentować

Paris @Pioter 23 sierpnia 2023 07:42
23 sierpnia 2023 08:08

Mamo,  ja  wariat  !!!

 

zaloguj się by móc komentować

Kuldahrus @kskiba19 22 sierpnia 2023 22:25
23 sierpnia 2023 09:48

Lepiej bym tego nie ujął. Najgorsza jest ta pewność siebie w tym, a ludzie którzy nie mogą zweryfikować tego co on mówi bo nie posiadają wiedzy w tym kierunku kiwają głowami, "bo tak mądrze gada".
 

 

zaloguj się by móc komentować

chlor @Andrzej-z-Gdanska
23 sierpnia 2023 19:04

Facet ma całkowicie nieczynne części mózgu sterujące etyką czy moralnością. Robi niebezpieczne rzeczy bo jest nimi "zafascynowany". Zamiast się wystraszyć, jest zachwycony. Badanie gazów bojowych też musiało być fascynujące dla niemieckich uczonych. Ciekawe, że pytany o korzyści z AI glównie podaje niesamowite perspektywy dla szybkiego wzbogacenia się.

Czyli w tym nowym wspaniałym świecie widzi siebie raczej w roli poganiacza niewolników. Może się przeliczyć.

 

 

zaloguj się by móc komentować

OjciecDyrektor @Pioter 23 sierpnia 2023 07:42
23 sierpnia 2023 20:40

To jest twój najlepszy komentarz...:). Uśmiałem się po pachy. Najśmieszniejsze jest, że na takiej samej zasadzie działaja wszystkie AI, bo bazy danych to cos w rodzaju mózgu i trzeba je chronić przed zewnętrznym "zanieczyszczeniem". Stąd w celu jak najlepszego bezpieczeństwa uniemożliwia sie wprowadzanie nowych danych. Może to robić tylko ktoś z twórców, ale oni muszą to zweryfikowac, a proces wrryfikacji i implementacji (jeśli nowe dane są sprzeczne ze stsrymi - zdeaktualizowamymi) zajmuje dużo czasu. Stąd AI jest zawsze opóźniona w swej wiedzy. No i nigdy niczego nowego nie wysnuje z tego zadobu wiedzy, bo zeyczajnie system tego zakazuje - tylko o tym sie nie mówi i to jest to bezczelne kłamstwo Dragana i jemu podobnych. 

zaloguj się by móc komentować

zkr @OjciecDyrektor 23 sierpnia 2023 20:40
23 sierpnia 2023 21:13

> No i nigdy niczego nowego nie wysnuje z tego zadobu wiedzy

To zalezy o czym mowimy, co rozumiemy jako "nowe".
Przyklad: AlphaGo, program, ktory pokonal mistrza go (jest to uwazane za pewien przelom w rozwoju AI).
Oczywiscie korzystal z baz danych, na poczatku gral przeciwko innym programom i ludziom a gdy wszedl na wyzszy poziom to zaczal grac przeciwko kopiom samego siebie.

Na wyzszy poziom wszedl program Alpha Go Zero:

"Poprzednie wersje AlphaGo początkowo trenowały na tysiącach amatorskich i profesjonalnych gier, aby nauczyć się grać w Go. AlphaGo Zero pomija ten krok i uczy się grać po prostu grając przeciwko sobie, zaczynając od całkowicie losowej rozgrywki. W ten sposób szybko przekroczył ludzki poziom gry i pokonał wcześniej opublikowaną wersję AlphaGo, która pokonywała mistrzów, 100 gier do 0.
Jest w stanie tego dokonać wykorzystując nowatorską formę uczenia się przez wzmacnianie, w której AlphaGo Zero staje się swoim własnym nauczycielem. System zaczyna od sieci neuronowej, która nie ma pojęcia o grze w Go. Następnie gra przeciwko sobie, łącząc tę sieć neuronową z potężnym algorytmem wyszukiwania. W trakcie gry sieć neuronowa jest dostrajana i aktualizowana w celu przewidywania ruchów, a także ostatecznego zwycięzcy gier."
(tlumaczenie: Tlumacz Google)

link

zaloguj się by móc komentować

klon @OjciecDyrektor 23 sierpnia 2023 20:40
23 sierpnia 2023 21:19

<<<No i nigdy niczego nowego nie wysnuje z tego zadobu wiedzy, bo zeyczajnie system tego zakazuje....>>>

Nie jestem programistą, ale coś mi się nie dodaje w powyższym fragmencie komentarza.

Skoro twórcy sieci neuronowych  nie wiedzą jaki będzie końcowy wynik, skąd wiedzą czego mają zakazać? Jeśli nawet jest tak, że zakładają ograniczenia na określone wyniki działania sieci neuronowych, to automatycznie takie podejście dopuszcza stworzenie "czegoś" nowego. 
Kilkakrotnie w twoich komentarzach odnajdywałem myśl,że "twórcze" i "nowe" to pojęcia które nie opisują działania maszyn. Zatem, maszynki mają zdolości wyjścia "ponad" kopiowanie, czy też nie? 

zaloguj się by móc komentować

klon @zkr 23 sierpnia 2023 21:13
23 sierpnia 2023 21:36

<<< W ten sposób szybko przekroczył ludzki poziom gry ...>>>

Rozumiem przez to, że przekroczył ograniczenia ludzkiego umysłu, licząc szybciej, wykonując niedostępną człowiekowi ilość operacji w trakcie jednostki czasu. Tylko czy takie działanie umożliwi osiągnięcie możliwości stworzenia czegoś w pełni nowego? Czegoś, co nie wynika wprost z zebranych danych? Zwyczajnej kombinatorki, jeśli można tak powiedzieć?

Wierzę że nie. Czy słusznie? 

zaloguj się by móc komentować

aszymanik @OjciecDyrektor 23 sierpnia 2023 20:40
23 sierpnia 2023 21:40

To wszystko prawda ale mówimy o tych dostępnych nam algorytmach AI, które są celowo okaleczene i skoślawiane. Wystarczy sobie wyorazić (a pewien jestem, że takie istnieją) algorytmy, które uczą się się na pełnym "zapięciu" do sieci i pełnej interakcji z ludźmi (jakimi ludźmi to inna sprawa). Nie będę się posuwał do takich rzeczy jak wieszczenie o osiągnięciu samoświadomości przez rozum maszynynowy ale osiągniącięcie takiej zimnej, kalkulowanej inteligencji jest chyba już faktem. Wszyscy w tym co na codzień robimy posługujemy się albo wyuczonymi schematami czyli algorytmami (niech Pan spróbuje dodać w pamięci 126431 i 8889544 - ciekaw jestem czy nie posłuży się Pan wyuczonym algorytmem....), czasem intuicją - to też już jest dostępne dla maszyn (prognozowanie wyniku z dopuszczalnym błędem i inne mechanizmy, których tak do końca nie rozumiemy - są sieci neuronowe, stosowane przez NASA, które sterują w czasie rzeczywistym kątem natarcia obiektów wchodzących w atmosferę celem uniknięcia ich spaleniu, one wobec prędkości tych obiektów z naszego punktu widzenia działają czysto intuicyjnie - i działają...) albo emocjonalnie - właśnie jak blisko (albo daleko) jesteśmy od miejsca kiedy AI odpowie koledze Pioterowi tak jak on oczekuje tylko dlatego, że go lubi i podziela jego poglądy?

zaloguj się by móc komentować

aszymanik @klon 23 sierpnia 2023 21:36
23 sierpnia 2023 21:53

Myślę, że to płonne nadzieje - proces wymyślania czegoś nowego to nie są wcale rzeczy niedostępne dla maszyn. Czy maszyna zapytana jak ułatwić transport po drogach, przy założeniu, że mamy zwierzęta pociągowe, umiemy budować wozy na które ładujemy określonej masy ładunki, potrafiamy jakoś tam obrabiać drewno i metale nie wymyśliłaby koła? Chyba jednak byłaby do tego zdolna...

zaloguj się by móc komentować

klon @aszymanik 23 sierpnia 2023 21:53
23 sierpnia 2023 22:40

<<< Czy maszyna zapytana jak ułatwić transport po drogach, ....) (nie wymyśliłaby koła?
Chyba jednak byłaby do tego zdolna...>>>

Sama z siebie? Nie mając wzorca podanego przez programistę czym jest koło?
Bez zastosowania algorytmu zadanego przez człowieka AI nie jest w stanie zrobić czegokolwiek.
Liczę, że tak pozostanie. 

zaloguj się by móc komentować

aszymanik @klon 23 sierpnia 2023 22:40
23 sierpnia 2023 22:50

Koło to konstrukt matematyczno fizyczny, człowiek doszedł do koła metodą prób i błędów, no i swoją intuicją, maszyna mogłaby to zrobić szybciej na przykład wychodząc z założenia, że należy ograniczyć zużycie energii poprzez wyeliminowanie nadmiarowych sił tarcia w transporcie..

zaloguj się by móc komentować

zkr @klon 23 sierpnia 2023 21:36
23 sierpnia 2023 23:13

  > licząc szybciej, wykonując niedostępną człowiekowi ilość operacji w trakcie jednostki czasu.

To tez. Ale w pewnym momencie to co czlowiek stworzyl (baza partii rozegranych przez ludzi) juz nie wystarczylo wiec program zaczal grac przeciwko sobie. Czyli gral ze soba stosujac technike gry, ktora w pewnym momencie okazala sie zbyt trudna dla czlowieka.
AlphaGo Zero juz nie potrzebowal pomocy czlowieka, uczyl sie grac sam.

Czy mozemy powiedziec wiec, ze program stworzyl nowe strategie gry w go?

zaloguj się by móc komentować

aszymanik @Andrzej-z-Gdanska
23 sierpnia 2023 23:48

"wykonując niedostępną człowiekowi ilość operacji w trakcie jednostki czasu" - wobec dostępnych mocy obliczeniwych i tak zresztą rosnących lawinowo coś takiego jak obliczeniowa jednostka czasu dostępna dla maszyn jest terminem pozbawionym jakichkolwiek analogii dla naszego postrzegania czasu - w naszej perspektywie, dla maszyn pewne procesy ograniczone są nie czasem, a właściwościami fizykochemicznymi środowiska w których te procesy zachodzą (wiem, wiem jednym z tych czynników jest czas, no ale stosunkowo mało istotnym w tym przypadku). Komputery kwantowe w ogóle mogą problem czasu w operacjach weliminować (albo zredukować do wartości niemierzalnych).

zaloguj się by móc komentować

cbrengland @Paris 23 sierpnia 2023 08:08
23 sierpnia 2023 23:55

W co ty się "bawisz"? Daj spokój. To tylko głupie komputery. Można wyłączyć im prąd. I nie ma ich. My pozostaniemy.

To takie proste jest przecież.

________

zaloguj się by móc komentować

aszymanik @cbrengland 23 sierpnia 2023 23:55
24 sierpnia 2023 00:05

Człowiekowi też "można wyłączyć prąd".

zaloguj się by móc komentować

Paris @cbrengland 23 sierpnia 2023 23:55
24 sierpnia 2023 00:06

Ja  sie  w  to  ,,nie  bawie,,...

...  bo  wiem,  ze  wystarczy  tylko  wylaczyc  prad,...  a  ten  Dragan  -  to  TWORKI,  i  tyle  !!!

zaloguj się by móc komentować

cbrengland @aszymanik 24 sierpnia 2023 00:05
24 sierpnia 2023 00:16

Dobrze się czujesz? Albo nie wiesz, o czym piszesz. Wiele nauki przed tobą jednak jeszcze. Chyba że jesteś z tych, co to już wszystko wiedzą. Biedacy, po prostu.

________

zaloguj się by móc komentować

cbrengland @Paris 24 sierpnia 2023 00:06
24 sierpnia 2023 00:18

Nie wiem, kto to Dragan i w zasadzie wiedzieć mi się nie chce ☺

______

zaloguj się by móc komentować

kskiba19 @Paris 24 sierpnia 2023 00:06
24 sierpnia 2023 01:40

Prof. Dragan w jednym z wywiadów wspomniał, że po latach znajomi z czasów studiów odważyli się powiedzieć mu, że był rasowym psychopatą, po czym stwiersził, że dalej nim jest, tylko z wiekiem mu sie to złagodziło :)

Moim zdaniem jest idealną osobą w idealnym miejscu. Sposób działania jego umysłu, który wydaje sie nie być całkiem normalny, bardzo dobrze sprawdza się w poszukiwaniu najgłebszych reguł opisu działnia rzeczywistości na najniższych poziomach, które od naszej normalności są również bardzo odległe.

Trzeba tylko pamiętać, że jest naukokratą posuniętym do granic możliwości. A o swojej dziedzinie mówi prosto i zrozumiale, uprzedzając zarazem, że potoczny opis zasadza się na zniekształceniu, które jest niezbędne, żeby niematematykowi przedmiot jego badań przybliżyć.

zaloguj się by móc komentować

Pioter @aszymanik 23 sierpnia 2023 21:40
24 sierpnia 2023 05:33

Podejrzewam, że może się stać to za jakieś dwa lata. AI odpowie mi tak, jak ja tego będę oczekiwać. Z tym, że będzie to AI, które będzie specjalnie dla mnie zaimplementowana i będzie zbierać dane o mojej aktywności w czasie rzeczywistym.

Jak na razie opisuję ograniczenia Chat GTP. Czegoś, czym obecnie zachwyca się większość użytkowników internetu (a szkolenia z wydawania mu komend kosztują około 300 zł).

Ale już Bard od googla, działając na troszkę innych algorytmach (czyli z dostępem do www w czasie rzeczywistym) działa zupełnie inaczej i daje zupełnie inne wyniki. Nie czyta jeszcze wskazanych adresów stron internetowych, ale to tylo kwestia czasu. Zresztą jakieś dwa miesiące temu Bard do niczego się nie nadawał - dziś jest nieznacznie lepszy od tego, co prezentuje sobą Chat GTP.

zaloguj się by móc komentować

Andrzej-z-Gdanska @kskiba19 24 sierpnia 2023 01:40
24 sierpnia 2023 07:26

Małe uzupełnione odnośnie profesora Dragana:

Magazyn "Wired" nazwał go "zbuntowanym fizykiem, który znalazł eleganckie rozwiązanie kwantowej tajemnicy", zaś jeden z jego studentów w anonimowej ankiecie ocenił profesora następująco:

"Nieuprzejmy i arogancki, choć merytorycznie prezentuje doskonały wykład" .

 

zaloguj się by móc komentować

Andrzej-z-Gdanska @kskiba19 24 sierpnia 2023 01:40
24 sierpnia 2023 07:30

Małe uzupełnione odnośnie profesora Dragana:

Magazyn "Wired" nazwał go "zbuntowanym fizykiem, który znalazł eleganckie rozwiązanie kwantowej tajemnicy", zaś jeden z jego studentów w anonimowej ankiecie ocenił profesora następująco:

"Nieuprzejmy i arogancki, choć merytorycznie prezentuje doskonały wykład" .

 

zaloguj się by móc komentować

OjciecDyrektor @klon 23 sierpnia 2023 21:36
24 sierpnia 2023 07:38

AI jest tylko szybsza i sie nie męczy analizujac tyle danych. I to jest jej jedyna przewaga. Ale do pracy tworczej to się nie nafaje. Jedynie do mechanicznej, opartej o szablon/wzór postepowania. 

zaloguj się by móc komentować

OjciecDyrektor @zkr 23 sierpnia 2023 23:13
24 sierpnia 2023 07:41

Sorry ale wyniki w grach nie są miernikiem tego, że ktos ma wybitną inteligencje. Wybitny gracz, to ktos kto powiela cos, co już jest. 

zaloguj się by móc komentować

OjciecDyrektor @zkr 23 sierpnia 2023 23:13
24 sierpnia 2023 07:44

To sa technikalia, ktore stosuje AI. I dobrze. AI ma n6c wtbitnym technikiem, aby odciążyć czlowieka  i ten mógł wiecej czasu poświecic na myślenie.

zaloguj się by móc komentować

OjciecDyrektor @klon 23 sierpnia 2023 21:36
24 sierpnia 2023 07:48

Tworcy sieci neuronowych sami popadaja w sprzeczność. Bo z chaosu nie da się stworzyć uporządkowanej wirdzy. Ona musi byc juz uporządkowana, czyli niechaotyczna. AI opierac sie ma na sieciach neuronowwych ale nie do tego ny myślec, ale by szubciej analizowac i wybierac naklepsze rozwiazanie. Gadanie, że sieci neuronowe to prawdziwe mózgowe neurony jak u czlowieka jest mylne i ludzi wprowadza w błąd. 

zaloguj się by móc komentować

klon @zkr 23 sierpnia 2023 23:13
24 sierpnia 2023 07:55

<<<Czy mozemy powiedziec wiec, ze program stworzyl nowe strategie gry w go?>>

Uważam, że nie. Jeszcze. 

Program działa zgodnie z zadanym algorytmem.  Robi to szybciej, i co do zasady, pamięta "wszystko".  Mając błyskawiczny dostęp do bazy danych maszyna jest wydajniejsza od człowieka. 

Jednakże,  dopuki robot nie ciśnie arkuszy i kalkulacyjnych w  kąt i nie pójdzie na świeży olej, tak dla frajdy, to nie powiem że sam coś może wymyśleć. 

zaloguj się by móc komentować

OjciecDyrektor @klon 24 sierpnia 2023 07:55
24 sierpnia 2023 08:02

Robot, maszyna nigdy tego nie zrobi. Nie ma wolnej woli. Nawet zwierzęta uczą się nie poprzez myślenie, a naśladownictwo. Reszta to wrodzone instynkty. W efekcie każde zwierzę dochodzi do pewnego poziomu i koniec już z dalszym rozwojem. Z robotem jest gorzej. On ma tylko to, co mu człowiek da, a z tego co mu dać może, to jedynie wzory matematyczne. 

zaloguj się by móc komentować

OjciecDyrektor @OjciecDyrektor 24 sierpnia 2023 08:02
24 sierpnia 2023 08:03

Gotowe wzory matematyczne - wymyślone przez człowieka. AU n8gdy nie stworzy, nie wymyśli algorytmu i nie zmieni swego działania. 

zaloguj się by móc komentować

Andrzej-z-Gdanska @OjciecDyrektor 24 sierpnia 2023 08:03
24 sierpnia 2023 08:26

Profesor Dragan zwrócił uwagę na fakt, że w realcji człowiek - AI doszło do sytuacji, w której człowiek jakby stracił częściowo kontrolę nad AI przez fakt, że nie wie jak AI dochodzi do zadanych rezultatów. Na razie nie ma paniki, ale nie wiadomo co z tego wyniknie, ponieważ człowiek prawie zawsze tę kontrolę miał. Na razie AI może nie mieć tzw. "świadomości" coz tego wynika lub wyniknie. ;)

zaloguj się by móc komentować

Paris @aszymanik 24 sierpnia 2023 00:05
24 sierpnia 2023 08:31

Mozna...

...  i  wlasnie  to  sie  dzieje,

zaloguj się by móc komentować

Paris @cbrengland 24 sierpnia 2023 00:18
24 sierpnia 2023 08:34

W  zasadzie  slusznie,  ze...

...  nie  chcesz  NIC  o  tym  CZUBKU  wiedziec  !!!

zaloguj się by móc komentować

Paris @kskiba19 24 sierpnia 2023 01:40
24 sierpnia 2023 08:44

Po  tym,  co  o  nim  czytalam,...

...  znajduje  go  jako  CZUBA,...  co  prawda  ,,nie  nosi  jeszcze  majtek  na  glowie,,  ale  DLA  KASY  to  zrobi,  to  -  tylko  -  kwestia  czasu.  Takie  INDYWIDUA  omijam  szerokim  lukiem,... 

...  ale  to  znak  -  zeby  szukac  w  poblizu  ,,bejsbola,,  na  typa  i  jemu  podobnych  ,,musk`UF,,  od  tej  detej  i  ZLODZIEJSKIEJ  AI  !!!  

zaloguj się by móc komentować

Paris @Andrzej-z-Gdanska 24 sierpnia 2023 08:26
24 sierpnia 2023 09:03

No  nie  moze  byc  !!!

A  teraz  zeby  ,,czlowiek,,  te  ,,kAtrole  nad  AI,,  odzyskal...  to  potrzebuje  KASY  zeby  takie  CZUBY  jak  ,,profesUr,,  i  te  rozne  ,,musk`i,,  mieli  zajecie  i  poprawiali  nam  swiat,...

...  a  WON  z  nimi  wszystkimi,  dziadami  i  zlodziejami,...  obejdzie  sie  bez  nich  WYKOLEJENCOW  !!!

zaloguj się by móc komentować

zkr @Andrzej-z-Gdanska 24 sierpnia 2023 08:26
24 sierpnia 2023 09:39

> AI doszło do sytuacji, w której człowiek jakby stracił częściowo kontrolę nad AI przez fakt, że nie wie jak AI dochodzi do zadanych rezultatów.

Jest taka wersja AI zwana Explainable AI w ktorej mozemy przesledzic dlaczego program podjal taka nie inna decyzje.
Pierwszy raz sie spotkalem z pojeciem XAI na tym wykladzie:
Agnieszka Mikołajczyk, WEiA PG – Wprowadzenie do Explainable AI: dlaczego warto rozumieć decyzje sztucznej inteligencji?

zaloguj się by móc komentować

zkr @klon 24 sierpnia 2023 07:55
24 sierpnia 2023 09:40

> i nie pójdzie na świeży olej, tak dla frajdy, to nie powiem że sam coś może wymyśleć. 

Ja tez nie wierze, ze tak sie stanie :)

zaloguj się by móc komentować

zkr @OjciecDyrektor 24 sierpnia 2023 07:48
24 sierpnia 2023 09:50

> Gadanie, że sieci neuronowe to prawdziwe mózgowe neurony jak u czlowieka jest mylne i ludzi wprowadza w błąd.

Pelna zgoda. "siec neuronowa" to jak pojecie marketingowe, robi warazenie ;)
A "neuron" to nic innego jak okreslona funkcja matematyczna zakodowana w jakims jezyku programowania.
Wrzuce tu link dla zainteresowanych - fragment prezentacji AGH z wprowadzeniem do pojecia neuronu.

zaloguj się by móc komentować

Paris @zkr 24 sierpnia 2023 09:39
24 sierpnia 2023 09:55

O,  Dragan  ,,w  spodnicy,,  !!!

 

zaloguj się by móc komentować

OjciecDyrektor @Andrzej-z-Gdanska 24 sierpnia 2023 08:26
24 sierpnia 2023 09:58

Prof. Dragan dramatyzuje, bo chce więcej kasy na badania i "przywrócenie kontroli". 

Chemicy też "stracili kontrole" nad atomami, bo nie wiedzą gdzie jinkretn8e jest elektron i co on robi w danej chwili....:). Oblicza wię te mole, ale to jest taka rama bez szczegółów.

Z elektrycznoscią jest podobnie. A fizyka kwantowa to j6ż kwantowy chaos i co? Jakoś prof. Dragan ze swadą opowiada jak to tam w tej "zupie" kwantowej jest. Nie rozumiemy zjawisk kwantowych, tj. nie wiemy dlaczego jest tak a tak, a nie inaczej w dsnym przypadku i jakoś ludzie uważają się za tych, co jednak coś tam kontrolują, bo konstruuja maszyny oparte o kwantowość. 

Dragan nie jest do końca szczery i zwyczajnie koloryzuje, dramatyzuje. 

PS. Ruchu komet, planet i galaktyk też nie kontrolujemy....:). Teoretycznie planety są przewidywalne, ale zawsze może coś w jej orbicie się zmienić. Nic tylko się bać.

zaloguj się by móc komentować

zkr @Paris 24 sierpnia 2023 09:55
24 sierpnia 2023 10:08

> O,  Dragan  ,,w  spodnicy,,  !!!

Ja bym nie kpil. Mowila o algorytmach, ktore podaja dlaczego dane rozwiazanie zostalo przyjete czy odrzucone. To ma w pewnych obszarach istotne znaczenie. Inaczej mowimy o "black box" i przyjmujemy na wiare, ze dany wynik jest optymalny.

Co do samej AI, powiem na podstawie swojej dziedziny - chemicy i biochemicy stosuja AI po prostu jako narzedzie.
Przyklad. Jezeli AI pomaga nam "rozkminiac" struktury bialek sprawniej niz inne narzedzia informatyczne to dlaczego nie korzystac z tego?

zaloguj się by móc komentować

zkr @OjciecDyrektor 24 sierpnia 2023 09:58
24 sierpnia 2023 10:12

> Ruchu komet, planet i galaktyk też nie kontrolujemy....:).

Bo juz dla ruchu trzech cial nie da sie podac rozwiazania scislego. Musimy stosowac "numeryke",metody przyblizone.

> Chemicy też "stracili kontrole" nad atomami,

Nie stracilismy. Pisze to jako "fizyk zewnetrznych powlok" :)

zaloguj się by móc komentować

Paris @zkr 24 sierpnia 2023 10:08
24 sierpnia 2023 10:41

Bo  ta  deta  AI...

...  to  jest  BAT  na  samego  czlowieka  !!!

To  sie  skonczy  tylko  KATASTROFA,

zaloguj się by móc komentować

OjciecDyrektor @zkr 24 sierpnia 2023 10:12
24 sierpnia 2023 11:42

No z ta utratą kontroli to ja ironizuję, bo prof. Dragan raczy nas mieć za baranów.

zaloguj się by móc komentować

zkr @Andrzej-z-Gdanska
24 sierpnia 2023 12:47

> raczy nas mieć za baranów

To jest chyba czesto spotykana przypadlosc w tej czesci Europy. Ale sa normalni wykladowcy. Moja profesor od chemii fizycznej mowila, ze jesli nie umiesz czegos komus wytlumaczyc to jest mozliwe, ze nie rozumiesz tematu.

To samo jest z podrecznikami. Jedni pisza jakby sie chcieli pochwalic tym co wiedza, inni pisza tak aby czytelnik zrozumial.

zaloguj się by móc komentować

McGregor @chlor 23 sierpnia 2023 19:04
25 sierpnia 2023 00:26

"Facet ma całkowicie nieczynne części mózgu sterujące etyką czy moralnością. Robi niebezpieczne rzeczy bo jest nimi "zafascynowany" - to jest tak zwana wolność nauki. Tak to rozumieją obecnie ofiary "neutralnego" wychowania. brak ograniczeń jest przecierz oczywistym prawem dla ludzi, którzy posiadają tytuły prof.

zaloguj się by móc komentować

kskiba19 @zkr 24 sierpnia 2023 12:47
25 sierpnia 2023 02:17

Pełna zgoda. Z moich doswiadczeń czasów studenckich i potem pracy na uczelni wynika to samo. Nic tak nie pomaga zrozumieć zgadnienia jak konieczność wytłumaczenia komuś innemu. Tylko z tym tłumaczeniem to nie do końca. Niektórzy osobnicy wymagają tyle czasu na dokształcenie, że w praktyce nie da się im wytłumaczyć. Opór materii naprawde potrafi być zbyt duży.

zaloguj się by móc komentować

Andrzej-z-Gdanska @Andrzej-z-Gdanska
26 sierpnia 2023 18:42

Bardzo dziękuję wszystkim za dotychczasowe komentarze, nawet te, z którymi się nie zgadzam. Nie chodziło mi zupelnie o, jak to się mówi, wsadzenie kija w mrowisko.
Nie odpowiedziałem wszystkim na komentarze. Zastanawiałem sie jak odpowiedzieć na nie, ponieważ nie chciałem sie odnieść do poszczególnych wypowiedzi, ale napisać jeden komentarz.
Czasami trochę dyskusja zchodziła na, jak to się mówi, ad personam, co nie jest wcale takie złe, ale mnie interesowało jak napisałem na początku, co miał do powiedzenia sensownie na temat AI profesor dr hab Andrzej Dragan, który pracuje na tej samej uczelni co Krzysztof Meissner.
Profesor dr hab Andrzej Dragan nie jest informatykiem, programistą, ale fizykiem teoretycznym  do tego, który w swoje pracy korzysta z AI mówiąc ogólnie i jego wypowiedzi wydały mi się interesujące. Nie jest moim idolem i nikogo nie namawiam, żeby takim się stał dla kogoś, chociaż z
zainteresowaniem wysłuchałem kilka jego wykładów czy wywiadów. Jego sposób mówienia może wydać sie trochę szokujący, ale ważniejsze jest to co ma konkretnie do powiedzenia. Szczególnie ważne było to co powiedział
na początku i wg mnie w tym stylu się wypowiada i tego się "trzyma", co zdarza się niezmiernie rzadko wśród ludzi:

Prof. Andrzej Dragan: Trzeba włożyć pewien wysiłek, żeby odklejać emocje od tego co się uważa i staram się ten wysiłek wkładać, bo emocje ludźmi targają, ale to specjalnie do niczego nie prowadzi w takiej dyskusji na temat faktów.

Ważne, przynajmniej dla mnie jest też to, że rozumiem co do mnie mówi profesor co jest rzadką zaletą, ponieważ można być nawet geniuszem, ale nie umieć przekazać tego co się wie.
 

zaloguj się by móc komentować

Kuldahrus @Andrzej-z-Gdanska 26 sierpnia 2023 18:42
28 sierpnia 2023 10:54

Mnie najbardziej odstręcza to że próbuje się zrobić z niego guru od rzeczy w których nie jest specjalistą tylko dlatego, że ubiera temat w ładne techniczne słowa. On naprawdę nie mówi nic odkrywczego, to samo powiedziałby np. szwagier informatyk przy piwie, już nie wspominając o rzeczach gdzie po prostu błądzi.
To jest taka sama sytuacja jak z aktorami których wszyscy słuchają bo są popularni, a aktor jest tylko człowiekiem który gra rolę i nie jest żadnym autorytetem. W tym przypadku tylko mamy do czynienia z fizykiem i to że jest wybitnym fizykiem wcale nie sprawia, że trzeba go słuchać we wszystkim bo akurat go pokazują w mediach.

 

" Zwracam uwagę tylko, że wyobrażenia, że wszyscy bogacze na świecie to są fortuny dziedziczone z pokolenia na pokolenie – takie czasy skończyły się dawno temu jeżeli kiedykolwiek były. "

Przykładowo tutaj już w ogóle poleciał, bo jest całkiem odwrotnie, nie da się stworzyć mięzynarodowej korporacji w garażu, bogactwo zawsze jest dziedziczone, a od pewnego poziomu zamożności nie można po prostu sobie "wejść na salony", tam już jest ściśle pilnowane wszystko. To że ktoś miał dobry pomysł i coś zapoczątkował to nie znaczy że ma wpłw na korporację która działa na tym pomyśle.

 

zaloguj się by móc komentować

Andrzej-z-Gdanska @Kuldahrus 28 sierpnia 2023 10:54
28 sierpnia 2023 11:22

Nie wiem kto z profesora Dragana robi guru, bo jemu nawet na tym nie zależy. ;)

Ten jego cytat jest zasadny. Czytałem jak dochodził do "wielkości" Bil Gates. Jest też ciekawy film o nieciekawym facecie jakim był Steve Jobs. Jest też film o Zuckerbergu od FaceBooka. Tam nic nie ma o dziedziczeniu. Jest za to sporo o bezpardonowej walce i tak to działa do dzisiaj. Przecież Microsoft miał zarzuty monopolisty, które zarzucał Departament Sprawiedliwości USA w państwie bądź co bądź o gospodarce "wolnorynkowej".

https://www.computerworld.pl/news/Proces-Microsoftu-amerykanski-rzad-zaproponowal-podzial-monopolisty,533.html

 

zaloguj się by móc komentować

Kuldahrus @Andrzej-z-Gdanska 28 sierpnia 2023 11:22
28 sierpnia 2023 11:55

Po internecie ciągle latają wywiady z nim, chciałbym, żeby Gabriela tak wszędzie zapraszali.

 

Tylko, że to "dochodzenie do wielkości" to są historie dla ludu, przy dużych wpływach wchodzi się już w orbitę graczy globalnych i tam nie wiemy jak sprawy wyglądają, ale napewno nie wchodzi się tam wypracowując wszystko "tymi rencami".
Przy takich "drobnych" rzeczach jak rynek książki w Polsce widzimy naocznie jak wszystko jest odgórnie sterowane przez układy, to co dopiero na takim poziomie jak globalne korporacje obrcające miliardami dolarów i na których trzyma się 1/3 gospodarki światowej.

 

zaloguj się by móc komentować

zkr @Andrzej-z-Gdanska
13 października 2023 18:16

prof. Andrzej Dragan Uniwersytet Warszawski w czasie inauguracji roku akademickiego 2023/2024 Politechnika Gdańska:

https://www.youtube.com/watch?v=9l9sVi45TDQ

No, dresy i adidasy podczas wykladu. Mysli, ze jest taki swietny wiec moze sobie na wiecej pozwolic. Jak dla mnie jest spalony.

Zapomina, ze nie jest jedynym, ktory potrafi opowiadac o fizyce.

zaloguj się by móc komentować

zaloguj się by móc komentować