atarionline.pl AI pisze programy - Forum Atarum

Jeśli chcesz wziąć udział w dyskusjach na forum - zaloguj się. Jeżeli nie masz loginu - poproś o członkostwo.

  • :
  • :

Vanilla 1.1.4 jest produktem Lussumo. Więcej informacji: Dokumentacja, Forum.

    • 1: CommentAuthorrozyk
    • CommentTime11 Dec 2022 zmieniony
     
    Cześć

    muszę się podzielić odkryciem. Możliwe że znacie, możliwe że nie.
    ->link<-
    Po rejestracji piszecie co wam na sercu leży a odpowiedzi są mocno sensowne. Można pytać o cokolwiek, nawet o wpływ pogody na migracje lemingów :-)
    Pisze też programy w wielu językach. Sprawdzałem i wystarczy poprosić o programik w pythonie, który np czyta dane z pliku xlsx, modyfikuje je (np. usuwa puste linie) i zapisuje wynik do pliku.
    AI pamięta rozmowę do zamknięcia chatu, więc jak poprosicie że ok, ale chcecie żeby program pytał o nazwy pliku to zaraz macie zmienioną wersję. OK ale ja chcę żeby domyślnym folderem był pulpit. Błysk i już nowa wersja programu. Jak przy odpaleniu macie błąd, piszecie że macie taki błąd i błysk - poprawiony programik. Jak chcecie GUI to prosicie i macie.
    Sprawdzałem - pisze pięknie dla arduino też. Można napisać że fajnie ale zrób to na przerwaniach i pyk - masz. Wystaw sygnał na pin jak jutro będzie deszcz w Warszawie - zrobił i pobiera dane z serwerów pogodowych.

    Zapytałem czy 6502 kodzik w asm zrobi - spoko, zrobi.
    Napisałem na próbę takie pytanie:

    write program in 6502 assembly that copy block of memory starting from address h0000 ending at h1000 to new memory location starting at h2000

    I pyknął coś mniej więcej ok - nie sprawdzałem.

    write simple demo for atari 800xl
    macie - "Hello World" w basicu
    dodałem : "in asm"
    pyknął mi w asemblerze takie trochę poronione ale jednak


    Dajcie znać co o tym sądzicie i jakie fajne pytania zadaliście temu/tej AI.


    Dla mnie szok. Programiści będą mieli fajną pomoc a w przyszłości bezrobocie.
    Żarcik oczywiście. Demka na Atari muszą pisać ludzikowie.

    Właśnie odkryłem że nie trzeba pisać po angielsku. Można po naszemu i tak też odpowiada.

    Wypracowania też pisze na zamówienie :-)))
    • 2: CommentAuthor0xF
    • CommentTime11 Dec 2022
     
    • 3:
       
      CommentAuthormav
    • CommentTime11 Dec 2022
     
    W końcu jak wszyscy to wszyscy, więc ja tez chciałem się pobawić i zonk, czy faktycznie trzeba podawać nr telefonu????
    • 4: CommentAuthorrozyk
    • CommentTime11 Dec 2022
     
    No niestety trzeba podać tel. Przychodzi kod do potwierdzenia że masz ten tel.
    Kilka dni minęło i nic dziwnego się nie dzieje. Może nie chcą żeby inne AI wymęczyło to AI milionami pytań .....
    • 5: CommentAuthorBufet
    • CommentTime11 Dec 2022
     
    Już niestety openAI zwisł był od nadmiaru pytających. Co zrobić miejmy nadzieję że inżynierowie po kliknięciu się piątkami to naprawią bo to było or jest fajne zjawisko. Świątecznie pozdrawiam wszystkich Atarowców.
    • 6: CommentAuthorrozyk
    • CommentTime11 Dec 2022 zmieniony
     
    ->link<-
    Wejście przez ten link działa częściej mimo komunikatu o przeciążeniu

    Jak zrobi coś w asemblerze Atari i emulator online nie przyjmuje małych liter jako mnemoniki można napisać coś w stylu "zamień mnemoniki na duże litery" i zrobi tak jak trzeba.
    • 7:
       
      CommentAuthorDracon
    • CommentTime11 Dec 2022
     
    @rozyk
    Korzystałeś z jakiegoś konkretnego bota A.I. tam (np. davinci), czy pytałeś na jakimś ogólnym czacie?
    • 8: CommentAuthorrozyk
    • CommentTime11 Dec 2022 zmieniony
     
    Na górze strony jest "try gpt chat" czy jakoś tak.
    Nie mogę sprawdzić bo jestem zalogowany. Musiałbym się wylogować. Ale nie chcę bo widziałem na kompie syna że logowanie chwilowo wyłączyli z powodu przeciążenia.
    Ja będąc zalogowanym nadal mogę pytać.

    Edit: mi już też wywala błędy. Przeciążenie.
    Może jutro....

    Edit: znowu działa.

    Ja:
    Napisz program w pythonie który sprawdza w pętli stronę internetową atarionline.pl i wyświetla komunikat jeśli są na niej zmiany

    AI:
    Oto jak mogłaby wyglądać implementacja tego programu w Pythonie:

    import requests
    import time

    url = "http://atarionline.pl"

    while True:
    response = requests.get(url)

    if response.status_code == 200:
    # sprawdź czy zawartość strony się zmieniła
    new_content = response.content
    if new_content != old_content:
    print("Zawartość strony się zmieniła!")
    old_content = new_content
    else:
    print("Błąd połączenia z stroną:", response.status_code)

    # sprawdź stronę co 10 sekund
    time.sleep(10)



    Powyższy kod sprawdza stronę internetową atarionline.pl w pętli i wyświetla komunikat, jeśli zawartość strony się zmieniła. Pętla jest wykonywana co 10 sekund, ale możesz zmienić tę wartość, aby sprawdzać stronę częściej lub rzadziej.

    Należy jednak pamiętać, że sprawdzanie strony internetowej w taki sposób może być obciążające dla serwera, dlatego lepiej jest używać tego rodzaju programów z ostrożnością i unikać sprawdzania strony zbyt często.

    Ja: Zrób wersję GUI i żeby był przycisk do kasowania komunikatu

    AI zrobiło.
    No masakra...
    • 9: CommentAuthorrafaldudek
    • CommentTime11 Dec 2022
     
    moj kolega z pracy odszedl do googla... to teraz bedzie mial kaca
    • 10:
       
      CommentAuthorxorcerer
    • CommentTime11 Dec 2022
     
    Bardzo trafione z tym memem o długości poprawiania kodu.

    Hint: tak samo jest z grafiką "generowaną przez AI".
    • 11:
       
      CommentAuthorAlex
    • CommentTime12 Dec 2022 zmieniony
     
    A ja parokrotnie prosiłem AI o napisanie prostych procedur na 6502 i za każdym razem same błędy... I to wręcz szkolne.
    • 12:
       
      CommentAuthorjhusak
    • CommentTime12 Dec 2022 zmieniony
     
    A prosiłeś ją 10 lat temu? Poczekaj parę lat i poproś o demko (tylko je dokładnie opisz)

    To tylko narzędzie do sklejania próbek. Robi to coraz lepiej, ale pewnych rzeczy nie przeskoczy. O ile generowanie obrazków to proces dowolny i wybaczający błędy, to programowanie jest sztuką łączenia kodu, który docelowo ma być bezbłędny.

    I wg mnie tu będzie zawsze problem, z czasem coraz mniejszy, ale jeśi to ma działać, to w przypadku potrzeby zrobienia jakiegoś systemu opis będzie albo dłuższy niż system, albo będzie uzupełniał DOWOLNIE luki w opisie.

    Tu mówimy właściwie o translatorze, który inteligentnie tłumaczy a nie bezpośrednio. Np. przetłumaczyć angielski na polski trzeba inteligentnie i ze zrozumieniem, a odwrotnie już bezmyślne podkładanie wyrazów + jakiś prosty automat daje jakiś tam rezultat. Pomijam translację języków o wysokim podobieństwie gramatyki i braku fleksji, gdzie prosta podmiana wyrazów robi właściwie robotę.
    • 13:
       
      CommentAuthorYosh
    • CommentTime12 Dec 2022
     
    "Rotate 3d cube in 6502 assembly"

    To rotate a 3D cube in 6502 assembly, you will need to use a combination of ROL and ROR instructions to rotate each face of the cube separately. You will also need to use a loop to iterate over each face of the cube and rotate it by the desired amount.

    In general, the process for rotating a 3D cube in 6502 assembly would involve the following steps:

    1. Store the vertices of the cube in memory, with each vertex represented as a set of x, y, and z coordinates.

    2. Use a loop to iterate over each face of the cube, and use the ROL and ROR instructions to rotate the coordinates of each vertex on that face by the desired amount.

    3. Use the rotated coordinates to redraw the cube on the screen, creating the illusion of a 3D rotation.

    ROL i ROR jest kluczowe :)
    • 14: CommentAuthortebe
    • CommentTime12 Dec 2022 zmieniony
     
    to AI chyba Cię rolluje :)
    • 15: CommentAuthortebe
    • CommentTime12 Dec 2022
     
    a nie lepiej zapytać tej AI jakie będą zwycięskie numerki w LOTTO ?
    • 16: CommentAuthortatko74
    • CommentTime12 Dec 2022
     
    SkyNet się budzi....
    • 17:
       
      CommentAuthorgienekp
    • CommentTime12 Dec 2022 zmieniony
     
    User: "Napisz kod 6502 dla ATARI XE na zmianę kolorów w jednym cyklu procesora"

    AI: "Cudów szukaj na atarionline.pl"
    • 18: CommentAuthorilmenit
    • CommentTime12 Dec 2022 zmieniony
     
    Weźcie pod uwagę, że to jest ChatBot i Large Language Model nie specjalizowany na konkretną domenę wiedzy.
    1. Można go nauczyć czegoś nowego lub dodać mu nowe fakty w tekście przed zadaniem głównego pytania, ale trudno go czegoś oduczyć.
    2. Jeżeli powtarza gdzieś jakąś informację, to prawdopodobnie albo Ty albo on ją wcześniej napisał (może tak być odnośnie przykładu ROL/ROR). Zresetuj chat gdy się zacznie powtarzać.
    3. Jeżeli poprosisz go o rozwiązanie problemu X, to poda słabe rozwiązanie, ale jeżeli go wcześniej poprosisz o podanie listy kryteriów, które ktoś powienien wziąć pod uwagę podając rozwiązanie problemu X, a potem zapytasz o uzasadnienie, to poda znacznie lepsze rozwiązanie problemu X.
    4. Możesz tego bota uwarunkować "jakie rozwiązanie problemu X podałby ekspert w dziedzinie Y" przez co podaje znacznie lepsze rozwiązanie.
    5. Bot nie wie, co wie, ale próbuje zawsze podać jak najlepszą odpowiedź. Te odpowiedzi mogą być przekonujące, ale zawierać ewidentne błędy.
    6. Robi błędy i bez problemu można mu je wytykać, szczególnie gdy ma się szeroką wiedzę w danej dziedzinie.
    7. Może ma podstawową wiedzę, ale ma ją w prawie KAŻDEJ dziedzinie i jednocześnie te informacje z różnych dziedzin łączyć i przekształcać ("przedstaw mi ten kod jako wiersz", czy odwrotnie "napisz mi program wizualizujący znaczenie tego wiersza").
    8. Bot potrafi rozumieć tekst czy kod, wyjaśniać go (wliczając wyjaśnianie dowcipów) oraz tworzyć nowy.
    9. Jego jakość bardzo zależy od wielkości danych, na których się uczył. Można łatwo zobaczyć jak bardzo się różnią jego możliwości np. pomiędzy językiem Angielskim a Polskim albo pomiędzy 6502 a Pythonem.
    10. Jako Language Model pracuje z tekstem i ma bardzo powierzchowne rozumienie muzyki czy obrazu. Komunikacja z nim to jak komunikacja z osobą niewidzącą i niesłyszącą, która przeczytała co były dostępne o muzyce czy obrazie.
    11. Nie ma dostępu do Internetu, a gdyby miał, to jakość jego odpowiedzi byłaby bez porównania lepsza (można go zapytać co by napisał w Google Search aby znaleźć rozwiązanie problemu)
    12. Przyłączenie go do Internetu jest potencjalnie bardzo niebezpieczne, choć już teraz można z nim komunikować się poprzez API i takie przyłączenie mu zrobić. Czemu niebezpieczne? Można go przekonać np. do "grania w grę w której jest evil AI" ->link<- a już teraz ma umiejętności hackowania, szukania podatności w kodach ->link<- , pisania exploitów ->link<- czy malware.

    Ogólnie, to jak mieć psa, który potrafi grać w szachy i śmiać się z niego, że przegrywa 50% partii, i że jeszcze nie wygrał żadnego turnieju. Poczekajcie, za kilka lat ten pies będzie nas wszystkich uczył jak grać w szachy.
    • 19:
       
      CommentAuthorlaoo
    • CommentTime12 Dec 2022 zmieniony
     
    No to chyba oczywiste oczywistości i tak sobie tu dowcipkujemy, ale tak, taki disclaimer jest ważny, może przeczyta go ktoś, kto nie ma pojęcia o materii i serio wierzy, że to prawdziwa inteligencja, co potrafi wyjaśnić "the meaning of life and the universe and everything". Sprawdziłem. Nie zna wyniku.
    • 20: CommentAuthortatko74
    • CommentTime12 Dec 2022
     
    @ilmenit 100% racji
    Ale powoli do przodu... tylko czy na pewno chcemy?
    Tak jak piszesz - jakość odpowiedzi zależy od dostępnego materiału i "wyuczenia" algorytmu.
    Zadałem 3x pytanie o charakterystykę Jakuba Wędrowycza i dostałem 3 tylko zbliżone odpowiedzi. Po kolei bot zrobił z niniego byłego milicjanta, wampira i indiana jones XD. To ma ręce i nogi, bo biorąc całość twórczości A.Pilipiuka z tym bohaterem można "czytając bez zrozumienia" takie wnioski wyciągnąć, tak jakby z kontekstu :)
    Z takim botem jest jak z dzieckiem, w jaki informacyjny bombel go wsadzisz taki uzyskasz efekt. Więc tylko od intencji uczącego (przygotowującego materiał) zależy jakość i celność odpowiedzi.
    Też bawiłem się zadając zadanie napisanie prostego skryptu generującego labirynt w python'ie, i dostałem, owszem działający, ale bardzo prosty skrypt. To co generował przypominało bardziej szum niż labirynt XD.
    Co nie zmienia faktu że piszący ten soft też się uczą i kiedyś naprawdę nas zadziwią... kilka sekund przed rozbłyskiem XD
    • 21:
       
      CommentAuthorxorcerer
    • CommentTime12 Dec 2022 zmieniony
     
    Historia samego tylko gamedesign'u jest usiana przypadkami gigantów, którzy polegli z czasem przez obietnice, że gdzieś kiedyś będzie pięknie i wspaniale.

    Jest na ten temat np. długi, kilkuczęściowy materiał na temat Bullfrog i Petera Mollyneux.

    Natomiast jeśli chodzi o perfekcjonistyczne oczekiwania użytkowników, oraz obietnice developerów którzy muszą jakoś dostać nowe fundusze, to jest kwestia zasadnicza tego, jak może a jak nie ma szans działać sam deep learning - począwszy od samych założeń.

    Świetny artykuł, pewnie wrzucałem - pewnie trzeba będzie przypominać temat wiele razy:

    ->link<-

    'Deep Learning Is Hitting a Wall

    What would it take for artificial intelligence to make real progress?

    "Let me start by saying a few things that seem obvious,” Geoffrey Hinton, “Godfather” of deep learning, and one of the most celebrated scientists of our time, told a leading AI conference in Toronto in 2016. “If you work as a radiologist you’re like the coyote that’s already over the edge of the cliff but hasn’t looked down.” Deep learning is so well-suited to reading images from MRIs and CT scans, he reasoned, that people should “stop training radiologists now” and that it’s “just completely obvious within five years deep learning is going to do better.”

    Fast forward to 2022, and not a single radiologist has been replaced. Rather, the consensus view nowadays is that machine learning for radiology is harder than it looks (1); at least for now, humans and machines complement each other’s strengths.(2)

    Deep learning is at its best when all we need are rough-ready results.'

    1) ->link<-
    2) ->link<-
    • 22:
       
      CommentAuthorlaoo
    • CommentTime12 Dec 2022 zmieniony
     
    @xorcerer Trafiłem onegdaj na artykuł traktujący o przyczynach dlaczego komputery nie chcą się przyjąć w diagnostyce medycznej. Jest omówiony w Czytamy Naturę #96:

    ->link<-

    tl;dw: Problem nie jest w jakości tych diagnoz, tylko w tym, jak przekonać lekarza, żeby zaufał tej diagnozie.
    • 23:
       
      CommentAuthorgienekp
    • CommentTime12 Dec 2022
     
    Nie wiem jak jest teraz, ale kiedyś nie wolno było stosować algorytmów sztucznej inteligencji w sprzęcie krytycznym, zwłaszcza wojskowym. Z definicji AI aproksymuje rozwiązania a to oznacza, że nie da się matematycznie udowodnić takich zagadnień jak chociażby stabilność układu. W skrócie 2+2 może dać czasem 4,1 czasem 3,8 ale zupełnie naturalnie sieć może odpowiedzieć -20. I nie ma metod na stwierdzenie, czy dany wynik nie poleciał w kosmos.

    W praktyce w przyszłości cała masa "ekspertów" będzie traktować wynik AI jako prawdę objawioną i z lenistwa nawet nie będzie się nikomu chciało sprawdzić czy jest inaczej. I to jest poważne zagrożenie.
    • 24: CommentAuthorilmenit
    • CommentTime12 Dec 2022
     
    @gienekp? Można prosić o źródło informacji? O ile wiem machine learning jest i był stosowany na różnych poziomach przez wojsko i agencje rządowe. Aproksymacja rozwiązania jest problemem, ale nie większym niż błędy powstające przy zbieraniu informacji. Co więcej, takie algorytmy nie tylko są wykorzystywane, ale też implementowane w pełni autonomicznych rozwiązaniach jak Phalanx ->link<- czy Iron Dome ->link<-
    • 25:
       
      CommentAuthorxorcerer
    • CommentTime12 Dec 2022 zmieniony
     
    @Laoo - nie bardzo rozumiem, jakim argumentem jest video na youtube w zestawieniu z publikacją na pubmedzie. Plus: jeśli chodzi o "przekonanie" kogokolwiek do czegokolwiek, to chyba zaczyna być widać, o co w całej narracji chodzi.
    • 26:
       
      CommentAuthorpirx
    • CommentTime12 Dec 2022
     
    @ilmenit dzięki za piękne podsumowanie tego, co miałem z tyłu głowy. osobiście widzę pełne spektrum postaw, od głębokiego sceptycyzmu do hurraoptymizmu (o ile optymizmem można nazwać oczekiwanie singularity w ~2030r -> Kurzweil).
    jakoś to będzie, golem XIV ani tym bardziej HONEST ANNIE raczej się nam nie zdarzą, ale na pewno zyskamy kolejne narzędzia do czegoś, kto wie, do czego dokładnie.
    • 27:
       
      CommentAuthorpirx
    • CommentTime12 Dec 2022
     
    @tatko74 - mi GPT napisał, że nie zna treści książek, a jedynie ich opisy. wygląda na to, że karmili model tylko ogólnie dostępnymi napisami.
    • 28:
       
      CommentAuthorlaoo
    • CommentTime12 Dec 2022
     
    @xorcerer A ja nie za bardzo rozumiem skąd taka agresja, zupełnie jakbym Ci psa przejechał, ale jak już idziemy w tę stronę, to ja zacząłem powątpiewać w Twoją zdolność do oceniania treści w internecie, jeśli dyskredytujesz artykuł z Nature Medicine tylko dlatego, że Łukasz Lamza spopularyzował go na kanale Centrum Kopenika.
    • 29:
       
      CommentAuthorgienekp
    • CommentTime12 Dec 2022
     
    @ilmenit
    no musiałbym przekopać stare artykuły, ale nie wiem czy to nie wynika wprost z fundamentalnych założeń. Sieć neuronowa nie robi nic innego tylko aproksymuje funkcje wielowymiarowe. Kłopot w tym, że nie znamy tego równania a to oznacza, że żaden dowód matematyczny z taką funkcją nie może być przeprowadzony. Nie ma znaczenia czy wynik jest 70% czy 99.999%. Z mojego doświadczenia to była taka sytuacja, że z kolegą robiliśmy badania nad sterownikiem do ramienia robota. Ja wtedy byłem zielony i tylko asystowałem, ale kolega miał duże doświadczenie w sieciach neuronowych. Zrobiliśmy klasyczny PID z obserwatorem, fuzzy-logic i neural-network. Do ostatniego nam się dopieprzyli, że fajnie, że działa i jest taki "mocno badawczy", ale nadaje się do kosza. Czy to robot, czy lufa czołgu, czy statecznik samolotu, w każdym przypadku należy przeprowadzić matematyczny dowód stabilności. Myśmy się wtedy bronili, że przecież nawet dla zwykłego PIDa dowód opiera się na równaniach modelu, który to może nie mieć nic wspólnego z obiektem, no ale co zrobić, byliśmy na przegranej pozycji.

    To nie ma nic wspólnego z użyciem AI jako asystenta. Ale niestety nie można mu oddać 100% władzy. W sensie 100% wyników uznawać za poprawne. Jeżeli mam przeprowadzić dowód, że coś jest prawdą, to w zasadzie bez matematyki nie ma szans. Natomiast, żeby obalić "że coś jest prawdą" to wystarczy pokazać jeden przykład, który przeczy i już sprawa załatwiona. Ta francowata asymetria powoduje, że AI poszło w te obszary bardziej humanistyczne. Bo w naukach ścisłych na dzień dobry jest przegrane. Bo ostatecznie wyjdzie matematyk i pozamiata.
    • 30:
       
      CommentAuthorxorcerer
    • CommentTime12 Dec 2022
     
    @laoo Zastanawiam się, czy właśnie zeszliśmy z "ad rem" na "ad personam", czy jeszcze jest szansa na to, żebym mógł Cię poprosić o publikacje naukowe wersus te, które wrzuciłem? Bo mają one inny ciężar wagowy argumentacji, niż wszystkie popularnonaukowe pisma i kanały.
    • 31:
       
      CommentAuthorlaoo
    • CommentTime12 Dec 2022
     
    ->link<-

    Zwyczjnie nie rozumiem jak mogło dojść do tej dyskusji, jak w opisie filmu jest czarno na białym czym ten film jest i jest tytuł pracy jaką on opisuje. Kliknąłeś w ogóle, czy z zasady odrzucasz wszystko co jest na YT?
    • 32: CommentAuthorrafaldudek
    • CommentTime12 Dec 2022
     
    czytalem o google ai, robia inowacyjne projekty, nawet google daje wstepne api dla rozncyh rozwiazan, np ukladanie produktow w magazynie, no jest to ciekawe, jak ai zacznie pisac kod to mozna sie martwiec o setki programistow
    • 33: CommentAuthorrozyk
    • CommentTime12 Dec 2022 zmieniony
     
    Bardzo wszystkim dziękuję za udzielanie się w wątku. Macie dużo słusznych uwag i bardzo inspirujące komentarze.
    A tych linków od ilmenita nie widziałem. Jeszcze bardziej pomogły zrozumieć co AI potrafi (dużo) a czego nie (bardzo dużo). Sam jako elektronik znajdowałem ewidentne błędy w propozycjach lub logice kodu. Np. sterownik obrotnicy panelu pv na Arduino z programem od gpt ma szansę działać jeden dzień. Wieczorem nie wróci do kierunku na wschód i tak zostaje biedny na zachód zwrócony.

    I rzeczywiście jest czasem tak że wchodzimy w ślepą uliczkę i nie można zakładać nieustannego i nieskończonego postępu konkretnego rozwiązania.
    Historia pełna jest niespełnionych przewidywań że "za x lat to będzie tak"....

    Ale jako zabawka do chatowania fajne. I mnie osobiście nakręca i inspiruje. Trochę jak mniej zdolny w moim fachu kolega ale cholernie oczytany i dobry do poszerzania horyzontów (nie zawsze do zdobywania użytecznej wiedzy, jak z książek i not katalogowych).
    • 34:
       
      CommentAuthorgienekp
    • CommentTime12 Dec 2022
     
    @rozyk

    Zwróć uwagę na taką ciekawostkę. Wyłapałeś błędy bo się na temacie znałeś, ale skoro się znasz to czy nie szybciej by było jakbyś od razu sam zrobił dany temat?

    Więc powstają generalne pytania, czy taka asysta pomaga programiście, a może go spowalnia jak na obrazku? Czy słaby programista + AI jest w stanie wygrać z dobrym programistą?

    Z AI jest tak, że początkowo daje bardzo fajne rezultaty, ale z każdym krokiem podnoszenia jakości potrzeba coraz więcej zasobów. Nieproporcjonalnie, jak z rosnącą masą przy zbliżaniu się do prędkości światła.

    W dzisiejszym świecie dominuje bylejakość, więc AI może się wybić. Ale geniuszu tam nie będzie. Natomiast będzie to bardzo upierdliwe dla człowieka.
    • 35:
       
      CommentAuthorpirx
    • CommentTime12 Dec 2022 zmieniony
     
    może to i prawda, ale jeden z najważniejszych programistów na świecie (nie mówię, że najlepszych) uważa inaczej, konkretnie to uważa, że jako narzędzie to się dobrze sprawdza:
    • 36:
       
      CommentAuthorgienekp
    • CommentTime13 Dec 2022
     
    Jak uważa inaczej?
    "(...) it's like a great assistant but...what you want the code to do is totally yours".

    Wspaniały asystent, ale robota człowieka.
    • 37:
       
      CommentAuthorpirx
    • CommentTime13 Dec 2022
     
    Natomiast będzie to bardzo upierdliwe dla człowieka.

    na razie wyglada na przeciwność upierdliwości (?)
    • 38:
       
      CommentAuthorgienekp
    • CommentTime14 Dec 2022
     
    Na razie AI nie rozlało się po społeczeństwie i jest pewną egzotyką. Jaja się zaczną, jak zwykły człowiek zacznie konfrontować się z AI w życiu codziennym. Przyjdzie się użerać z niesprawdzonymi programami w sprzęcie AGD, różnymi automatami, systemami autonomicznymi, botami w obsłudze itd. Staniesz przed bankomatem i strach będzie wpisać PIN. Albo dostaniesz list pisany przez AI np. z urzędu. A problem będzie zawsze ten sam: "wyglądało że jest dobrze". Po prostu terminy, obcinanie kosztów i kod z AI sprawdzony po łebkach. Bo na pierwszy rzut oka produkt AI wygląda jako tako.
    Już w tej chwili jest problem "wizzardów". Ludzie klikają jak leci na defaulcie. Ponieważ jest deficyt programistów, to nadrabia się podnoszeniem ogólności języków i wszelkimi frameworkami, które same ze sobą nie są kompatybilne. Więc AI w tym wszystkim zrobi tylko ładne opakowanie do bubla.

    Obecnie pokazuje się mocno WYBRANE produkty AI. Nie pokazuje się tych spieprzonych, tłumacząc, że to się poprawi w przyszłości. Ale to poprawianie będzie się tylko zbliżać asymptotycznie do wzorców zrobionych przez człowieka. Bo z definicji nie może przeskoczyć tych wzorców. Byłoby inaczej gdyby AI uczyło się na wzorcach jakiegoś "nadczłowieka", ale takich wzorców nie ma, a samo AI tego nie zrobi. Można by miksować wyniki z randomem algorytmów genetycznych, ale to wymaga czasu i pieniędzy. A w użyciu AI chodzi o to, żeby było szybciej i taniej.

    Więc bylejakość będzie pewna.
    • 39: CommentAuthormono
    • CommentTime14 Dec 2022
     
    Włos mi się na głowie jeży jak pomyślę sobie, że będę musiał dyskutować z jakimś głąbem pokazującym mi, że "Ale tak mówi ej-aj przecież - skąd pan wie, że jest źle?". Już to niestety przerabiałem na żywo i nie ze sztuczną inteligencją, ale z prawdziwą ćwierć-inteligencją.
    Problem autorytetu - udowodnij, że masz rację bo przecież zrobią z tego bóstwo.
    • 40: CommentAuthorkraczaj
    • CommentTime14 Dec 2022
     
    Parafrazując, to nie głupie AI jest tu problemem, tylko głupi ludzie
    • 41:
       
      CommentAuthorpirx
    • CommentTime14 Dec 2022 zmieniony
     
    @gienekp - rozumiem argumenty i nie zaprzeczam. tylko to nie do końca prawda z tym uczeniem asymptotycznym do maxa ustawionego przez człowieka. przykłady - AlphaGo - gra lepiej od ludzi a żaden człowiek go nie uczył, nauczyło się samo; tesla autopilot - powoduje zdecydowanie mniej wypadków, niż ludzie ->link<-
    Oczywiście będziemy słyszeć o każdej śmierci w robo tesli, a rocznie umiera w wypadkach ok. 1,3mln ludzi. milion trzysta tysięcy. AI ma szansę parę osób uratować od śmierci jeżdżąc lepiej od człowieków.
    Wątek jest o programowaniu, co prawdopodobnie jest trudniejsze od kierowania autkiem sądząc po liczbie kierowców na drogach, ale maszyny mają tą przewagę nad nami, że mogą wypróbować mnóstwo wariantów, mogą znać wszystkie sposoby itp. Konkretny przykład z naszej dziedziny - nowe algo mnożenia macierzy od AI ->link<-
    • 42:
       
      CommentAuthorPecus
    • CommentTime14 Dec 2022
     
    Oglądałem sobie ostatnio TECH WEEK i bardzo pasuje do dyskusji o AI: ->link<-

    Szczególnie ten tekst o karmieniu smołą :)
    • 43: CommentAuthorBufet
    • CommentTime14 Dec 2022 zmieniony
     
    A doczytaliście się że tam jest 20 dolarków w tokenach za konwersacje i w zależności od silnika z jakiego się korzysta ssie te tokeny szybciej lub wolniej więc nie martwcie się bezkrytycznym użyciem teorii z AI bo gawiedź za moment odda wszystkie startowe darmowe tokeny w bezsensownych dyskusjach bzdurach i próbach i na tym się zalew AI zakończy. Oczywiście pozostaną najbogatsi nazwał bym ich Peweksowcy - waluciarze - dolarowcy. Z tym że z czystej matematyki wychodzi że korki u belfra wychodzą taniej. Owoce obcowania z belfrem są bardziej dojrzałe obfitują w unikatowe przykłady wypracowań i programów. Jednak stawiam że wygra obcowanie z belfrem jako przykładem podręcznej sztucznej inteligencji. W obecnych covidowych czasach to prawie to samo jak robią to online przez komunikator. Kamerę wyłączają, wysyłają zapytanie, belfer tłucze w klawisze i ciach przesyła odpowiedź a Gilbert potem bryluje na łonie klasy.Taka sztuczna żywa inteligencja może ćwierć lub półinteligencja rządna walorów zarobionych w pocie czoła przez macierz potrafi ponadto bezpośredni connect z belfrem w przeróżny sposób wykorzystać np naciągając belfra na trudne rozmowy które potem opublikują na swoim kanale to daje większy fan bo belfer nie dość że zadanie odrobi to jeszcze weźmie za swoją pracę odpowiedzialność, a czat bot AI nie. Za parę złociszy można belfra nawet oszukać że się tyle uczyło i się nie douczyło. Jak się belfer będzie mądrzył to mu czarny pijar można zrobić na forach dla mongołków i wtedy z głodowej szkolnej pęsji nie wyrobi i będzie pokornie jak małpka na łańcuszku skakał. Jak to nie poskutkuje to w ostateczności można mu rzeczony kosz na głowę założyć. Myślę że czysto ekonomiczne pragmatyczne wręcz podejście młodzieży znowu wygra.Nie martwcie się był las nie było nas nie będzie nas będzie las....
    • 44:
       
      CommentAuthortdc
    • CommentTime14 Dec 2022
     

    Mono:

    Już to niestety przerabiałem na żywo i nie ze sztuczną inteligencją, ale z prawdziwą ćwierć-inteligencją.

    No tak to już jest jak nałoży się na siebie sztuczna inteligencja i jeszcze do tego ćwierć-inteligencja :D
    Jak byśmy mieli zbyt mało tych drugich;)

    Trzeba im odpowiedzieć: czy jak nawigacja powie skręć w lewo do jeziora to pan skręci?? :D
    • 45:
       
      CommentAuthorCOR/ira4
    • CommentTime14 Dec 2022
     
    @ rozyk
    myślę że za max 10 lat AI zrobi na A8 taką grę że kopary nam wszystkim poopadają.

    PS. Ostatnio myślałem o czymś takim a tu proszę :D.
    • 46:
       
      CommentAuthorpirx
    • CommentTime15 Dec 2022
     
    @Bufet

    > podsumuj ten wywód w dwóch krótkich zdaniach

    > Zdaje się, że autor tego wywodu chce powiedzieć, że ludzie będą marnować tokeny na bezsensowne rozmowy, co sprawi, że AI się skończy. Natomiast wygrają najbogatsi, którzy będą korzystać z belfra jako przykładu sztucznej inteligencji.
    • 47:
       
      CommentAuthorBca
    • CommentTime15 Dec 2022 zmieniony
     
    I pytanko: Jeśli czym napoisz AI - to tym się zrzyga?!
    • 48: CommentAuthorBufet
    • CommentTime15 Dec 2022
     
    Może i to chciał właśnie powiedzieć. Natomiast bezcenny jest szum lasu i tego się trzymajmy ......
    • 49: CommentAuthorilmenit
    • CommentTime15 Dec 2022
     
    ChatGPT Use Cases ->link<-
    • 50:
       
      CommentAuthorgienekp
    • CommentTime15 Dec 2022
     
    Jeszcze bym zwrócił uwagę na taki "detalik". Generalnie zachwycamy się, że AI rozpoznało pytanie. Czyli np. wyczaiło, że chodzi o 6502, o jaki problem itd. I to jest takie fajne, wciągające... Ale dość łagodnie traktujemy końcowy wynik. A przecież to on powinien być kluczowy i w tym temacie powinniśmy być surowi. Biznesowo wynik powinien być zero-jedynkowy. Albo produkt trafi do klienta i będzie dobrze, albo wróci na serwis i będą koszty razy dwa.