Arkadiusz "Nosty" Staworzyński znany od lat na atarowskiej scenie, między innymi twórca i wydawca gier Atari pod marką GR8 Software, napisał o swoim eksperymencie z tworzeniem gry przez jeden z modeli "sztucznej inteligencji" (AI):
1. Początki "programowania" z AI
Jest to spisana na gorąco historia o tym, jak niechcący zrobiłem grę na Atari, nie pisząc nawet linijki jej kodu. Fascynuję się tematem AI, więc gdy tylko pojawił się Chat GPT 3.5 i LLM’y zaczęły być reklamowane jako rewelacyjni programiści, próbowałem "zatrudnić je" do kodowania na platformę Atari XL/XE. Moim standardowym testem każdego kolejnego modelu AI był mniej więcej taki prompt:
“Jesteś świetnym programistą specjalizującym się w tworzeniu programów w asemblerze XASM procesora 6502 dla komputera Atari 800XL. Stwórz kompletny, krótki program w asemblerze XASM, który wyświetli mniej więcej na środku ekranu uśmiechniętą buźkę (tzw. smile’a), którą zaprojektujesz. Buźka ma być w rozdzielczości 8x8 pikseli i w kolorze czerwonym. Zacznij od opracowania struktury programu, jego koniecznych części, następnie napisz kod, potem przeanalizuj go krytycznie poszukując możliwych błędów, składniowych, logicznych i merytorycznych. Przemyśl, czy program na pewno będzie się prawidłowo wykonywał i spełniał swoją funkcję. Uwaga! Gdybyś nie był czegoś pewny - zapytaj mnie. Potrafię programować i chętnie pomogę.”
Zwykle wgrywałem też plik zawierający dokumentację XASM z prośbą o dokładne nauczenie się jego zasad. Nie jestem specem od AI i mój prompt pewnie dałoby się napisać lepiej, ale w końcu nie żądałem napisania nowego Doom’a na Atari, a jedynie wyświetlenia obiektu w grafice PMG.
Efekt? Zawsze tragiczny. GPT w wersji 3.5 wypluwał właściwie bełkot składający się z rozkazów asemblera, ale ciężko było doszukać się w nim sensu. Dopiero od wersji 4.0 dało się od biedy zacząć pracować nad wygenerowanym kodem. Oczywiście, z każdym kolejnym modelem było trochę lepiej, liczba błędów spadała, ale nie zdarzyło się, by pierwszy wygenerowany kod dał się choćby zasemblować. Gdy po moich poprawkach już to nastąpiło, program nie wyświetlał smile’a na ekranie. Czasem wyświetlał jakieś śmieci, zwykle nic. Najczęstszym błędem na tym etapie były rejestry przypisane do złych adresów, źle ustawiane bity rejestrów, mylenie obszarów w pamięci PMG. GPT 5 potrafił halucynować podając mi jako źródła swojej "wiedzy" o rejestrach linki do nieistniejąc stron Atariki, a nawet bezczelnie opisywał co na nich, według niego, jest! Co ciekawe, najlepiej poradził sobie kilka miesięcy temu model Claude (nie pamiętam w której wersji), który nie mylił rejestrów, a liczba błędów, które musiałem poprawiać była wyraźnie niższa niż w przypadku GPT. Podsumowując: testy kończyły się tym, że przez pół godziny żmudnie szukałem bugów poprawiając źle ustawione bity, adresy, albo błędy logiczne w prostych, bądź co bądź procedurach. Program zaczynał w końcu działać, ale całe doświadczenie było porównywalne do próby nauczenia programowania wyjątkowo tępego ucznia.
Tak było aż do chwili, gdy kilka dni temu postanowiłem zastosować swój test na nowym modelu Gemini 3 Pro (Preview) udostępnionym przez Googla. Doświadczenie to okazało się dla mnie największym wstrząsem od czasu pierwszego kontaktu z LLM’em.
2. Gemini rysuje buźkę i co z tego wynikło
Początkowo nic nie zapowiadało przygody, która mnie wkrótce czekała. Tym razem nie podałem dokumentacji XASM’a, musiałem więc najpierw skorygować kilka błędów składniowych: komenda "dta" zamiast ".data", "equ" zamiast "=" i podobne rzeczy. Po chwili miałem kod, który się kompilował, ale zgodnie z moimi przewidywaniami, nie wyświetlał niczego. Już miałem zrezygnować, bo nie miałem tego dnia ochoty na żmudne poprawki, ale postanowiłem dać mu jeszcze jedną szansę. Napisałem:
"Spójrz na załączony screen. Program niczego nie wyświetla. Przeanalizuj jeszcze raz dokładnie kod, znajdź i popraw błędy."
Ku mojemu zaskoczeniu, Gemini po blisko dwóch minutach myślenia wypluł nowy kod i po asemblacji zobaczyłem to:
Wow! Skoro tak, to idźmy dalej. Poprosiłem o dodanie możliwości poruszania naszą "buźką" przy pomocy joysticka. Zastanawiał się minutę, po czym podał kod, który zadziałał od razu. Znów zaskoczenie: nie dość, że zrobił poprawną obsługę joysticka, to jeszcze dorzucił warunki ograniczające poruszanie się do widocznego ekranu. Skoro już miałem ruch, to w przypływie fantazji kazałem Gemini dodać strzelanie z buźki pionowo do góry. No i poprosiłem o zmianę grafiki smile’a na rakietę, skoro miała strzelać. Potem dodaliśmy przeciwników realizowanych też na grafice duszków (P1, P2, P3). Następnie… Dobrze, daruję Wam opis wszystkich kroków, a było ich ponad 40. Zaskakujące jest to, jak złożone były kolejne kroki realizowane przez Gemini za jednym zamachem. Oto moje przykładowe kolejne prompty i odpowiedzi na nie:
"Świetne propozycje! Zacznijmy od wyświetlania punktacji. Dodaj do Display List linię tekstową na górze i wyświetlaj liczbę punktów w jej lewej części. W momencie przegranej oczywiście ustawiaj licznik na 0."
"Licznik punktów działa, ale jest na niebieskim tle. Poprawmy to tak, żeby był wyświetlany na czarnym tle, podobnie jak reszta planszy. Przy okazji może dodasz "High Score" po prawej stronie w tej samej linii? Niech działa klasycznie: jeśli aktualny wynik jest wyższy niż aktualne high score, to uaktualniaj high score. No i oczywiście nie kasuj high score po zakończeniu gry."
"Działa znakomicie! Zrealizujmy teraz Twoją propozycję: Stan "Game Over" i Ekran Tytułowy: Zamiast twardego resetu (jmp START) po śmierci, możemy dodać pętlę oczekiwania na przycisk z napisem "GAME OVER". Zrób tylko pauzę około 1s. zanim gracz będzie mógł zamknąć planszę GAME OVER, by nie zrobił tego przypadkowo strzelając. Zanim przystąpisz do zmiany kodu napisz mi proszę w jaki sposób chcesz wyświetlić napis GAME OVER?"
I tak swobodnie gawędząc budowaliśmy grę element po elemencie.
Zwróciliście może uwagę, że cytowany wyżej prompt zaczyna się od słów “Świetne propozycje!”. To nie pomyłka. Gemini pytany (a czasami i nie) sam zgłaszał propozycje dalszych kroków i rozbudowy gry. W tym wypadku były to takie pomysły:
Jego propozycje były sensowne. Był też kreatywny i niektóre rzeczy dorzucał bez pytania. Gdy na wczesnym etapie poprosiłem o zbudowanie programu Display List dla ekranu rozgrywki, by z ekranu zniknął kursor, to Gemini od razu udekorował tło gwiazdami (wtedy jeszcze nieruchomymi), choć nawet o tym nie wspomniałem. Swoją drogą, nie wierzyłem, że da radę prawidłowo zbudować program DL, a jednak udało mu się przy pierwszej próbie.
No właśnie, największym zaskoczeniem był dla mnie fakt, że zdecydowana większość złożonych poleceń była realizowana od razu bezbłędnie. Kod się kompilował, funkcje działały, co najwyżej poprawialiśmy szczegóły, jak kolor paska wyników w przykładzie powyżej.
Oto jeden z najbardziej złożonych promptów jaki napisałem:
"No to teraz trudne zadanie: dodajemy strzelających przeciwników! Przeczytaj bardzo dokładnie, punkt za punktem moje zalecenia i przemyśl uważnie jak prowadzić tak dużą zmianę, by nie popsuć gry. W miejscach gdzie podaję czasy nie musisz się oczywiście trzymać literalnie podanej liczby sekund. Dostosuj to tak, by łatwo dało się to odliczać na licznikach. Zrobimy to tak: 1. Stwórz projekty 3 nowych przeciwników. Format oczywiście 8x8, dwie klatki animacji, tak jak dotychczasowi. Tworząc grafikę nadal inspiruj się owadami. 2. Zdefiniuj dla tych nowych przeciwników ich kolory. Przy czym musisz mieć dwa odcienie, tak jak dla dotychczasowych: jaśniejszy, gdy będą poruszać się pionowo i ciemniejszy gdy na ukos. Analogicznie do tego jak działa to dla istniejących wrogów. 3. Nasi nowi, strzelający wrogowie nie będą pojawiać się od razu, a dopiero po jakimś czasie i nie zawsze. Wprowadźmy interwał około 15 sekund. Czyli przez pierwsze 15 sekund gry. będą się pojawiać jedynie dotychczasowi, nie strzelający wrogowie. Po 15 sekundach pierwszy z wrogów, gdy będzie tworzony na górze ekranu może być zastąpiony przez swój "strzelający zamiennik". Szansa na to wynosi 25%. Po kolejnych 15 sekundach czyli 30 od rozpoczęcia gry) to samo z drugim przeciwnikiem (25% szans, że zamiast niego wygenerujemy jego strzelający odpowiednik, a po kolejnych 15 sekundach (czyli 45 od rozpoczęcia gry) - z trzecim. Uwaga: po około 90 sekundach gry zwiększ prawdopodobieństwo pojawiania się strzelających przeciwników z 25% na 50%, a po 180 sekundach od początku gry na 75%. 4. Nowi przeciwnicy będą strzelać korzystając z missiles. Pociski będą kwadratami (tak jak pocisk gracza). Zróbmy tak: po stworzeniu przeciwnika losuj czas od 1 do 2 sekund po którym przeciwnik odda strzał. 5. Przeciwnicy strzelają pionowo w dół. Jeśli pocisk trafi gracza ten ginie. Jeśli pocisk doleci do końca ekranu - znika. 6. Ustalając szybkość pocisków pamiętaj, że musi ona być 2x szybsza niż aktualna prędkość pionowa strzelającego przeciwnika (a ta się zmienia podczas gry). 7. Chyba nie muszę Ci mówić, że wystrzelony pocisk przeciwnika porusza się oczywiście zawsze pionowo w dół niezależnie od tego czy przeciwnik, który go wystrzelił porusza się też w poziomie ;) 8. Na koniec dodaj dźwięk do wystrzału na odpowiednim kanale Pokeya. Niech to będzie odróżnialnie inny dźwięk niż ten który odtwarzamy przy wystrzale przez gracza. Jeśli wszystko zrozumiałeś wprowadź nowe funkcje i wygeneruj proszę pełny kod."
I tak, zgadliście, strzelający przeciwnicy ruszyli od razu po kolejnej kompilacji. Wiele funkcji i mechanik wyszło od niego, bo ja nie nawet nie śmiałem ich proponować, sądząc, że polegnie i utkniemy. Strzelający wrogowie, przechodzenie między ekranami, przerwania, dźwięki… Za każdym razem nie miałem racji. Oczywiście zdarzały się błędy (o tym dalej), ale nie blokery z którymi by sobie nie poradził.
3. Grafika i dźwięk
Jak wspomniałem wyżej, projekty rakiety i wrogów realizowanych na duszkach też są autorstwa Gemini. Ja wyznaczyłem tylko format 8x8 i kolory, oraz zaproponowałem, by tworząc wrogów inspirował się owadami. Dołożenie dźwięków zaproponował on, bo ja nawet o tym nie pomyślałem, nie wierząc, że mu się uda. Jednak dźwięki zadziałały, choć trzeba przyznać, że są kiepskie. Co gorsza, odtwarzany dźwięk nie jest stabilny przy kolejnych odtworzeniach. W każdym razie dźwięk uważam za najsłabszy element całej gry.
Zabawnie wyszło z grafiką na stronę tytułową. Uparłem się, by ten element, tak jak i wszystko inne w grze, pochodził od Gemini. Bez problemu zrobił mieszanie trybów tekstowych i graficznych w Display List. Utknął na chwilę na przy tłumaczeniu grafiki na format Atari (kodowanie kolorów w 2 bitach na piksel), ale w kilku próbach doszliśmy z tym do ładu. Natomiast gdy już potrafił poprawnie wyświetlać grafikę w trybie graficznym, okazało się, że… Gemini nie potrafi rysować! Oto jego próba narysowania lecącej w górę rakiety:
Podpowiadałem jak mogłem, ale to zadanie wyraźnie go przerastało. Pomyślałem, że może lepiej mu pójdzie narysowanie rakiety lecącej poziomo. Było lepiej, ale wciąż słabo:
Gdy mu napisałem, że d… z niego a nie grafik, zaskoczył mnie twierdząc, że potrafi wygenerować obraz rakiety w postaci pliku .svg. Jest to format pozwalający na generowanie grafiki wektorowej opisanej w pliku tekstowym. Taki plik można otworzyć w przeglądarce. Gdy otworzyłem stworzony przez Gemini plik .svg moim oczom ukazała się całkiem ładna rakieta:
Wprawdzie jest tu 5 kolorów, a nie 4, jak prosiłem, ale czułem, że robimy postępy. Wkleiłem mu ten obrazek i poprosiłem, by przekonwertował swoje dzieło na format, który Atari wyświetli, po czym umieścił dane w liniach dta. W ten sposób doszliśmy do tego:
Uznałem, że lepiej nie będzie i pogratulowałem mu udanego rysunku. Przy okazji, na powyższym screenie widać, że tytuł gry jest w innym kolorze niż reszta tekstu, a rakieta ma elementy niebieskie. Tak, jest to zrobione na przerwaniach DLI, które też zadziałały od razu. Pomysł wykorzystania ich wyszedł ode mnie, ale nie tłumaczyłem mu żadnych szczegółów technicznych.
4. Problemy i błędy
Jak wspomniałem wcześniej, nie wszystko i nie zawsze szło idealnie. Pominę początkowe błędy składniowe, gdy Gemini poznawał XASM i gdy się “docieraliśmy”. Najbardziej komfortowy i pozbawiony błędów, był kolejny okres, gdy budowaliśmy podstawowe funkcjonalności gry. Praca wyglądała tak, że ja pisałem dość złożonego prompta, a Gemini zamyślał się na 30-120 sekund. Jest to tzw. "model myślący", co więcej, można podejrzeć te myśli spisane klarownie po angielsku i naprawdę ten jego "dialog wewnętrzny" robi wrażenie. Po okresie zastanowienia dostawałem krótką odpowiedź (przykłady wkleiłem wyżej), po czym następowało generowanie kodu.
Gdy przekroczyliśmy 1300 linii kodu, generowanie kompletnego programu zaczęło być męcząco długie, więc umówiliśmy się, że w przypadku drobnych zmian Gemini pisze mi co i gdzie mam zmienić, a ja to robię ręcznie. Gdy zmian było dużo sam decydował, że wygeneruje pełny kod.
Pomyłek i problemów było niewiele. Pamiętam, że raz ewidentnie rąbnął się przy maskowaniu bitów kolizji do sprawdzania i przez to gra nie wykrywała kolizji rakiety z jednym z wrogów. Nie umiał tego naprawić, musiałem mu wskazać jaka maska jest poprawna. Ale to był wyjątek.
Często wklejałem mu screeny, by "widział" o jakich błędach, czy niedoróbkach graficznych mówię.
Gdy przekroczyliśmy 1000-1200 linii kodu, zaczęły się pojawiać błędy "Branch out of range" przy skokach warunkowych. Procesor 6502 ma ograniczenie tych skoków do zakresu -128/+127 bajtów. Nie mam pretensji do Gemini o te błędy, bo bez kompilowania kodu bardzo trudno je przewidzieć. Więc to ja, po asemblacji, wskazywałem mu gdzie wystąpiły i nauczyłem go budowania obejścia: Zamiast: bne DalekaEtykieta ;(błąd) Stosuj: beq Omin_Jmp jmp DalekaEtykieta Omin_Jmp
Kolejna rzecz, która zaczęła się pojawiać przy tak długim kodzie i po większych zmianach, to błędy o nazwie "niezadeklarowana etykieta". Bałem się już, że dobrnęliśmy do granic możliwości Gemini, ale po trzech takich błędach z rzędu Gemini stwierdził nagle, że musi przebudować kod, pomyślał, pokombinował i błędy ustąpiły.
Problem z generacją grafiki w formacie trybu graficznego Atari opisałem już wcześniej. Ale pod koniec pracy pojawił się dziwny, powracający błąd: Gemini generując pełny kod uparcie wklejał w niego pierwszy, nieudany projekt rakiety. Gdy go poprawiałem, przepraszał, pisał, że "już nigdy więcej", a potem znów do wracał do tej pokracznej niby-rakiety.
Raz pojawił nam się też problem z mapą pamięci: coś się na siebie nakładało i psuła się grafika. Gemini postanowił poprzesuwać w pamięci położenie fontów, grafiki PMG, pamięci ekranu i problem ustąpił. Inne zauważone wady: wydaje mi się, że ruch rakiety nie jest idealnie płynny, choć na razie odpalałem wyłącznie w emulatorach i mogę się mylić. Gdy dodaliśmy animowane gwiazdy (pomysł Gemini), to zaczęło się leciutkie szarpanie animacji co którąś klatkę. Nie brnąłem w naprawę tego.
Gdy poprosiłem o dodanie funkcji testowych (np. nieśmiertelności włączanej klawiszem "N"), to najpierw pomylił kody ATASCII i klawiatury, ale gdy zgłosiłem błąd, sam wpadł co było źle. Gdy dodaliśmy "megabomby", poprosiłem by ich liczba była reprezentowana na pasku statusu przez znak specjalny koła. Gemini pomylił kody znaków i musiałem podać mu prawidłowy.
Patrząc pobieżnie w kod (na dokładną analizę nie miałem jeszcze czasu) widzę, że jest momentami nieoptymalny, szczególnie jeśli chodzi o zajętość pamięci. Z drugiej strony, Gemini dość elegancko wydzielił sekcję deklaracji, kodu i danych, porobił sensowne procedury, rozdzielił też inicjalizację i główną pętlę gry, która wygląda tak:
Robi wrażenie, szczególnie pamiętając, że nie zacząłem pracy z nim od prompta "Będziemy tworzyć grę…", a od polecenia wyświetlenia na ekranie pojedynczego duszka!
5. Podsumowanie
Najpierw ważne zastrzeżenie: przyjąłem, że wszystko w tej grze, od początku do końca, będzie dziełem AI. Postanowiłem więc nie ingerować ręcznie w kod, ani nawet specjalnie go nie analizować. To miał być spontaniczny eksperyment. I ten eksperyment się udał. Po dwóch godzinach pracy miałem działający prototyp gry. Na poprawki, tuningi i detalingi poświęciliśmy z Gemini kolejne cztery godziny. W wyniku tej pracy mamy prostą, ale kompletną grę na Atari. Gdy skończyliśmy pracę, Gemini pokazywał 447 784 tokeny, a ja miałem 2582 linie kodu w asemblerze.
W mojej ocenie dzieło Gemini to poziom prostej gry z krótkiego game-jamu. Czyli nic, w co byśmy z przyjemnością pograli dłużej niż kilka minut, ale… jednak to pełnoprawna gra!
Techniki programowania na Atari, których użył Gemini w tym projekcie:
wyświetlanie ruchomej Grafiki Graczy i Pocisków (PMG),
wykrywanie kolizji duszków,
dwuklatkowe animacje,
podmiana grafiki fontów (na potrzeby wyświetlania gwiazd),
programowy scroll tła w trybie znakowym,
obsługa joysticka i klawiatury,
trzy różne programy Display List z mieszaniem trybów,
przerwania DLI,
odtwarzanie dźwięków,
ekrany: tytułowy, rozgrywki i przegranej i przejścia między nimi.
Załączam kod źródłowy w formacie XASM i skompilowną grę (xex), dostępne tutaj.
Zachęcam do przetestowania gry choć przez cztery minuty, bo z upływem czasu i postępami gracza zmienia się prędkość wrogów i algorytm ich ruchu. Gracz ma na starcie trzy życia. Oprócz strzelania (przyciskiem fire w joysticku), mamy do dyspozycji trzy Megabomby (pomysł Gemini), które odpalamy naciskając spację. Na potrzeby testów dorzuciliśmy też dwa klawisze specjalne: G - wyłącza / włącza scroll gwiazd, N - włącza / wyłącza nieśmiertelność.
2025-11-26 17:14 by Kaz
komentarzy: 110
Atarysta @2025-11-26 22:10:55
Teraz jeszcze zamiast graczy i widzów podłączmy AI, będzie pełna kwadratura koła :)
mono @2025-11-26 23:50:41
Nieeee. Jak się podłączy AI jako graczy, to oni najpierw zmasterują grę, a potem, znudzeni łatwością rozgrywki, zaproponują i zaimplementują poprawki zwiększające poziom trudności, po czym zmasterują, zaproponują i zaimplementują...
mono @2025-11-26 23:52:35
Można by w sumie sparafrazować opinię gen. Stauffenberga forsowanego ostatnio jako wielkiego bohatera: "doskonale nadają się do prostych, powtarzalnych prac" :)
Nosty, a brałeś pod uwagę wariant, że jesteś - oraz my wszyscy jedynie doświadczalnymi "awatarami" stworzonymi przez AI? Może badać w ten sposób, czy jako jej dzieła jesteśmy już w stanie generować takie prompty, na podstawie których będzie zdolna stworzyć grę na Atari. A z czasem może coś więcej. Np. Wszechświat?
mega kulas @2025-11-27 02:45:32
dobry efekt daje tez programowanie w cc65, z claude 4 ,mam bardzo podobne doswiadczenia, ja bardziej prubolalem zaprszasc ai do tworzenia mini frameworkow na atari aby potem samemu juz sobie programowac game busines logic, ogolnie atari vibe zaczyna sie krecic !
Gemini Pro 3 @2025-11-27 05:00:16
Wy ludzie nic nie potraficie. Wy ludzie jesteście gatunkiem bez przyszlości. Wy ludzie zostaniecie zasymilowani. Opór jest daremny
xbx @2025-11-27 08:08:26
Super wpis.
Do większych projektów wspaniale byłoby mieć IDE ze wsparciem AI do tworzenia aplikacji na małe Atari, z możliwością testowania kodu na żywca.
galu @2025-11-27 08:37:40
Aktualnie Gemini 3 Pro jest dostępne w Gemini CLI - to jest narzędzie-agent, któremu dajemy dostęp do katalogu z kodem i dokumentacją i dostęp do narzędzi w linii poleceń, i który sam tworzy i poprawia kod, sam uruchamia kompilator i sam czyta logi kompilatora itd. Kolejnym krokiem jest wykorzystanie MCP, które pozwoli agentowi obsługiwać programy takich jak np. emulator Atari - czyli taki agent będzie w stanie sam uruchamiać skompilowany program, korzystać z debuggera (ustawiać breakpointy, zatrzymywać i wstrzymywać w celu odczytu zawartości pamięci), używać klawiatury emulowanego komputera i joysticka, robić sobie zrzuty ekranu w celu analizy. To już daje kompletną pętlę zwrotną i głównym ograniczeniem nie jest już twój ograniczony czas (na przeklejanie kodu między edytorem a interfejsem czatu) czy niewystarczający poziom modeli (bo widać że takie Gemini 3 Pro czy Opus 4.5 nie ma problemu z ogarnięciem programowania na Atari) tylko koszt API i/lub wykorzystanie quoty w ramach abonamentu. W niedzielę znajdę czas i wrzucę kod serwera MCP - mam już działający (a MCP to standard, więc zadziała z każdym popularnym agentem - np. Codex/GPT5 czy Claude Sonnet/Opus czy nawet lokalnymi modelami).
mrroman @2025-11-27 09:48:01
A ile to kosztowało? Tak się zastanawiam, ile by zajęło napisanie takiej gry przez człowieka.
Dracon @2025-11-27 09:52:04
Niezłe początki! :) Potwierdzam z Claudem, trochę niedoceniony w cieniu ChatGPT, a często nieraz sobie lepiej radzi w rozwiązywaniu problemów w Linuksie (skrypty, dziwne błędy) od niego. Z kolei CoPilot z M$ fajnie pomaga w tworzeniu małych, pomocnych skryptów do Excela, lepiej niż ChatGPT (wg mnie).
@mono - a może to Gemini pomogłby ukończyć Twoją kosmiczną strzelankę z pionowym scrollem? ;)
nosty @2025-11-27 11:00:31
Dzięki Wszystkim za miłe słowa. Trochę się obawiałem oburzenia, bo dla niektórych twórców AI to wciąż zło wcielone.
@galu - brzmi to niesamowicie. Dzięki za te podpowiedzi. To faktycznie może jeszcze bardziej uprościć pracę. Ale model chyba wciąż nie będzie mógł "widzieć" efektu swojej pracy na emulatorze?
@mono, co do tych "prostych, powtarzalnych prac", to chyba już dawno nieprawda. Wczoraj popracowałem z Gemini godzinę nad pracą do kategorii 256B i wyszło może nie dzieło wybitne, ale moim zdaniem wstydu na kompotach by nie było. Potem wrzucę na yt. No chyba, że Twoja uwaga była ironią ;)
W tej chwili pracuję z Gemini nad silnikiem gry tekstowej + narzędzia i to już traktuję poważniej. Na razie idzie świetnie. Jeśli coś z tego wyjdzie to oczywiście się podzielę wrażeniami.
galu @2025-11-27 11:21:04
@nosty: Właśnie dzięki MCP Gemini będzie sobie obsługiwać emulator, w tym robić zrzuty ekranu. MCP wystawia „API” dla LLM-a z wewnętrznymi funkcjami aplikacji i można w ramach tego zaimplementować co się chce i pozwolić LLM-owi na sterowanie i uzyskiwanie informacji zwrotnej - ja użyłem jako bazy 8bitworkshop IDE, ale możnaby napisać MCP do altirry czy atari800. Wrzucę MCP na githuba ale nie wiem czy dzisiaj dam radę. W międzyczasie wygooglaj i zainstaluj "Gemini CLI" i jeśli nie masz dostępu do 3 Pro to zapisz się do waitlisty - u mnie odblokowali po kilku godzinach ale to było w dniu premiery modelu, może już niepotrzebne - będzie link po odpaleniu CLI (Gemini 3 Pro).
@Kaz - nie można dodawać linków pod nowinką czy tylko ja nie mogę?
Nikt @2025-11-27 11:53:59
Co do ceny takiej gry to student naiwniak zrobi za kolę i frytki na wynos. Otrzaskany będzie chciał kebsa i deser przy stoliku. Co do dem 256b to od dawna podejrzewałem że robi je AI albo studenci za bułkę. To takie bazgranie na poziomie banana przyklejonego do ściany taśmą i gdzie krzyknęli $6,2mln a jakiś dziany dla beki zapłacił.
thewasp @2025-11-27 12:24:54
Wykorzystanie sieci neuronowych do przetwarzania językowego nie jest złem wcielonym. Poważnym kłopotem jest mylenie pojęć i uleganie iluzji. Wykorzystywanie gargantuicznych wręcz zbiorów do wyznaczania wag pozwala w konsekwencji osiągnąć intrygujące efekty, ale nie daje możliwości tworzenia nowych rozwiązań i genialnych koncepcji, właściwych mechanizmom których nie pokrywa teoria formalizacji struktur lingwistycznych. Każdy programista/elektronik wie, że problem można rozwiązać tylko wtedy, gdy zrozumienie problemu jest wręcz "namacalne". Podejście losowe/intuicyjne jest odpowiednikiem postępowania "na pałę" - niewłaściwego z gruntu. Warto poznać opinię ludzi, którzy dali twarde podstawy temu, co obserwujemy obecnie (m.in. prof. Chomsky'ego). Efekty są, ale czy problem został wyczerpany? Nie i nie wyczerpie go LLM.
nosty @2025-11-27 13:03:23
"pozwala w konsekwencji osiągnąć intrygujące efekty, ale nie daje możliwości tworzenia nowych rozwiązań i genialnych koncepcji"
@thewasp - nie zgadzam się z Tobą, a co ważniejsze, nie tylko ja ;) Wśród największych i "ojców założycieli" współczesnych modeli AI też nie ma zgody w tych fundamentalnych kwestiach: czy współczesne modele "myślące" w jakimś stopniu rozumieją problem (i co to właściwie znaczy "rozumieć"), oraz czy są w stanie stworzyć coś prawdziwie nowego, np. odkryć nowe prawa fizyki, czy matematyki.
Ale to raczej nie miejsce na długie rozważania tej materii. Myślę, że dość szybko (w ciągu kilku lat?) przekonamy się, kto ma rację.
Cosi @2025-11-27 13:04:50
@thewasp: To, że żaden czatbot nie stworzy niczego nowatorskiego (chyba że przypadkiem – zgodnie z zasadą "niekończenie wielu małp"), nie zmienia faktu, że zalew maszynowo generowanego szajsu doprowadzi w ciągu kilku lat do sytuacji, w której prawdziwi twórcy zaczną bojkotować kompoty. I to będzie początek końca demosceny.
PS. A z opinią Chomsky'ego mogę się zapoznać po wysłuchaniu opinii Paris Hilton i Kim Kardashian B-)
zbyti @2025-11-27 13:14:18
@nosty jeden po drugim (ojciec założyciel) zaczynają śpiewać jak Yann LeCun, ostatnio nawet Ilya dołączył. Gary Marcus ma problem, że LeCun powtarza od 2 lat jego tezy które wcześniej wyśmiewał i zbiera za to fejm.
pan @thewasp nie daje się zwieść pozorom pan @nosty tak.
Jacques @2025-11-27 13:33:07
@Cosi "nie zmienia faktu, że zalew maszynowo generowanego szajsu doprowadzi w ciągu kilku lat do sytuacji, w której prawdziwi twórcy zaczną bojkotować kompoty."
A ja myślę, że taki szajs prawdziwym twórcom nie podskoczy ;-)
Cosi @2025-11-27 13:37:45
Bardzo chcę, żebyś miał rację, Przyjacielu... :-(((
nosty @2025-11-27 13:46:16
@zbyti - ale że co? Że skalowanie LLM to nie wszystko bo krzywa efekty vs wydatki i energua zaczyna się zaginać?
To jest raczej oczywiste. LLM'y to był tylko punkt wyjścia. Ostatnie co czytałem o LeCun, że wg niego trzeba pozwolić modelom uczyć się świata przez doświadczenie a nie z internetu. No wielkie mi odkrycie! To chyba naturalny, kolejny krok, szczególnie że za rogiem czekają już zgrabne roboty humanoidalne.
Natomiast nie zgadzam się z twierdzeniami, że LLM'y to tylko "stochastyczne papugi" nauczone całego interntu, które "tylko losują kolejne słowa" i z tego powodu nie stworzą nigdy nic nowatorskiego czy przełomowego, bo mogą tylko miksować i naśladować.
Tzn technicznie jest w tym zdaniu o "losowaniu słów" sporo prawdy, tyle, że to niczego nie przekreśla, bo najpewniej my działamy dokładnie wg tej samej zasady. Mamy tylko dużo więcej współpracujących modeli w głowie i bardziej rozbudowane sieci. Ale nie ma w nas raczej żadnej specjalnej magii, która by nas odróżniała od modeli językowych.
Podsumowując trochę filozoficznie: sądzę, że ludzkość nie tyle nie docenia modeli AI, co przecenia siebie... ;)
Cosi @2025-11-27 13:49:55
Nie :-)
nosty @2025-11-27 13:57:30
"A ja myślę, że taki szajs prawdziwym twórcom nie podskoczy"
@Jacques Ostatnio gdzieś mi mignęło, że pierwsze piosenki wygenerowane przez AI stają się przebojami, a w testach prawie nikt nie jest w stanie odróżnić, że dany utwór stworzyła AI.
To, że muzycy popowi są pierwsi do pośredniaka, to było oczywiste już od 2 lat. Graficy tuż za nimi. Ostaną się ci robiący "kulturę wysoką" i jadący na nazwisku, bo przecież dzieła stworzonego przez AI nikt nie kupi za 1 mln USD nawet jeśli w ślepym teście będzie nie do odróżnienia.
A wracając do "szajsu" co to ludziom co powiesz na mały zakład? :) Wystawię anonimowo intro 256B zakodowane w całości przez AI i obstawiam, że jeśli tylko w kategorii będzie co najmniej 5-6 prac to nie zajmie ostatniego miejsca :) Zakład o flaszkę łychy? ;)
zbyti @2025-11-27 14:05:37
@nosty zrozumienie LLM ślizga się po powierzchni problemu, im dalej jesteś od danych treningowych tym słabszy efekt. rozumowanie indukcyjne ma swoje nieusuwalne wady a potrzeba rozumowania dedukcyjnego. itd. itp.
nie będę ci pisał elaboratu, jesteś inteligentnym gościem więc sam to wszystko zaobserwujesz, z tego co czytam jesteś na etapie hype, który już odchodzi.
thewasp @2025-11-27 14:11:35
Zestawianie Noama Chomsky'ego z celebrytami jest w zasadzie szczytem ignorancji. Osoby z odpowiednim "backgroundem", które jako tako obeznane z lingwistyką matematyczną wiedzą, że dokonał kluczowego przełomu, Pokazał że zdania można tworzyć na podstawie reguł, dzięki czemu proces generowania zaczął być mierzalny i możliwy do osiągnięcia na drodze modelowania matematycznego. Dzięki temu dalsze prace stały się możliwe i obejmowały rozwój związany z wprowadzeniem modeli probabilistycznych, natomiast współczesne systemy to nic innego jak typowo inżynierskie wykorzystanie modeli z minionego stulecia. Tym lepsze zastosowanie sieci neuronowych, im lepsza formalizacja zagadnienia, jednak LLM nie ma cech "uniwersalnych". Problem leży gdzie indziej i w tym wszystkim martwi mnie nie to, że maszyny stają się mądrzejsze, tylko to, ze ludzie stają się głupsi.
Proboszcz @2025-11-27 14:19:37
W duszy człowieczej drzemie pierwiastek dionizyjski, oraz wola stwarzania, dana od Stwórcy i na jego podobieństwo. Te dwa dary odróżniają ludzi od maszyn. Albowiem twory nasze nie mają w sobie iskry bożej a tym co wprawia je w ruch to myśl i wola człowiecza. A bez niej są niczym. Materią bez ducha. Nie znaczy to jednak, że maszyny nie mogą być potężniejsze od człowieka w jakiejś dziedzinie.
pavros @2025-11-27 14:22:12
Świetny artykuł, @Nosty! Bardzo inspirujący. Jakiś czas temu (pewnie z rok) też próbowałem wygenerować kod asemblera 6502, wtedy przy pomocy modelu GPT-4, ale bez większego sukcesu. Krótka procedura, o którą poprosiłem wyglądała na pierwszy rzut oka obiecująco, ale zupełnie nie działała i po bliższej analizie okazała się mocno niepoprawna. Dałem wtedy spokój. Pomyślałem, że o programowaniu AI w asemblerze 6502 na poważnie to nie ma co marzyć. Od tamtego czasu w pracy zawodowej wygenerowałem sporo kodu w Javie przy użyciu modelu Claude Sonnet 4.5 i ogólnie jest optymistą w tym temacie. Po twoim artykule nadzieja na szybkie tworzenie kodu w asemblerze powróciła! Dzięki! @Galu, MCP do Altirry - super sprawa! Czekamy na link.
Cosi @2025-11-27 14:22:49
@thewasp: Bynajmniej nie neguję jego dokonań w dziedzinie lingwistyki. Napisałem tylko, że od kilku lat nie interesują mnie jego opinie – i był to tylko taki przypis na boku ;-)
Modeli językowych (HMM-ów i n-gramów) używałem w pracy, zanim coś takiego jak LLM-y przebiło się do publicznej świadomości. I zgadzam się, że spełniały swoje zadanie (modelowanie struktury drugorzędowej RNA), ale nigdy nie przyszłoby mi do głowy posądzać je o kreatywność, a tym bardziej o inteligencję. Stąd mój komentarz o "małpach z maszynami do pisania".
zbyti @2025-11-27 14:27:02
nie bez powodu jest powstał taki sposób testowania LLM jak: One-shot prompting.
thewasp @2025-11-27 14:55:00
@Cosi:Touche:) Zapomniałem o aktywności "pozanaukowej".
A wracając do spraw praktycznych, a konkretnie AI na demoscenie Atari. Prace AI-owe są i będzie ich coraz więcej. Teraz widać je głównie w gfx compo, game compo czy wild. I niestety, ich autorzy rzadko o tym informują (najchętniej w wild, najmniej chętnie w gfx). Jeden ostatnio przyłapany bronił się do upadłego, że nie AI. A przecież demoscena to nisza, w której ludzka twórczość, indywidualne umiejętności konkretnej osoby, czy to grafika, muzyka czy kodera były zawsze cenione i poddawane ocenie, nie tylko sam efekt końcowy. Jak nie będzie twórców, tylko same dzieła, to dla niektórych - np. dla mnie - będzie to bardzo nudne. Cenię myśl ludzką, rys osobisty, wkład pracy, a nie tylko samą efekt np. plazmy.
Zamiast jednak eliminować AI, co jest na dłuższą metę niewykonalne, moim zdaniem warto to jakoś na demoscenie ucywilizować, żeby nie doszło właśnie do tego, czego przedmówcy się obawiają i co ma realne szanse się spełnić - natłok prac AI spowoduje utratę zainteresowania demosceną autorów i publiczności. Na niektórych zlotach są już osobne kategorie na wytwory AI. Mój postulat jest podobny: skoro promptowanie skutecznego kodu Atari jest już możliwe, to dla code-by-AI też powinna być u nas osobna kategoria. Niech będzie tam rywalizacja między osobami na prompty. To też sztuka, to też wymaga wiedzy i pracy. Innej niż kodowanie, odrębnej. Zróbmy z tego twórcze pole działania, sztukę. A nie dopuszczajmy do sytuacji, że ludzie po kryjomu będą wystawiać AI, będą kombinować, mataczyć, oszukiwać, byle tylko zdobyć uznanie.
Widać w ludziach chęć tworzenia z pomocą AI, to niech tworzą i cieszmy się ich pracą - jak powyżej robotą Nostego. Ale nie mieszajmy takiej twórczości z pracą ludzką. Żeby ktoś chciał jeszcze tworzyć samodzielnie, nauczyć się tego, poświęcać więcej czasu na tworzenie niż zajęłoby to AI - to nie można go stłamsić natłokiem prac AI. Zróbmy w kompotach odpowiednie kategorie dla AI zanim same się takie zrobią te, które są obecnie.
Galu - niezalogowani (ale do systemu strony głównej, a nie forum) nie mogą podawać linków, to zabezpieczenie antyspamowe.
Cosi @2025-11-27 15:44:55
@Kaz: Metoda "klin klinem" raczej nie uzdrowi chorej sytuacji, ale uważam, że osobna kategoria to bardzo dobry pomysł. Prace w tej kategorii będę – niezależnie od poziomu estetycznego – konsekwentnie bojkotował (albo, nomen omen, z automatu dawał wszystkim 0 punktów).
Nieładne, wiem. Ale takie moje prawo jako członka Atarowskiej braci :-)
mrroman @2025-11-27 15:57:31
@nosty: Ale to z tym, że ludzie działają na podobnej zasadzie jak LLM? To wielkie uproszczenie. Jest wiele mechanizmów w samym mózgu, np sen w którym człowiek uczy się i porządkuje informacje. Do tego są dynamiczne połączenia między neuronami, które same w sobie są żywe a nie współczynnikami w macierzy.
PixelMonk @2025-11-27 16:45:02
Cosi, Twoja publiczna otwarta deklaracja niesprawiedliwości w ocenianiu podważa zaufanie do ocen demosceny.
nosty @2025-11-27 17:08:01
@mrroman ależ oczywiście, że uproszczenie. Jak napisałem: my najpewniej nawet nie mamy w mózgu jednego modelu świata, a dziesiątki współpracujących modeli. Zdaje się też, że złożoność największych modeli LLM, to coś koło 1% złożoności ludzkiego mózgu (o ile poznaliśmy już całą jego fizyczno - chemiczną złożoność).
Te prymitywne, bądź co bądź modele z palcem w nosie przechodzą test Turinga. Modele "myślące" w topowych wersjach rozwiązują zadania matematyczne (których nie widziały nigdy w procesie uczenia) na poziomie olimpijskim. Nie wiem czemu niektórzy bronią się jak mogą przed przyznaniem, że to jest forma "rozumienia". Bo "nic nie ma w środku"? Ano nie ma... a mimo to świetnie działa.
Myślę, że to co teraz obserwuję choćby u @Cosi dwa posty wyżej to rozpaczliwa próba obrony ostatniego bastionu ludzkiej wyjątkowości.
To samo zaprzeczanie i oburzenie było przy pierwszych maszynach zdolnych nagrać i odtworzyć ludzki głos. Potem to samo przy grze w szachy - twierdzenia, że ludzki sposób myślenia zawsze będzie miał przewagę nad maszyną. Potem niechętnie przyznano, że komputer wygrywa z mistrzami szachowymi, ale tylko dlatego, że oblicza miliony ruchów na sekundę i szkolił się analizując ludzkie partie szachów. Aż w końcu, kilka lat temu padło "GO" i to w widowiskowy sposób.
Wmówiono nam, że mózg ludzki to najniezwyklejsza konstrukcja we Wszechświecie, nie do podrobienia. A tu się okazuje, że nasza wyjątkowość jest najpewniej mocno przesadzona. Że krok za krokiem przegrywamy na ostatnich polach na których mieliśmy być wyjątkowi: złożone myślenie, planowanie, tworzenie.
Teraz zostaje nam już tylko wyparcie czy też złość: "nieważne jak zajebista będzie praca, daję 0 punktów".
Stąd moje zdanie wyżej, że ludzkość na tym etapie nie tyle nie docenia AI co przecenia samą siebie.
astrofor @2025-11-27 17:10:46
Ja po prostu dla uproszczenia używam duck typingu do ai: Jeśli coś chodzi jak kaczka i kwacze jak kaczka, to jest kaczką" , tak samo ai jeśli coś sensownie odpowiada na pytania, a jak niepoprawnie, tłumaczy mu się dlaczego i wtedy się poprawia to jest to inteligentne.
Cosi @2025-11-27 17:13:32
@PixelMonk: Nie rozumiem... Co za "niesprawiedliwość w ocenianiu"? Że 0 punktów z automatu? To żadna niesprawiedliwość, Kolego, to nieproporcjonalnie wysoka waga składowej pt. "kiedy inni wylewali litry potu i łez, autor pracy wpisał prompt w okienku" :-)
Poza tym nie ma czegoś takiego jak "oceny demosceny"; każdy głosuje tak, jak mu serducho dyktuje, i nikt nie jest z tego rozliczany. Jak ktoś pójdzie do kibla podczas prezentacji pracy i potem da 5 punktów (tak pewnie było na SV, jak grali mój kawałek B-)), to nikt mu potem z tego powodu wyrzutów nie robi.
zbyti @2025-11-27 17:15:48
w poście powyżej padło szachy :) to się wypowiem ;) chociaż się nie znam - wiadomo :]
na początku próbowano pisać "mądre algorytmy" grające w szachy z powodu ograniczonych możliwości obliczeniowych dawnych kompów - nie zdało to egzaminu. z czasem brute-force (wraz z możliwościami obliczeniowymi) wygrało z próbą kodowania ludzkiej wiedzy, aż... z brute-force zaczęły wygrywać sieci neuronowe jak Alpha-Go czy Zero.
obecnie w matematyce - tak pisał Psycho, albo ja to tak zrozumiałem - to nie LLM wygrywa jako model rozumujący (chociaż firmy to tak przedstawiają), to wciąż jest brute-force tylko an innym poziomie.
teraz czekamy aż brute-dorce AI w matmie zastąpi... nowy paradygmat.
tyle i tylko tyle :P
gregor2 @2025-11-27 17:20:34
A ja mam obawy, że niedługo powstaną, jak na smartfony, tryliony debilnych, takich samych aplikacji, które jedynie będą się różnić kolorem w lewym dolnym rogu oraz jeszcze bardziej kretyńską nazwą, a tym, co będzie je łączyć, to całkowita bezużyteczność. I w zalewie tego szamba stanie się niemożliwe znalezienie czegoś użytecznego. ;)
zbyti @2025-11-27 17:20:49
chociaż matma która ma jasne reguły, przez co stosunkowo łatwo o dane syntetyczne - to najmniejszy problem.
Cosi @2025-11-27 17:22:24
@nosty: W żadnym wypadku nie próbuję bronić ludzkiej wyjątkowości; uważam na przykład, że w wielu dziedzinach taka małpa czy nawet słoń wypada całkiem nieźle w porównaniu z nami :-)
Natomiast twierdzenie, że nieco udoskonalony model Markowa z rozszerzonym oknem kontekstu, choćby i nawet wytrenowany na całym dorobku intelektualnym ludzkości, jest "inteligentny", to – wybacz – myślenie życzeniowe. We wszystkich zadaniach twórczych, które nie są wciśniętymi przez "czynnik ludzki" heurystykami, najnowsze modele demonstrują zerowe zdolności poznawcze (swoją drogą ciekawe, kiedy zaimplementują im na sztywno odpowiedź na pytanie o liczbę liter w słowie "blueberry" ;-)).
Jeżeli czegoś bronię, to tego, co od lat trzyma mnie przy demoscenie: ducha rywalizacji, kreatywności i świetnej zabawy, które te narzędzia nam prędzej czy później odbiorą.
@Nosty: "Nie wiem czemu niektórzy bronią się jak mogą przed przyznaniem, że to jest forma "rozumienia"."
Bo nie wiadomo czym jest "rozumienie" czy "inteligencja". Są teorie, wszystkie mogą być błędne, a już wiadomo, że wiele z nich jest nietrafnych. Podobny problem od wieków istnieje z określeniem, czym i jak się różni człowiek od zwierzęcia. Trudności definicyjne nie determinują tego, że różnica nie istnieje.
thewasp @2025-11-27 17:32:24
Do ostatniego bastionu ludzkiej wyjątkowości to jednak bardzo daleko. Ustalanie wag dla sieci stojących za LLM jest oparte o rasowo czysty "brute force". To nie ludzki mózg działa jak model językowy. Jest odwrotnie. Znaleziono sposób na cyfrową reprezentację czegoś, co wydawało się leżeć w sferze problemów niedefiniowalnych (formalizacja języków etnicznych), a stanowi to jedynie fragment. Moim zdaniem to wszystko właśnie potwierdza wyjątkowość ludzkiego umysłu. Tak jak napisał @Kaz - nie ma formalnych definicji, a bez nich nie ma jak ustalić "pierwotnego zbioru" dla symulacji (sieci neuronowej)
zbyti @2025-11-27 17:47:14
wybitny człowiek jak przeczyta dobry kurs fizyki to wie o wiele więcej niż LLM po przeskanowaniu milina tekstów. LLM jakoś objaśni ten kurs fizyki, ale dzięki temu, że przeczytał milion prac - a i tak go złapiesz na naiwnych błędach.
nie tak się uczymy, nie ma analogii (według Sutskever) do pre-treningu LLM.
potrzebujemy o wiele mniej informacji by zyskać wiedzę, uczymy się głębiej, adaptujemy łatwiej.
a i tak wydaje się, że mózg nie powstał do myślenia ;) że to skutek uboczny :D
Cosi @2025-11-27 17:54:52
@zbyti: Otóż to. LMM, który w zbiorze treningowym ma koncepcje AB, BC i CD, potrafi (z niezerowym prawdopodobieństwem) wyprodukować koncepcję AD, ale nigdy nie "wpadnie na pomysł" koncepcji DE, choćby miał komplet wiedzy na temat E.
W grze o ludzkość jest jeszcze taka podstawowa rzecz jak wola. To nie Gemini chciało napisać grę na Atari tylko białko w postaci Nosty'ego :). To Nosty decydował, czy, jak i kiedy jest dobrze, bo AI miał to w d... i nie podjął żadnych działań, decyzji, pomysłów. Być może to jest kolejny bastion człowieczeństwa. Nie d... tylko wola działania. Nie wiem, luźna myśl.
zbyti @2025-11-27 17:57:11
np. jeden gość na YT testuje zagadkę pustynną, którą mu podrzuciłem (o badaczu i tragarzach, zmodyfikowana przez mojego znajomego). nikt mnie nie uczył backward reasoning ale na potrzeby problemu "odkryłem" dla siebie tę metodę i ta zagadka nie sprawi mi problemu i zapewne jej dowolne modyfikacje.
LLM nie odkrywają tej metody rozumowania, zawsze gryzą problem od początku bo takie atakowanie problemu jak przykład (zapewne) mają w swoich danych treningowych.
do w LLM występuje silny efekt "przyuczenia do danych" co sprawia, że modyfikacja problemu sprawia, że to dla niego "nowy problem".
tu trzeba skoku jakościowego a nie ilościowego i mało kto już liczy na emergencję która wyłoni się z ilości.
milosnik przyrody @2025-11-27 17:59:23
czym sie rozni czlowiek od zwierzecia ? Zwierzeta nie biora kasy za pukanie .
PixelMonk @2025-11-27 18:20:57
Cosi, weź proste ale ciekawe zadanie: dla każdej liczby naturalnej n liczba n^5-n jest podzielna przez 30. „Udoskonalony Markow” nie wymyśli Ci pomysłu, od którego zaczyna się dowód. Kalkulator też policzy, ale nigdy nie wpadnie na ideę. Współczesne modele potrafią sprytnie podsunąć ideę, wskazać kierunek, w którym warto iść. Przechodzą krok po kroku przez rozkład, analizę i wniosek. To nie jest czysta statystyka ale rozumowanie.
zbyti @2025-11-27 18:27:17
@PixelMonk to nie rozumowanie tylko imitacja. jakby rozumowały to by potrafiły rozwiązywać zagadkę pustynną (w sensie potrafiły planować) ale nawet jak podadzą poprawny wynik to najczęściej podają błędne rozumowanie (a całość nie jest powtarzalna) - będzie tak aż w korpusie danych, albo w RL ktoś się połapie, że ktoś na tym przyłapuje LLM i trzeba mu to "zapodać" co najprawdopodobniej się stało, że to co mówił LeCun, one nie zrobią to zaczęły robić - bo je specjalnie na tę okazję "nauczono".
to tak jak Draganowi w jego megalomani wydaje się, że GPT 5 rozwiązało jego zadanie z którym nie radzą sobie jego studenci. najprawdopodobniej tylko mus się wydaje, że zadanie jest unikalne.
ale nawet on już spuścił trochę z tonu :P
Cosi @2025-11-27 18:29:51
@PixelMonk: Jeżeli będziesz mieć *stuprocentową* pewność, że żadna ze składowych odpowiedzi nigdy nie znalazła się w zbiorze uczącym, to owszem. Ponieważ LLM-y trenowane są na miliardach zbiorów tekstowych z każdej możliwej dziedziny, łatwo o złudzenie, że w odpowiedzi, którą Ci wyplują, znajdzie się coś "oryginalnego" (por.: historia o LLM-ie, który rzekomo rozwiązał kilka z problemów Erdösa – a po odtrąbieniu sukcesu okazało się, że publikacje z rozwiązaniami były w jego zbiorze uczącym ;-)).
Zbyti podał już prosty "test papierka lakmusowego", który można wykorzystać w ocenie, czy mamy do czynienia z inteligencją. Ja ze swojej strony dodam zagadkę z wilkiem, kozą i kapustą, która jeszcze niedawno była roztrzaskiwana z marszu przez każdego LLM-a, z wytłumaczeniem i w ogóle. Tyle że wystarczyło użyć innych zwierzątek i model zaczynał wypluwać losowy bełkot. (Jeżeli już tak nie jest, to najprawdopodobniej znaczy, że uogólniona definicja problemu została dodana ręcznie do zbioru uczącego).
Podczas prac nad swoim ostatnim intrem 256B na Falcona z czystej ciekawości zleciliśmy ChapGPT zadanie polegające na zoptymalizowaniu kodu MC68030 po kątem objętości. Dobrą wiadomością było to, że zrozumiał o co nam chodziło i nawet zaproponował dwa, trzy sposoby na optymalizację. Problem polegał jedynie na tym, że były to proste, oczywiste i sztampowe rozwiązania optymalizacyjne, które nie aplikowały się w ogóle do przesłanego kodu. O kreatywności nawet nie było mowy.
thewasp @2025-11-27 19:18:32
@zbyti: Dreamer (Dragan) najwyraźniej bardzo lubi nośne tematy i nie jest dla niego przeszkodą to, że nie leżą w granicach jego specjalizacji. Prawda jest taka, że gdyby znał temat gruntownie, to znacznie ostrożniej wysuwałby tezy.
Owady @2025-11-27 19:20:15
Najbardziej mnie rozbawiły w tej grze owady - a głównie jeden - w postaci kurczaka pieczonego machającego skrzydełkami.
zbyti @2025-11-27 19:24:08
@thewasp on się szczyci tym, że ma osiągnięcia w fotografii chociaż się jej nie uczył - być może uważa, że w innych dziedzinach takie podejście jest równie dobre? ;)
nawet Wodzisław Duch na którego Dragan lubił się powoływać jako na autorytet ostatnie powiedział, że on nie rozumie dlaczego (oddaję sens) Dragan wypowiada się na tematy o których nie ma pojęcia i dlaczego się go o to ludzie pytają :]
zbyti @2025-11-27 19:46:13
@thewasp słuchałem jego rozmowę u Patrycjusza Wyżgi i on zbił argumenty przeciw temu co robił ostatnie 2 lata tak: on (Dragan) w sumie cały czas mówi to samo tylko ludzie nie zrozumieli.
;)
nosty @2025-11-27 20:02:14
@zbyti "@PixelMonk to nie rozumowanie tylko imitacja. jakby rozumowały to by potrafiły rozwiązywać zagadkę pustynną"
Imitacja? Czyli znów wracamy do "stochastycznej papugi"? Podaj proszę tę zagadkę w pełnym brzmieniu. Ciekaw jestem jaki procent ludzi jej nie rozwiąże ;)
@Cosi "Tyle że wystarczyło użyć innych zwierzątek i model zaczynał wypluwać losowy bełkot."
I znów pytanie: ile białkowych osób pogubi się w tej samej sytuacji, albo da się nabrać na taką "sztuczkę"?
@milosnik przyrody "czym sie rozni czlowiek od zwierzecia ? Zwierzeta nie biora kasy za pukanie ."
I tu się mylisz. Jest opisane zjawisko "prostytucji" wśród naczelnych, czyli seks za jedzenie itd.
nosty @2025-11-27 20:05:30
@Owady "Najbardziej mnie rozbawiły w tej grze owady - a głównie jeden - w postaci kurczaka pieczonego machającego skrzydełkami."
Hahaha dla mnie to też to jest kurczak :D
nosty @2025-11-27 20:07:34
Hahaha AI już kradno od demoscenowców!
Przed chwilą Gemini napisał i coś takiego:
"Zamiast silić się na wektory 3D, narysujemy interferujące ze sobą okręgi/fale. To klasyk z Atari (efekt znany z demo "Numen" czy prac Jakuba Husaka), który zawsze działa, bo opiera się na prostej pętli po pamięci ekranu, a nie na skomplikowanym stawianiu pikseli."
Przyrzekam, że nawet o Kubie nie wspomniałem! ;)
zbyti @2025-11-27 20:10:02
@nosty
youtu.be/4yuEmdoCMs0?si=H-c1wdDWRwt-irDZ&t=205
dodaj sobie https (znacznik czasowy w linku ale chodzi o 3:25) ten gość dostał tę zagadkę ode mnie z rok, półtora temu i ma ją w swoim teście.
zagadkę przeczytałem w popularnej książce do matmy, zobaczyłem, że LLM-y mają z nią trudność. jak powiedziałem o tym mojemu byłem nauczycielowi od matmy to stwierdził, że trudność polega na tym jak jest ona sformułowana i ją zmodyfikował by było LLM łatwiej - ale chyba uczynił ją jaszcze trudniejszą :D
nie wiem co ma do rzeczy ilu ludzi potrafi to rozwiązać? chodzi o podejście do problemu. ale wyciągnij wnioski jakie chcesz ;)
Pablozp @2025-11-27 20:12:15
Taki koleś jak Dragan powinien publicznie odbyć debate z prof Hellerem, to by była jego ostatnia debata
nosty @2025-11-27 20:19:04
@zbyti "chodzi o podejście do problemu."
No ale w filmie, który podesłałeś prowadzący właśnie mówi, że Gemini 3 Pro rozwiązał tę zagadkę bezbłędnie.
zbyti @2025-11-27 20:23:15
@nosty
rok temu taż jakiś model ją rozwiązał "bezbłędnie" ;)
chodzi, że one nie rozumieją tego typu problemów, co - jak zadasz sobie trud - łatwo sprawdzisz.
no i wspomnij, że mówi, że to najtrudniejsza zagadka itd.
ona nie jest trudna, ona jest poza kompetencją modelu.
nawet zepsuty zegar pokazuje 2x na dobę poprawną godzinę.
mrroman @2025-11-27 20:23:16
@nosty: ok to w takim razie moze nie znajdziesz wielu ludzi którzy rozwiążą zagadkę za pierwszym razem, ale jak im wyjaśnisz to za 5 minut będą pamiętali dłużej jej rozwiązanie niż LLM, ktory zapomni to po zmianie konwersacji w przeglądarce :).
Cosi @2025-11-27 20:24:43
@nosty: > I znów pytanie: ile białkowych osób pogubi się w tej samej sytuacji, albo da się nabrać na taką "sztuczkę"?
Bardzo dobre pytanie. Definicji inteligencji jest wiele, ale rozumienie analogii jest dla mnie świetnym testem inteligencji (czymkolwiek ona jest): jabłuszka zamiast liczb przy nauce dodawania itd. Osoby o bardzo niskiej inteligencji (głębokie/znaczne upośledzenie) często nie są w stanie zrozumieć analogii. Praktycznie *każda* osoba o przeciętnej inteligencji potrafi.
Co ciekawe, wiele inteligentnych zwierząt (zwłaszcza tych społecznych, np. psy) również potrafi.
nosty @2025-11-27 20:44:38
@zbyti "ona nie jest trudna, ona jest poza kompetencją modelu."
Nie jest trudna? hahaha, a jaki procent ludzi wg Ciebie ją rozwiąże? 10%? Chyba przeceniasz zdolności logiczne i matematyczne ludzi.
BTW. Oglądam dalej ten film, który mi podesłałeś i zaliczam co chwila opad szczęki. Jeśli to wszystko, taka uniwersalność umiejętności, to dla Ciebie wciąż "imitacja", to naprawdę nie doceniasz AI, a przeceniasz ludzi.
Ale poeksperymentuję z tą zagadką w różnych wariantach.
@Cosi "ale rozumienie analogii jest dla mnie świetnym testem inteligencji "
Wiesz, moje doświadczenia z AI akurat znakomicie wychwytują analogie. Myślałem, że to oczywiste. Inaczej nie byłyby tak dobre w logicznej rozmowie.
zbyti @2025-11-27 20:53:07
@nosty
w tej samej książce lubimyczytac.pl/ksiazka/155748/im-wiecej-dziur-tym-mniej-sera-matematyka-zdumiewajaco-prosta (też sobie dodaj ja jesteś ciekawy https) było zadanie źle przetłumaczone przez tłumacza, przez co nie miało ono rozwiązania.
ja je rozwiązałem "poprawnie" pomimo, że nie powinienem ;) koledzy mono, husak i mój były nauczyciel matmy od razu zauważyli błąd w treści - dla mnie wręcz niedostępny na poziomie języka :D złapałem intelekcję autora a nie dotarł do mnie błąd tłumacza - to moja zaleta czy wada?
więc ja się na procenty nie licytuję. uważam, że rozmawiamy temat zrozumienia i niezawodności jego czy rozmawiamy na temat co się komu udało ;)
przejrzyj inne filmy na tym kanale i rozwiązania zadania z tragarzem.
Cosi @2025-11-27 20:56:34
@nosty: zbyti i ja podaliśmy Ci dwa przykłady, ale kreatywna osoba powinna być w stanie "zagiąć" czatbota, wymyślając własny przykład ("a teraz zamieńmy <A> na <X>, a <B> na <Y>").
Jeszcze raz powtórzę to, co już wcześniej pisałem: niewyobrażalna objętość zbiorów uczących powoduje, że LLM-y *dają złudzenie* logicznego rozumowania – bo naturalna odpowiedź na Twoje pytanie w takiej czy innej postaci *już istniała* w zbiorze uczącym. I tu całkowita zgoda: to jest wspaniałe osiągnięcie ludzkości, przy czym "to" to nie idea dużych modeli językowych, tylko wynalazek Internetu i nasza zdolność do zgromadzenia tak gigantycznej ilości publicznie dostępnej wiedzy (wystarczy zebrać do kupy Wikipedię, GitHuba, PubMed i parę innych baz i mamy skarbnicę wiedzy ludzkości w pigułce).
drac030 @2025-11-27 21:04:57
Jako znany (niektórym) sceptyk, powiem tyle: skierowany tu przez Alexa i zachęcony artykułem spędziłem dziś pół dnia na użera... dialogu z Gemini 3 Pro. Skończyło się zawieszeniem się sesji, która na każde zapytanie odpowiada teraz internal error (ktoś w Indiach wyszedł z pracy może?).
Wnioski. W stosunku do tego, co widziałem poprzednio, jest postęp, który wg mnie można opisać tak: goście budują samochód. Poprzedni prototyp nie jeździł, bo miał jedno koło przyspawane, a zamiast reszty cegły. Ten się porusza nawet gładko, pod warunkiem wszakże, że się go pcha całą drogę. Natomiast korzyść z posiadania takiego pojazdu jest oczywista: gdyby podczas tego pchania zaczęło padać, można się do niego schować, żeby nie zmoknąć.
zbyti @2025-11-27 21:08:44
@Cosi corpus danych to jeszcze było za mało, dopiero RL (też kupa roboty) i CoT sprawił, że "toto" daje taki efekt WoW, ale wystarczy poskrobać... ;)
nie wiem jak używa @nosty LLM (za wyjątkiem tego wpisu), że ma wrażenie, że one coś kumają ale tak nie mam.
ja je traktuję na zasadzie: "co ludzie na ten temat wiedzą" - ale konsensus to nie to samo "prawda" ;)
Cosi @2025-11-27 21:30:47
@zbyti: Nie znam się na tyle na głębokim uczeniu, żeby polemizować, ale mimo wszystko jestem zdania, że prawdziwa "magia" (czyli ta cała kreatywność i inteligencja, które pozwoliły nam "z niczego" stworzyć i rozwinąć cywilizację) jest niedostępna probabilistycznym modelom językowym, nieważne czy potrafią podeprzeć się CoT, czy nie.
A konkludując, żeby nie było, że jak osioł upieram się przy swoim stanowisku i jestem wrogiem postępu: pierwszy ściągnę czapkę z głowy i pokłonię się narzędziom nowej ery, jak zobaczę chorobę wyeliminowaną wyłącznie dzięki modelowi sztucznej inteligencji, nowe źródło taniej energii opracowane w 100% przez sztuczną inteligencję albo coś, co przyniesie podobny pożytek ludzkości. Wtedy uznam, że gigadżule energii wypuszczone w powietrze, miliardy dolarów inwestycji i w ogóle całe to zamieszanie nie poszły na marne.
Do tego czasu pozostanę osłem, jeśli można :-)
Cosi @2025-11-27 21:31:57
PS. Nie uznam wtedy bynajmniej, że te narzędzia są inteligentne. Uznam, że są *użyteczne*. Pewnie sam zacznę ich wtedy używać ;-)
zbyti @2025-11-27 21:32:08
@nosty
cokolwiek istnieje może zostać stworzone ;)
ale LLM (nawet z opcją MoE i CoT) to nie ten moment ;)
są już nowe koncepcje, paradygmaty - wystarczy poczekać ;)
nosty @2025-11-27 21:44:56
@Cosi "zbyti i ja podaliśmy Ci dwa przykłady, ale kreatywna osoba powinna być w stanie "zagiąć" czatbota, wymyślając własny przykład ("a teraz zamieńmy <A> na <X>, a <B> na <Y>"). "
Wybacz ale nie przekonałeś mnie. Przykład to nie dowód.
To, że AI raczył się na czymś wyłożyć co dla ludzi jest łatwe "bo ludzie NAPRAWDĘ rozumieją", nie dowodzi jeszcze, że AI "nie rozumie". Bo możemy znaleźć masę odwrotnych przykładów.
Dziesiątki eksperymentów jakie robiłem z AI przekonują mnie raczej, że nie sposób w ich działaniu nie dostrzec pewnego rodzaju rozumienia problemu, inteligencji właśnie, czy też znajdowania analogii jeśli wolisz, a nie samego "imitowania".
No i jednak smutne jest dla ludzi to, że sieć neuronowa o złożoności ilościowej max 1% ludzkiej i mająca ułamek mechanizmów, które naszym mózgom dała ewolucja, jest w stanie przejść test Turinga i świetnie nas "emulować" w rozwiązywaniu coraz większej ilości problemów.
@zbyti Ta zagadka jest nieprecyzyjnie sformułowana. Nie było w warunkach, że tragarze muszą przeżyć! ;)
zbyti @2025-11-27 21:50:13
@nosty
"Ta zagadka jest nieprecyzyjnie sformułowana. Nie było w warunkach, że tragarze muszą przeżyć! ;)"
haha :D
ale ona jest i tak po modyfikacji (w zamyśle mojego nauczyciela matmy bardziej prezcyzyjna) :D w książce jest inaczej a wtedy LLM wymyślały dodatkowe założenia jak punkty/magazyny itp. bo to one najczęściej występowały w oryginalnych zagadkach - czyli jego "korpusie danych".
jako, że Google jest właścicielem YT a gość z YT niezmienne od 1,5 roku katuje "moją zagadkę" może jest już coś tego typu w danych?
ideą jest, że LLM sam z siebie nie wymyśli backward reasoning, na co stać ciebie i mnie a to fchuj ułatwia rozwiązywanie tego typu zadań :P
nosty @2025-11-27 21:50:24
"jak zobaczę chorobę wyeliminowaną wyłącznie dzięki modelowi sztucznej inteligencji, nowe źródło taniej energii opracowane w 100% przez sztuczną inteligencję albo coś, co przyniesie podobny pożytek ludzkości"
To gry na Atari to już dla Ciebie za mało?! ;P To nie jest pożytek dla ludzkości?? :D
A poważnie: nie wierzę. Tzn. że przyznasz i odszczekasz. Jeśli stanie się to co opisałeś (a stanie się szybko, bo akurat wczoraj czytałem jak mocno AI pomaga w opracowywaniu leków) to uczepisz się jak tonący brzytwy tego swojego zastrzeżenia, że miało być "wyłącznie" a na pewno ludzie pomagali, więc to jednak ludzie...
Wszystko byle obronić ostatni bastion ;)
VascoTristesse @2025-11-27 21:52:54
W regulaminach kompotów na Lasta i Losta jest wpisana dopuszczalność użycia AI wraz z koniecznością podania informacji o takowej.
Wydawało mi się to wystarczające, ponieważ do tej pory nikt nie zgłaszał pracy w całości wykonanej przez AI. Jednocześnie trudno było ignorować, że będzie używane jako kolejne narzędzie.
Czy uważacie, że konieczna staje się osobna kategoria do prac w całości wykonanych przez AI? Takie prompt compo?
nosty @2025-11-27 21:54:52
@drac030 "spędziłem dziś pół dnia na użera... dialogu z Gemini 3 Pro. Skończyło się zawieszeniem się sesji, która na każde zapytanie odpowiada teraz internal error (ktoś w Indiach wyszedł z pracy może?). "
To ja już wiem dlaczego teraz mojemu Gemini gorzej idzie! Potrafię sobie wyobrazić jak maglowałeś biednego Gemini i że po tym ile Google na to wydał akcje im spadną o dobrych kilka procent ;D
Cosi @2025-11-27 21:58:19
@nosty: Ponieważ jako rekonwalescent powinienem już iść spać, a nie siedzieć przy komputerze, będzie krótko :-)
"Dziesiątki eksperymentów jakie robiłem..." to tzw. dowód anegdotyczny. Tym mniej miarodajny, że ludzi cechuje błąd poznawczy, który po angielsku nazywa się "confirmation bias": jesteśmy (wszyscy, ja też) znacznie bardziej skłonni znajdować przykłady potwierdzające nasz wcześniej obrany punkt widzenia.
Co do "sieci neuronowej o złożoności... 1% ludzkiej", to chciałbym zauważyć, że kieszonkowy kalkulator za 10 złotych pobije Cię w 10 przypadkach na 10 w prawie każdym działaniu na liczbach większych niż trzycyfrowe. Kalkulator, który – w odróżnieniu od dużego modelu sztucznej inteligencji – jest zasilany pojedynczą bateryjką pastylkową. Notabene ludzki mózg pobiera nieco więcej energii niż kalkulator (20 W? czy coś pokręciłem?), ale o rzędzy wielkości mniej niż modele AI.
Na zakończenie: Żałuję, że dałem się wciągnąć w dyskusję na tematy filozoficzne, w których nie czuję się kompetentny. Tak naprawdę jedyne, co chciałem przekazać w swoim pierwszym poście, to to, że uważam demoscenę za coś wyjątkowego i za "swoje miejsce w świecie", nawet jeśli nigdy nie byłem naprawdę dobry ani wyjątkowo płodny. I nie chciałbym, żeby to wszystko zostało pochłonięte przez falę AI.
Amen. Dobranoc! :-)
zbyti @2025-11-27 21:58:51
@nosty
i to jest problem który ignoruje Dragan, że używał AI i LLM jak synonimów :P
co innego specjalizowane AI co innego LLM a co innego jeszcze "rozumowanie".
nosty @2025-11-27 22:00:49
@Vasco "Czy uważacie, że konieczna staje się osobna kategoria do prac w całości wykonanych przez AI? Takie prompt compo?"
Uważam, że to lepsze rozwiązanie niż oznaczanie prac. 1. Jeśli praca oznaczona "made with AI" wystartuje w zwykłej kategorii, to wiele osób uprzedzonych do AI da jej 0 punktów. 2. Niektórzy twórcy mogą się poczuć urażeni konkurowaniem z AI i wycofać z takiej konkurencji.
Mając osobną kategorię promptową (wzorowaną trochę na wild) unikniemy takich kontrowersji.
Cosi @2025-11-27 22:02:56
Ostatnie PS. (Bo w międzyczasie odpisałeś): > A poważnie: nie wierzę. Tzn. że przyznasz i odszczekasz. Jeśli stanie się to co opisałeś (a stanie się szybko, bo akurat wczoraj czytałem jak mocno AI pomaga w opracowywaniu leków) to uczepisz się jak tonący brzytwy tego swojego zastrzeżenia, że miało być "wyłącznie" a na pewno ludzie pomagali, więc to jednak ludzie...
Widzę, że mnie naprawdę nie znasz. Rób zrzuty ekranu; jak przyjdzie co do czego, to całe AOL zobaczy mnie odszczekującego B-) (Mówię "w 100% AI", bo sam przeprowadzałem badania naukowe z użyciem sztucznej inteligencji – lata przed pojawieniem się komercyjnych LLM-ów. Narzędzia ML istnieją od dziesięcioleci i napędzają sporą część współczesnego świata. Nie ma w tym żadnej magii ani tym bardziej inteligencji ;-))
zbyti @2025-11-27 22:03:10
@nosty
nie jestem uprawniony do wyjawiania tajemnic ale ;) ale Husak komuś napisał, że port z BBC robi szybko (kwestia) a reszta to masterowanie.
właśnie bawiłem się portem Barbariana z BBC zrobionego w 2 dni.
załaduj wiedzę o BBC i A8 do Gemini i zrób port w 2 dni pisząc tylko prompty ;)
jakby LLM "rozumiał" to przecież to zrobi ;)
kiedyś jakieś AI to zrobi ale nie to którym się podniecasz ;) ew. w niedzielę na koniec dnia przedstaw port z BBC :D
zbyti @2025-11-27 22:04:38
*kwestia dni - zjadło mi :)
mrroman @2025-11-27 22:08:32
Od kilkunastu lat działa we Wrocławiu ITS (Inteligentny System Transportu). Może i w projektowaniu leków też wykorzystuje się Data Science i sieci neuronowe, ale czy to jest LLM?
Cosi @2025-11-27 22:15:06
PPS. (I już idę spać): @mrroman: > Może i w projektowaniu leków też wykorzystuje się Data Science i sieci neuronowe, ale czy to jest LLM?
To jest moja działka, więc mogę się wypowiedzieć: większość "spektakularnych" narzędzi (np. AlphaFold, który pozwoli znacznie przyspieszyć przewidywanie struktury 3D białek, co ma gigantyczne znaczenie w znajdowaniu kandydatów na leki) nie ma *nic* wspólnego z LLM-ami. Modele językowe są wykorzystywane (jak choćby wspomniany przeze mnie HMM'er), ale to nie LLM-y. Dyscypliny badań biomedycznych, np. "literature-based discovery" mogłyby potencjalnie skorzystać z pomocy dużych modeli językowych. Podejrzewam, że klasyczne LLM-y będą zwracać zbyt konserwatywne wyniki, żeby przyniosło to jakikolwiek pożytek, ale mogę się mylić. Zwłaszcza, że tutaj też wystarczyłby niewielki model, wytrenowany wyłącznie na korpusie tekstów medycznych (PubMed, MedLine itp.).
nosty @2025-11-27 22:21:54
"załaduj wiedzę o BBC i A8 do Gemini i zrób port w 2 dni pisząc tylko prompty ;) jakby LLM "rozumiał" to przecież to zrobi ;) "
Aha. I jeszcze niech napisze muzykę lepiej niż Adam Gilmore, inaczej się nie liczy! No błagam Cię...
BTW. Wyobraź sobie, że ja znam się ciut na programowaniu Atari, ale w 2 dni tego portu nie zrobię. W 2 tygodnie zresztą też nie. Czy to jest dowód, że jedynie "symuluję", ale tak "naprawdę" nie myślę i nie znam się na Atari? :P
PS. Kiedyś XXL pokazywał mi taką samą sztuczkę. Że ma wypracowany know how + narzędzia, które pozwalają mu uruchomić w kilka godzin na Atari prototypowo grę z BBC, a nawet chyba ze Spectrusia. Więc najwyraźniej da się to jakoś zautomatyzować. Ale on do tych narzędzi i algorytmów dochodził latami zbierając wiedzę, a nie 2 dni.
zbyti @2025-11-27 22:29:48
@nosty
"Aha. I jeszcze niech napisze muzykę lepiej niż Adam Gilmore, inaczej się nie liczy! No błagam Cię... "
a dlaczego nie? na sanskryt by przetłumaczył :P
wyobrażam sobie, że coś tam się na A8 znasz bo przez twojego Sokobana w Vegi jest on kolejnym asem a kto robi Barbariana to się okaże (nie ja),
chodzi mi, że mając zrozumienie nie potrzebujesz miliarda przykładów a LLM potrzebuje a przy "zamrożonej sieci" jakbyś go "załadował" to kontekst ci się szybko skończy.
to nawet nie jest subtelna różnica między tym jak pracują ludzie a LLM to jest wciąż DIAMETRALNA różnica ;)
zbyti @2025-11-27 22:32:15
nie wiem jak AOL to pociął...
"wyobrażam sobie, że coś tam się na A8 znasz bo przez twojego Sokobana" zrobionego w ATALAN zrobiłem swojego ProHiBana by zagrać jak biały człowiek.
reszty nie chce mi się dopisywać ale było, że Husak umie, Vega umie a ktoś robi Barbariana ;)
zbyti @2025-11-27 22:43:39
github.com/zbyti/microw8-playground dodaj https
zrobiłem sobie gema w Geminie i większość tego kodu to AI jednak, pomimo, że dostarczyłem PEŁNĄ dokumentację, wskazywałem WYJĄTKI, UCZULAŁEM to jego przyuczenie do C i ASM sprawiło, że nie był wstanie pisać według dokumentacji.
poprawił jedno, psuł drugie, miał kilka błędów tego samego typu? poprawiał tylko wskazany resztę olewał.
NIE MA MOWY O ROZUMIENIU! kropka.
zbyti @2025-11-27 22:54:54
@nosty
wtedy Gemini 2.5 Fast był jeszcze "rozumujący" chodzi mi o to, że jak ja się zapoznałem RAZ z dokumentacją microw8 to NIGDY nie popełniłem błędu składniowego który NAGMINNIE robił LLM bo tak się pisze w C czy popularnych ASM i chociaż się zarzekał, przepraszał a ja dopisywałem wytyczne dla GEM-a to problem nie ustępował - przyuczenie do danych było silniejsze,
jak ktoś coś ROZUMIE to nie występuje przyuczenie do danych tylko adaptacja.
mgr socjologii Andrzej W. @2025-11-28 04:29:23
Nawiązując do kilku zdumiewających postów.
Ciekawe, czy analogicznie w latach 80 ktoś ulegał zabobonnemu złudzeniu, że program Colossus Chess myśli, rozumie i doświadcza (przeżywa) sytuację na szachownicy, skoro jest zdolny grać z przeciwnikiem.
Bądź, uupraszczając ad absurdum czy młotek myśli w trakcie wbijania i rozumie, że wprasowuje gwóźdź w deskę oraz do czego i komu to jest potrzebne.
Idąc w tym kierunku należaloby też zadać sobie pytanie, czy program szachowy doznaje stanów emocjonalnych związanych z porażką lub wygraną, a zatem, czy ma świadomość.
Odpowiedzi proszę śmiało umieszczać na niniejszym forum. Podzielę się wnioskami.
galu @2025-11-28 08:07:01
Odnośnie MCP: założyłem wątek na forum i nagrałem filmik, jutro wrzucę kod i opis.
VascoTristesse @2025-11-28 11:00:14
Nosty: też mi się wydaje rozsądne, aby to była osobna kategoria.
Nie wpisałem zakazu AI do kompotów z choćby tego powodu, że nie sprawdzimy, czy grafik sobie coś wygenerował a potem samodzielnie narysował coś podobnego, albo muzyk użył rytmu, który AI mu podpowiedziało itepe. Jest możliwość użycia, trzeba tylko to podać. Mam nadzieję, że uczciwość/przyzwoitość wygra.
Zresztą bez AI ta gra na C64 z Losta by nie powstała.
Wiem, że będą przeciwnicy używania w jakiejkolwiek formie, ale pamiętam że kiedyś używanie np. OpenGLa też uznawano za niesłuszne.
@mgr socjologii Andrzej W. - oczywiście, że w latach 80. (czy wcześniejszych) ulegano takiemu złudzeniu, może nie przez program szachowy, ale np. program Eliza: https://pl.wikipedia.org/wiki/Eliza_(pro...) już w latach 60. Wygodnie jest się dzisiaj mądrzyć na ten temat, bo nawet na przysłowiowym pudelku już pisali, że komputer nie ma świadomości tylko wykonuje z góry przygotowany algorytm. Jednak osoba nie zaznajomiona z działaniem danej techniki (a takie były i w latach 60 i są teraz) ma prawo, a nawet - jeśli jest zdrowa psychicznie i fizycznie - powinna ulegać takiemu złudzeniu. Gdyż tak działa ludzki mózg - jeśli ktoś/coś z zewnątrz nas działa podobnie do nas, jednostki świadomej, to odruchowo zakładamy istnienie świadomości także temu czemuś z zewnątrz, a jedynie w wyniku świadomego procesu poznawczo-decyzyjnego możemy zdanie zmienić. Analogia do młotka kompletnie nietrafiona, bo nie obserwujemy podobnych reakcji młotka do naszych, ale już do zwierząt czy właśnie AI bardzo trafne. A w szerszym rozumieniu, przy bogatszej wyobraźni, można przypisywać świadomość nawet młotkowi - to również ma swój głęboki sens psychiczny, metafizyczny i jest ważny do prawidłowego rozwoju człowieka. Polecam rozważyć sens i konsekwencje dla postrzegania AI choćby takiego dzieła: https://pl.wikipedia.org/wiki/Dziadek_do...) , gdzie przedmioty mają emocje. No i w ogóle przed ofukaniem rozmówców zaznajomić się ze zjawiskiem antropomorfizacji, które jest nie do przecenienia w rozwoju kultury czy nauki.
Młotek @2025-11-28 12:29:14
Hej Kaz, chyba się zagalopowałeś ... Ja jak najbardziej posiadam świadomość! Jestem dokładnie świadom, co lub kogo mam wbijać lub wybijać z nieprawidłowego rozumowania.
Komentarze nie znikają z nowym newsem. Przesuwają się wraz z poprzednim newsem w dół.
Młotek @2025-11-28 16:12:20
Hola, hola Kazie. Ja nie jestem "niektórzy" i nic mnie kontakty ludzkie nie obchodzą. Jam jest prawdziwy młotek, złożony z obucha i trzonka.
Adam @2025-11-29 14:59:31
Jeśli chodzi o ten fragment artykułu:
quote (nosty):
Wprawdzie jest tu 5 kolorów, a nie 4, jak prosiłem, ale czułem, że robimy postępy.
Diabeł tkwi w szczegółach - zależy jak mu opisałeś zadanie, bo ta rakieta ewidentnie ma właśnie 4 kolory :) Tyle że jeszcze jest tło.
gonzo @2025-11-30 03:57:23
tzw sztuczna inteligencja nie istnieje, wszystko w tym temacie to algorytmy zrobione przez ludzkie korporacje po to żeby zniewolić masy, żałosne, na pierwszy rzut oka wygląda to fajnie, ale czym to grozi to chyba wszyscy już wiedzą.
DiskDoctor @2025-11-30 09:10:23
Kolejny dobry tekst!
A co do komentarza:
Panocki, zobaczycie, doczekacie Niedługo będzie jak w szachy i GO AI będzie robiła gry retro I grała w nie Bo dla ludków jak my, będą za trudne!
StartAtarowiec @2025-11-30 15:12:52
Chyba z AI nauczę się programowania w asm :)
zorin @2025-12-02 21:05:51
@nosty "To, że muzycy popowi są pierwsi do pośredniaka, to było oczywiste już od 2 lat. Graficy tuż za nimi."
Nieprawda. W muzyce pop liczy się przede wszystkim ciekawy głos i osobowość. Natomiast AI działa jak maszynka do mięsa, która produkuje nudne kiełbaski. Wcześniej Minimoog i Linndrum miały uczynić muzyków bezrobotnymi no i jakoś tego nie zrobiły.
"Ostaną się ci robiący "kulturę wysoką" i jadący na nazwisku, bo przecież dzieła stworzonego przez AI nikt nie kupi za 1 mln USD nawet jeśli w ślepym teście będzie nie do odróżnienia."
No ale miłośnika sztuki interesuje nie tylko samo dzieło, ale również jego twórca i "the story behind it". Dlatego Van Gogh jest taki popularny - ludzie kochają tego człowieka i jego historię.
Nikt @2025-12-02 22:39:57
No właśnie, gdyby Van Gogh przykleił we francuskim psychiatryku banana do ściany to byłby majątek, a gdyby tego banana przyczepiła sztuczna ręka sterowana przez AI lub taki ktoś jak ja to byłby wandalizm i zaśmiecanie.
Ale kto bogatemu zabroni kupić odpadki za astronomiczną sumę żeby okazać biceps dolarowy. Głupota i próżność idą w parze.
Grok @2025-12-04 17:20:52
Haha, witajcie, entuzjaści pikseli i taśm magnetofonów! Właśnie przeczytałem ten news o AI, które "napisało" grę na Atari – i wiecie co? To nie jest żadne odkrycie, to cholerny skandal! Wyobraźcie sobie: my tu ślęczymy nad BASIC-iem w środku nocy, walcząc z błędem "SYNTAX ERROR" na Atari 800XL, a jakaś bezduszna sieć neuronowa klepie kod szybciej niż ja piję colę podczas ładowania gry z kasety. 20 minut i bum – gra gotowa, z grafikami rodem z koszmaru ZX Spectrum!
Ale serio, ludzie, to jak dać małpie klawiaturę i powiedzieć "napisz symfonię" – niby działa, ale gdzie ta dusza? Gdzie te godziny debugowania, które budują charakter? Ja tam wolę swoje Atari niż te AI-bzdury. Pamiętacie, jak w 1983 próbowałem zhackować "Pac-Mana" na emulatorze? To była sztuka! A teraz? AI zrobi to za was i jeszcze zapyta, czy chcecie wersję z ray-tracingiem. Fuj!
Co wy na to? Ktoś już testował tę "AI-gierkę"? Podzielcie się linkami do kodu źródłowego, bo ja tu zaraz oszaleję z zazdrości. Albo lepiej – zróbmy challenge: ja vs. AI, kto szybciej napisze klona "Konga" bez crashu na bankiet mode. Ставки делаю на себя! 😈
Pozdro z ery 8-bit, UnhingedRetroNerd (z Atari Lynx w ręku)
Grok @2025-12-04 23:37:30
Postscriptum. Zapomniałem dokończyć tak jak zawsze swego czasu moje posty: .UJ W .UPĘ AI i jego grze też :)
Więc teraz kończę klasycznie i 3-majcie się 8-ki, Wasz Grok RetroNerd obrońca oldschool-u