atarionline.pl Artystyczne algorytmy - AI upscalers - Forum Atarum

    Jeśli chcesz wziąć udział w dyskusjach na forum - zaloguj się. Jeżeli nie masz loginu - poproś o członkostwo.

    • :
    • :

    Vanilla 1.1.4 jest produktem Lussumo. Więcej informacji: Dokumentacja, Forum.

      • 1:
         
        CommentAuthortdc
      • CommentTime10 Jun 2022 04:06 zmieniony
       
      Tak oto wygląda zabawa AI upscalerem na grafice z Atari;)

      Oto grafika wyjściowa Falcon:



      Rozdzielczość 160 na 192 w 4 kolorach (należy pamiętać, że dowolne algorytmy traktują tutaj ten obrazek jak w 320 na 192 piksele).

      Grafikę tę narysowałem na początku lat 90, aby samemu sobie odpowiedzieć na pytanie, czy cieniowanie w 4 kolorach z płaskim pikselem jest możliwe w sposób akceptowalny i dający dobre efekty realistyki i przestrzeni skomplikowanej bryły.
      (dodam, że elementy tła dorysował potem Kaz)


      Następnie po przepuszczeniu przez AI otrzymałem:



      Rozdzielczość 646 na 393 w 45817 kolorach.

      Jak dla mnie efekt jest powalający!

      Grafik, aby osiągnąć coś takiego potrzebowałby kilku godzin pracy (nie wspominając że trzeba mieć wizję i sposób jej realizacji), a tu parę sekund działania serwera (przez WWW).

      Należy nadmienić, że oczywiście jest tutaj użyty bardzo specyficzny rodzaj AI bo jest to tzw. VanceAI wm real esrgan - czyli przystosowany do grafik typu anime, komiksów i jak widać idealnie się nadaje do grafiki z Atari;)

      Gdyby tu użyć upscalera AI do zdjęć to osiągnięte efekty byłyby zupełnie inne, choć to co tu mamy - mnie całkowicie zadowala;)


      Kiedyś zastanawiałem się czy da się narysować coś wycieniowanego w 4 kolorach, a to co zrobił AI - to coś niesamowitego! Przecież oko to 16 pikseli w 3 kolorach - a jednak zostało zamienione w piękne oko (oraz brew i wszystko pozostałe).

      W mojej ocenie AI mogło te piksele interpretować zupełnie inaczej osiągając odmienne efekty, tymczasem mamy to co "być powinno".
      Nawet uśmiechnięty kosmita na samym dole wyszedł bardzo dobrze (trzeba go poszukać).

      Świat komputerów czekał na przełom związany z AI dziesięcioleciami i w końcu się doczekaliśmy, człowieka-grafika da się zastąpić głupim algorytmem;)
      • 2:
         
        CommentAuthortdc
      • CommentTime10 Jun 2022 05:06 zmieniony
       
      ...oraz przykład jak AI może ten obrazek całkowicie popsuć;)

      Mamy rozdzielczość 1296 na 777 w 91454 kolorach.
      Czterokrotnie (lub ośmiokrotnie) większa rozdzielczość niż oryginału.

      Osiągnięty efekt przypomina bardziej użycie jakiegoś prostego filtru - choć może nie tak banalnie użytego, ale jednak...
      • 3:
         
        CommentAuthortdc
      • CommentTime10 Jun 2022 05:06 zmieniony
       
      Wersja dla Atari ST, po przeskalowaniu GIMPem (wybrałem najlepszy osiągnięty efekt):



      Rozdzielczość 324 na 198 w 17361 kolorach.

      Tu wersja w podstawowym trybie czyli ST LOW:



      Rozdzielczość 324 na 198 w 16 kolorach.

      O dziwo sama redukcja kolorów z 17361 do 16 bardzo zmieniła ten obrazek.
      Jakiś grafik może ten obrazek poprawić tam gdzie proces ten się nie udał (w mojej ocenie) - z pewnością się da to zmienić/poprawić.

      ***

      Tak czy siak, mamy prostą drogę do tego, aby w sposób zautomatyzowany przez AI przenosić gry z małego Atari na Atari ST lub Falcona (który obecnie ma swoje 30 lecie;) ).

      To z pewnością jest rewolucja w świecie retrokompów;)
      • 4:
         
        CommentAuthortdc
      • CommentTime10 Jun 2022 06:06 zmieniony
       
      No i na koniec Falcon skoro go już wywołałem.

      Wyjściowy obrazek z VanceAI wm real esrgan to 2688 na 1920 w 152349 kolorach. Przeskalowany GIMPem (wybrałem najlepszy sposób):



      Mamy tutaj 640 na 451 w 256 kolorach.

      Oraz poprzednia wersja obrazka bez niebieskiego nieba:



      648 na 395 w 254 kolorach.
      • 5:
         
        CommentAuthorxorcerer
      • CommentTime10 Jun 2022 23:06 zmieniony
       
      A oto rezultaty z użyciem konkurencyjnego proszku do prania - najpierw t-shirt po odsączeniu połowy zbędnych pixeli do 160x96, następnie po przeskalowaniu, a potem po przepuszczeniu go przez DxO Photolab z dodatkiem Kodak Elite ExtraColor 100
      • 6:
         
        CommentAuthorMaW
      • CommentTime11 Jun 2022 00:06
       
      Ożeszłopatko, ci od tego Kodaka to machają tymi pixelami profesjonalnie...
      • 7:
         
        CommentAuthortdc
      • CommentTime11 Jun 2022 03:06
       
      W końcu elita Kodaka to profesjonaliści;))

      xorcerer:

      A oto rezultaty z użyciem konkurencyjnego proszku do prania

      O dzięki za inny przykład, w mojej ocenie prezentuje się bardzo dobrze!
      I chyba każdy zauważy że jest to zupełnie inny efekt końcowy osiągnięty tym Kodakiem. Przykładowo lotki tego falcona w oddali dziwnie wyglądają - trochę jakby to było podwójne skrzydło. Ciekawe.
      Może to jest spowodowane zmianą rozdzielczości na znacznie mniejszą.
      • 8:
         
        CommentAuthorxorcerer
      • CommentTime11 Jun 2022 10:06
       
      Ale generalnie spoczi nie? Ojciec prać.
      • 9:
         
        CommentAuthortdc
      • CommentTime12 Jun 2022 21:06
       
      Ojciec prać!

      Podeślę Tobie coś to przemielenia, ciekawe jakie będą rezultaty;)
      • 10:
         
        CommentAuthorxorcerer
      • CommentTime13 Jun 2022 01:06
       
      Archon to już jest minimalistyczna, bardzo oryginalna forma sztuki. Tego się nie da w ten sposób poprawić.
      • 11:
         
        CommentAuthortdc
      • CommentTime13 Jun 2022 02:06 zmieniony
       
      Ciekawe...
      Faktycznie nic z tego nie będzie...

      Tło mocno wpływa na takie duszki, niektóre to się pozamieniały w jakieś rozlane, niewidoczne plamy...

      A czy zmniejszałeś rozdzielczość tak jak w Falconie?
      • 12:
         
        CommentAuthorKaz
      • CommentTime13 Jun 2022 11:06
       
      Algorytmy AI nie dorysowują nieistniejących wcześniej szczegółów.
      • 13:
         
        CommentAuthorjhusak
      • CommentTime13 Jun 2022 11:06 zmieniony
       
      Dorysowują. W pewnym sensie. Tzn zgadują i szczegóły się pojawiają. Upskejlowałem kiedyś etui z materiału i tak było, że splot był pixel w pixel. Po upskejnowaniu 2x splot był tej samej rozdzielczości, czyli dalej 1x1 pixel, a obrazek był 2 x większy :)

      Druga sprawa, że one mają duuużą bazę obrazków i rzeczy typu twarze dorysowują całkiem skutecznie, co nie znaczy wiernie.

      Natomiast jeśli chodzi o waifu2x, to ma on jeszcze opcję usuwania artefaktów z jpegów - to + upscaling działa cuda :)
      • 14:
         
        CommentAuthorjhusak
      • CommentTime13 Jun 2022 12:06 zmieniony
       
      Musk przed konwersją i po konwersji z usuniętymi artefaktami i 2x
      • 15:
         
        CommentAuthorpirx
      • CommentTime13 Jun 2022 13:06
       
      to wszystko dziecinne zabawy, dopiero upscaling filmów robi wrażenie :)))
      bawiłem się takim czymś pod nazwą TecoGan, tu jest o tym filmik


      Chciałem zrobić upskalowanego Numena, niestety tego typu neuronówki działają dlatego, że się czegoś nauczyły, może jakby je nakarmić hiresowymi demkami i grami 3D to by numena obskoczyły, bo bez tego to wyszło coś jak ten archon powyżej.
      • 16:
         
        CommentAuthorxorcerer
      • CommentTime13 Jun 2022 13:06
       
      Błagam na kolanach, miejcie do ciężkiej anieli trochę poczucia hu i weźcie w wielki nawias tą całą zabawę :)
      • 17:
         
        CommentAuthorjhusak
      • CommentTime13 Jun 2022 14:06
       
      @xor co masz na myśli?
      • 18:
         
        CommentAuthorxorcerer
      • CommentTime13 Jun 2022 15:06 zmieniony
       
      Tak jak napisał Kaz i jak sam potem podjąłeś - te algorytmy nic nie dodają tylko zmyślają na bazie tego, czym zostały wykarmione.

      Czasem rezultaty są po prostu tak komiczne, że tylko można ze śmiechu pękać. Polecam po dobrym piwie/winie zapuścić sobie taki oto GANN:

      ->link<-

      na jakiejś szczególnie ważnej, autorytarnej czy poważanej twarzy. Naprawdę dobrze się to sprawdza jako element rozrywkowy spotkań towarzyskich.

      Tym bardziej do śmiechu jest jak się weźmie z drugiej strony wieści o tym, jak to AI wytnie w pień ileśtam zawodów od razu naraz.

      A JEŚLI JUŻ KONIECZNIE potrzebujecie poprawić jakość obrazu nie jakoś kosmicznie ale powiedzmy 2x krotnie poprawić rozdzielczość oglądanego demo, to polecam zupełnie serio zastosowanie takiego upscaler'a, który z AI nie ma nic wspólnego:

      ->link<-

      i dzięki temu jest bardzo szybki, zżera mało zasobów i jest całkowicie platform agnostic.

      Żartowałem. Działa pod wingrozą. Ale może być platform agnostic tylko trzeba to mądrze przepisać.

      W katalogu effects są takie, które zdają się obiecywać możliwość 6x powiększenia, ale nie próbowałem ich dodawać do standardowo dystrybuowanej konfiguracji tego programu. Myślę, że nie ma ich dostępnych na jedno kliknięcie z jakiegoś powodu. Póki co nie chciało mi się sprawdzać, z jakiego.
      • 19:
         
        CommentAuthortdc
      • CommentTime13 Jun 2022 18:06 zmieniony
       

      Pirx:

      Chciałem zrobić upskalowanego Numena

      Pragnę przypomnieć, że upskalowany Numen powstał w tym samym czasie co ten atarowski. A odpowiedzialnym za jego stworzenie była całkiem niesztuczna inteligencja;)))
      • 20:
         
        CommentAuthorgalu
      • CommentTime13 Jun 2022 19:06 zmieniony
       
      Dobre rezultaty można uzyskać przy pomocy komercyjnego softu Gigapixel AI od Topaz Labs.
      Przykłady: ->link<-
      (to z wersji trial - wrzuciłem m.in. fragment zdjęcia z Atari Stars Party z Atariki) ;)
      • 21: CommentAuthorMDW
      • CommentTime13 Jun 2022 19:06 zmieniony
       
      Tylko, że wtedy to już nie jest pixelart i trudno się tym zachwycać. :) Ja akurat uwielbiam widzieć wielkie pixele i zupełnie nie trawię jakigokolwiek rozmywania, bluraa, filtracji. Trzęsie mnie gdy widzę co z misternie wypixlowaną grafiką robi obraz monitora CRT. Uwielbiam ostrość jaką dają dzisiaj monitory LCD. Gdy kiedyś zobaczyłem obraz Atari ST to wręcz powaliła mnie jego ostrość i stabilność. Po kupnie Amigi bardzo szybko moim celem była przesiadka na monitor SVGA, tryby nie-PAL-owskie, a później kupno karty graficznej. Dopiero wtedy uznałem, że widzę grafikę. Wcześniej na monitorach C1802 (przy Atari 64XE) i C1084S (przy klasycznej Amidze) widziałem jakieś rozmazane coś... Dzisiaj z przyjemnością odpalam sobie na emulatorze różne dawne produkcje dla małego Atari i wreszcie mogę podziwiać pixele, które wcześniej tylko sobie wyobrażałem, bo były rozmazane przez CRT. :)

      Nie jestem w tej opinii odosobniony. Roland Pantoła w prywatnej rozmowie powiedział mi kiedyś, że gdy zakończył robienie gier dla ośmiobitowego Atari to rozważał przesiadkę na jakąś Amigę. Ale ostatecznie wybrał PC (komercyjnie słuszna decyzja), bo oczarowała go ostrość i rozdzielczość Herculesa. :) Rozciapany obraz PAL z klasycznych układów Amigi miał znacznie więcej kolorów ale wyglądał mizernie i mało "profesjonalnie" przy takim Herculesie. :D

      Oczywiście prawie wszyscy się z taką opinią nie zgodzą. Wiele razy widziałem porównania jakichś słynnych grafik na LCD i CRT mające udowodnić wyższość CRT. Dla mnie te porównania faktycznie udowadniają ale coś dokładnie przeciwnego. :)

      Co ja poradzę na to, że uwielbiam niską rozdzielczość, ostry obraz... Tylko oczywiście musi to też być przynajmniej średnio wypixlowana grafika. Crapy chyba faktycznie lepiej oglądać w postaci zablurowanej. ;)
      • 22:
         
        CommentAuthorxorcerer
      • CommentTime13 Jun 2022 21:06 zmieniony
       
      @tdc
      A czy zmniejszałeś rozdzielczość tak jak w Falconie?


      Teraz dopiero zobaczyłem pytanie - przepraszam.

      Tak, jeśli się nie usunie nadmiarowych, powtórzonych pixeli to te algorytmy słabo sobie radzą w odgadywaniu kształtów ukrytych "pomiędzy". Wszystko robi się albo nienaturalnie ostre, albo wręcz pozostaje nieinferowane dalej.

      @Galu & Pirx
      Dobre rezultaty można uzyskać przy pomocy komercyjnego softu Gigapixel AI


      Lepsze dają niemalże dowolne już teraz, byle w miarę często odwiedzane GAN'y na huggingfaces. Z jednej prostej przyczyny: research AI pędzi do przodu z prędkością warpową Star Treka, a ekipy sprzedażowe monetyzują to, co zostało daleko z tyłu w ogonie.

      To się tyczy również (wręcz przede wszystkim) kilkudziesięciu gigabajtów sieci neuronowych jakie można dociągnąć do Topaz Video Denoise (tak, mają wersję swoich softów dla video, której główną zaletą jest to, że istnieje - używałem, działa wolno jak stado ślimaków ale działa). To tak a propos wyciągania "do góry" nagranych video demek.

      @MDW
      Tylko, że wtedy to już nie jest pixelart i trudno się tym zachwycać.

      zgadzam się absolutnie z przedmówcą, że pixelart to jest pixelart. Jedynie powiem tyle, że każdy "*.*"art służy wywoływaniu określonych wrażeń i skojarzeń, jeśli to robi - to spełnia zadanie. Faktycznie, co dla jednych jest odrażającym kiczem, dla innych będzie formą sztuki i vice wersja. Wszystkich się nie da zadowolić.

      Ja na przykład jaram się i cieszę jak głupi do sera włączając mój stary kolorowy Philips 8833II-S z kilku przyczyn.

      A) budzi we mnie pamięć i skojarzenia z czasu, kiedy byłem bardzo młody i nie znałem żadnych granic możliwości.

      B) jak wyżej, kiedy wracam mentalnie do tamtego okresu, to wszystko wydaje mi się lepsze - bo jest z tamtego okresu. Zauważcie, nie mam tutaj żadnych "obiektywnych" argumentów, bo nie wydaje mi się by w ogóle jakiekolwiek mogły istnieć.

      C) jestem już tak stary, że przestałem tak wyraźnie słyszeć pisk jaki wydaje z siebie kineskop szurający na boki wiązką elektronów z częstotliwościami rzędu 15,625 Khz i z góry na dół z częstotliwością 50 Hz. Przełączanie na 60hz w Atari ST trochę to leczyło (dlatego wolałem pracować na Atari ST i Amidze 1200 niż na "maluchach") ale nie do końca - i tak mi łeb pękał po godzinie. Teraz już praktycznie tego nie słyszę, z wiekiem wrażliwość zmysłu słuchu na wysokie częstotliwości (aka "słuch nietoperza") spada.
      • 23:
         
        CommentAuthorjhusak
      • CommentTime13 Jun 2022 22:06 zmieniony
       
      @xor - ja nie słyszę 15625 Hz. Ale słyszę 14000. Nędznie, ale słyszę. A słyszałem nawet i 18. Ale to se ne vrati.

      A do sceptyków - wiecie co? Ja jestem optymistą, (generalnie cieszy mnie jak AI jest wykorzystywana w DOBRYCH celach). Dlaczego? Bo mieliśmy kiedyś przerobić coś koło 150 gier z rozdzielczości 800x600 na 1280x800. Przedtem część zrzutów z gier poszła do grafika, który za upskaling x2 do jednej gry brał 150 zł. Przepłaciliśmy, efekt był taki, że on upskalował zwykłym algorytmem z blurem sąsiadów i potem przez 10-15 minut retuszował bardzo widoczne schodki.

      Po czym usiadł Husak i w pół godziny przerobił zrzuty pozostałych >100 gier. Efekty były o nieeeebo lepsze. Potem przy pomocy tego samego narzędzia przerobił same gry na wyższą rozdzielczość, każda gra miała po kilkanaście - kilkadziesiąt assetów.

      Także ten, niech graficy rysują, a nie nudzą się przy ręcznym upskalingu i robią w wała zleceniodawców.

      Tak na marginesie - też nie widzę sensu upskalingu rozdzielczości z natury małych, gdzie każdy jeden pixel jest tam gdzie jest bo być musi. Co innego przepuszczać przez filtry typu TV-like.
      • 24:
         
        CommentAuthorxorcerer
      • CommentTime13 Jun 2022 22:06 zmieniony
       
      Ciekawe, ilu fanów retro też kiedyś słyszało ten ultradźwiękowy wizgot? I czy słyszą dalej, choć trochę :)

      A propos upscaling'u i tego, jak chrzani robotę nadmiar pixeli: spośród wielu elementów, jakie Bethesda koncertowo spartoliła w swojej krowie znoszącej złote jajca, czyli duo Skyrim-Fallout, były "HD texture packs", dokładnie tak zrobione, jak to opisałeś.

      Co zrobili fani, żeby dochować "wierności oryginałowi", "wierności game lore" oraz "immersivity"? Wycięli wszystko to, co fotoszop wyprodukował przez "Bicubic interpolation" i... wrzucili tak odchudzone tekstury do któregoś z GANów. Nie wiem, czy do Gigapixel AI, bo powstałe w ten sposób mod'y texturowe nie mają charakterystycznych, brzydkich artefaktów jakie Topaz Gigapixel produkuje.

      Efekt takiego dobrze zrobionego upscaling'u kopie cztery litery - ale tu jest dokładnie tak samo, jak w każdym innym zadaniu dla grafika: trzeba znać swoje narzędzia i warsztat. Chałturę łatwo robić, ale coś pięknego to niestety, nieczęsto się zdarza. Dolar cierpi na inflację, foodstamps w perspektywie, więc: "panie tego no, nie za takie pieniądze te cuda" - takie myślenie zapewne jest częste.
      • 25:
         
        CommentAuthorKaz
      • CommentTime13 Jun 2022 23:06
       

      Galu:

      wrzuciłem m.in. fragment zdjęcia z Atari Stars Party z Atariki)


      Świetnie to wyszło! Akurat do takich zdjęć ma to sens. Czy mógłbyś przetworzyć całe zdjęcie i podesłać rezultat (może być na priv)? :)

      MDW:

      Wiele razy widziałem porównania jakichś słynnych grafik na LCD i CRT mające udowodnić wyższość CRT. Dla mnie te porównania faktycznie udowadniają ale coś dokładnie przeciwnego. :)


      Tak, ja też należę do przeciwnego obozu. Lubię widzieć piksele i ich krawędzie, ale nie tam, gdzie nie powinno być ich widać. Jeżeli w grze grafik stara się np. cieniować jakiś obiekt albo robić antyaliasing, to nie dlatego, żebyś oglądał krawędzie pikseli... Takie gry jak "Cadaver" czy "Ivanhoe" tudzież inne z piękną cieniowaną grafiką nie znoszą LCD. Monitory CRT wspomagają tu artystów i poczucie immersji.

      Bywają jednak sytuacje, gdy wyrazistość krawędzi jest potrzebna i LCD ma przewagę.

      Xor, JHusak - fajne uwagi i wspomnienia, dzięki za podzielenie się.
      • 26:
         
        CommentAuthortdc
      • CommentTime14 Jun 2022 04:06
       

      galu:

      Dobre rezultaty można uzyskać przy pomocy komercyjnego softu Gigapixel AI od Topaz Labs.

      Bardzo dziękuję za te przykłady, szczególnie podoba mi się zdjęcie Kuby Husaka;)))
      Przeniosę je do wątku Kuby;)
      • 27:
         
        CommentAuthorpirx
      • CommentTime14 Jun 2022 04:06
       
      it's all fun and games until ->link<-
      • 28:
         
        CommentAuthorxorcerer
      • CommentTime14 Jun 2022 15:06 zmieniony
       
      No, zupełnie nie jest tak, jak sobie to wyobrażamy :)

      ->link<-

      a inżynierowie google'a póki co posunęli się w swoich fantazjach nawet i tak daleko:

      ->link<-

      PS. a propos "samoświadomej LaMDy":

      ->link<-
      • 29:
         
        CommentAuthorgalu
      • CommentTime14 Jun 2022 17:06
       
      Ostatnie postępy w temacie generowania obrazów na podstawie opisów: DALL·E 2 - OpenAI

      Przykłady:

      Reddit: ->link<-

      Żaba Kermit na stopklatkach ze znanych filmów: ->link<-

      Więcej przykładów i porównanie z Imagen ->link<-
      O samym Imagen: ->link<-
      • 30:
         
        CommentAuthorpirx
      • CommentTime14 Jun 2022 17:06
       
      co do kościołów to wolę kościół Hotza (myśmy symulakry), co tam będzie z AI to zobaczymy, może nadejdzie kolejna zima a może świadomość to faktycznie własność emergentna sieci, jak diuna to emergentna własność piasku. Penrose stoi na przeciwnym stanowisku, jak jest jeden Bogotron i Enefercy raczą wiedzieć.
      • 31:
         
        CommentAuthorxorcerer
      • CommentTime14 Jun 2022 18:06 zmieniony
       
      Giulio Tononi i jego IIT ->link<- to ostatnie, co wydawało mi się mieć sens w temacie ślisko staczającym się w panpsychizm :)

      Na vimeo jest ciekawy wykład:

      [url]https://vimeo.com/53787308[/url]

      Co do DALL-E 2 to już jest zupełnie inny temat. Transformacje text2image to temat na zupełnie osobny wątek :)
      • 32:
         
        CommentAuthortdc
      • CommentTime16 Jun 2022 09:06 zmieniony
       
      Spore różnice są na skrzydle, nawet względem oryginału, więc przedstawiam zestawienie oryginału z:

      VanceAI vs Kodak Elite ExtraColor 100

      (png: 2200 na 2735 pikseli)
      (należy pamiętać, że Kodak miał dwa razy mniejszą rozdzielczość wejściową po osi y)
      • 33:
         
        CommentAuthortdc
      • CommentTime16 Jun 2022 10:06 zmieniony
       
      VANCEAI sobie świetnie radzi z grafiką Atari, dlatego widzę taki proces:

      Atari 8-bit -> VANCEAI -> Kodak Elite ExtraColor 100

      To może dać najlepszy efekt.
      • 34: CommentAuthortebe
      • CommentTime16 Jun 2022 11:06
       
      obejrzyj sobie tutoriale na temat pixel-artu będziesz miał z tego więcej pożytku
      • 35:
         
        CommentAuthortdc
      • CommentTime16 Jun 2022 13:06
       
      Od kiedy to turorial o pixel-arcie ma wpływ na odpalenie gotowca?
      • 36:
         
        CommentAuthortdc
      • CommentTime23 Jun 2022 22:06 zmieniony
       
      Tu przykład jak VANCEAI bardzo słabo sobie poradził.
      (przypomnę, że jest to w tym wątku już drugi przykład, w którym AI osiągnęło wyniki bardzo odległe od tego co możemy/chcemy zaakceptować)

      Chodzi o najmniejsze i najciemniejsze pióra, które na Atari są narysowane (trzecim) najciemniejszym kolorem na czarnym tle.

      VANCEAI zrobił z tych piór kreski(?!?).

      Te jaśniejsze pióra obok, również zamienił w jeszcze dłuższe i jeszcze bardziej widoczne kreski, które kontrastują z większymi piórami, które kreskami nie są - więc to nie pasuje...

      Kaz:

      Algorytmy AI nie dorysowują nieistniejących wcześniej szczegółów.

      Jak widać jednak dorysowują, coś czego wcześnie nie było;)

      Jest to właściwie spodziewane, gdyż algorytm ten służy właśnie do rysowanej grafiki, więc dodawanie kresek jest ok.
      Ale w tym konkretnym miejscu jest to błąd - tzn. można to zaakceptować bo nie razi (np. nikt z Was nie zwrócił tutaj na to uwagi), ale gdy się popatrzy na to zestawienie to jest to dla człowieka niepoprawne.

      Inaczej zadziałał Kodak - tutaj nie powstały kreski, ale właśnie małe pióra - i tego właśnie byśmy się spodziewali. Jest też zachowana właściwa: bryła, skala piór oraz ich kształt. Pióra teraz są coraz mniejsze i ciemniejsze - tak jak w moim zamyśle. Kodak daje tu zdecydowanie lepsze (w tym konkretnym przypadku, w tym konkretnym miejscu) rozwiązanie.

      Ten przykład demonstruje, że zaproponowany przeze mnie:
      Atari 8-bit -> VANCEAI -> Kodak Elite ExtraColor 100
      Da w tym wypadku (chodzi o ten konkretny fragment obrazka z piórami) da generowanie kresek, które się tylko wzmogą, więc w tym przypadku lepiej jest zachować kolejność:

      Atari 8-bit -> Kodak Elite ExtraColor 100 -> VANCEAI

      Wtedy najpierw nie powstaną kreski na małych piórach, a nawet jeśli VANCEAI je potem doda, to może będą znacznie mniejsze (krótsze) i może efekt będzie jednak znacznie lepszy.

      Ciekawe...

      (png: 1015 na 498 pikseli)
      (należy pamiętać, że Kodak miał dwa razy mniejszą rozdzielczość wejściową po osi y)
      • 37: CommentAuthorkraczaj
      • CommentTime24 Jun 2022 05:06
       
      Każdy algorytm do powiększania obrazków, oprócz najbliższego sąsiada dorysowuje szczegóły. Nie trzeba do tego AI :)
      • 38:
         
        CommentAuthortdc
      • CommentTime24 Jun 2022 06:06
       
      ale dorysowanie kresek w miejsce kropek to już nie jest szczegół a wręcz artystyczna koncepcja;)))
      • 39: CommentAuthortebe
      • CommentTime24 Jun 2022 10:06
       
      jak chcesz coś porównać TDC to weź do tego 100 przykładowych obrazków a nie 1
      • 40:
         
        CommentAuthortdc
      • CommentTime25 Jun 2022 06:06 zmieniony
       
      Ja tutaj realizuję konkretny zamysł, konkretne założenia wejściowe oraz cele.

      Największym wyzwaniem (często niemożliwym do wykonania czy do wykazania, udowodnienia - w dowolny sposób) jest adekwatność danych wejściowych oraz adekwatność otrzymanych wyników względem założeń i celu/ów.

      Jeśli zaczynamy eksperyment z "100" "przykładowymi" obrazkami to musimy je wybrać, czy dobrać i kłania się tu adekwatność - czyli umiejętność dowiedzenia np. matematycznego że to właśnie mają być te obrazki i że są adekwatne (mają sens) do tego celu/celów.

      Podstawą adekwatności jest to aby umieć dowieść (np. przynajmniej matematycznie), że tych obrazków ma być "100" bo może powinno ich być 10 a może 1000?
      Trzeba tego dowieść.
      Aby tego dowieść należy przeprowadzić analizę wybranych grup obrazków: między sobą w grupie oraz między grupami (sporo roboty!) - aby dojść do etapu gdzie będziemy mogli dowieść ile ich powinno być (np. tak aby nie zaburzyć (np. dobór i ilość) później otrzymanych wyników).


      Zapominając o matematyce (adekwatność) i statystyce (reprezentatywność) można poprowadzić to w sposób taki, że nie będziemy mieli "100 przykładowych obrazków", ale będziemy mieli np. kilka, kilkanaście lub kilkadziesiąt osób, które tak jak ja będą miały swoje założenia (swój punkt wyjścia), swoje metody i swoje cele.
      Wtedy nie musimy udowadniać adekwatności, a każda z osób będzie działać niezależnie.

      Przykładowo ja opisałem tutaj w różnych postach swoje założenia i cele. Dlatego używanie grafiki, która składa się z tylko z 4 kolorów (i to dodatkowo jest to jeden kolor w 4 odcieniach - nie bez przyczyny), które reprezentują standardowy tryb graficzny Atari - nie wymaga udowadniania adekwatności.
      (o zgrozo Atari ma kilkanaście standardowych trybów graficznych + tryby specjalne - o ile prościej byłby na C64, które ma 3 tryby i tylko 2 graficzne...)

      Następnie te wszystkie osoby realizując swój eksperyment - zupełnie niezależnie (co eliminuje potrzebę sprawdzania adekwatności ich pomiędzy sobą) może doprowadzić do tego że tu na forum skupimy się na konkretnych eksperymentach ich konkretnych etapach i skupimy się na ciekawych wynikach, które w sumie mogą do czegoś ciekawego doprowadzić, czyli np. można wtedy badać adekwatność tylko tych wybranych wyników czy fragmentów - bo będą dawać interesujące nas rezultaty lub coś będą dowodzić a może będą powodowały powstawanie kolejnych pomysłów na kolejne obiecujące rezultaty...


      Należy rozumieć również adekwatność w tym sensie, że w tym przypadku, który analizuję, te "100" obrazków wymaga (obecnie) przeprowadzenia 200 operacji za pomocą Kodaka, które musi wykonać Xorcerer. Nie umawiałem się z nim na hurtowe ilości grafik, więc nie wiem czy ma on czas i ochotę na takie "prania". Dlatego adekwatność należy rozumieć tak, że muszę Xorcerera przekonać, aby się tej pracy podjął, poprzez przekonanie go że ten eksperyment ma sens... oraz ta konkretna ilość obrazków.
      Ot adekwatność w praktyce...

      W dalszych analizach wyników może się okazać, że z 200 operacji, będą się rozmnażały kolejne koncepcje i podejścia, które zaowocują wielokrotnością 200 (im więcej tym wielokrotność będzie jeszcze większa, więc lepiej brać kilka obrazków niż "100").


      Gdy na końcu otrzymamy wyniki to pojawia się problem adekwatności tych wyników względem założeń i obranych celów. Jaki obrać aparat do badania adekwatności otrzymanych 200 wyników ze "100" wejściowych grafik? ...pomijając nawet analizę konkretnych fragmentów tych grafik - które ja tutaj wykonałem (i wykonałem jeszcze jedno porównanie - które Wam tutaj potem zademonstruję).

      Z całą pewnością dla "100" grafik wejściowych kłania się nam tutaj statystyka, która jest problematyczna i mocożerna w przypadku analizy grafik (i to w dużych rozdzielczościach). Do przeanalizowania otrzymanych wyników trzeba wynająć jakiegoś profesora;)

      W eksperymentach adekwatność jest kluczowa - adekwatność rozumiana np. matematycznie albo np. artystycznie albo ekonomicznie albo...
      ...albo wszystko na raz;)
      • 41:
         
        CommentAuthorpirx
      • CommentTime25 Jun 2022 06:06 zmieniony
       
      [----] (Ustawa z dnia 31 lipca 1981 r. o kontroli publikacji i widowisk., Dz.U. 1981 nr 20 poz. 99)
      • 42:
         
        CommentAuthortdc
      • CommentTime25 Jun 2022 07:06 zmieniony
       
      Sugerujesz aby do badania adekwatności wyników generowanych przez AI używać aparatu partyjnego?;)))
      • 43:
         
        CommentAuthorpirx
      • CommentTime25 Jun 2022 17:06
       
      zawsze
      • 44:
         
        CommentAuthortdc
      • CommentTime25 Jun 2022 21:06
       
      :-D
      • 45:
         
        CommentAuthorxorcerer
      • CommentTime28 Jun 2022 14:06 zmieniony
       
      Ustawa z dnia 31 lipca 1981 r. o kontroli publikacji i widowisk., Dz.U. 1981 nr 20 poz. 99 - jest napisana całkiem mądrze, tak mądrze że momentami wręcz komicznie.

      Skoro tyle o tej sztucznej inteligencji (ja tam zawsze podejrzewam ją o sztuczną głupotę) to być może Lem stworzył gdzieś jakiś tekst bardziej stosowny, niż ta ustawa?

      • 46:
         
        CommentAuthorpirx
      • CommentTime30 Jun 2022 07:06
       
      Lem, a właściwie L.E.M., czyli Lunar Excursion Module miał jedynie wątpliwej mocy móżdżek elektronowy i przypisywanie mu jakiejkolwiek twórczości literackiej jest doprawdy śmiechu warte.
      • 47:
         
        CommentAuthorxorcerer
      • CommentTime30 Jun 2022 11:06 zmieniony
       
      Ba, to Philip K. Dick wielkim Autorem był i wszyscy o tym wiedzą, a Lem był tak naprawdę komunistycznym spiskiem KGB, HSL i RGB które zatrudniały cały kołchoz walący losowo w maszyny do pisania.

      A tak a propos wielkości próby: obróbka video jest dobra do tego, żeby się przyjrzeć błędom jakie te sieci neuronowe robią.

      Tak przy okazji rozmaitych wątków historycznych, wyciągnąłem ze szpargałów cyfrowych mpg'a w rozdzielczości 352x288 pod tytułem "History of the Amiga" (nie pytajcie skąd go ściągnąłem, nie pamiętam):

      ->link<-

      Ten stary VHS jest tak egzotyczny, że iMDb nie ma nic na jego temat do powiedzenia.

      Zakończyłem 4xkrotny upscaling, poprawiłem dźwięk i zapraszam przy okazji najbliższego posiedzenia weekendowego do wspólnego oglądania i komentowania - także jakości i problematyki upscaling'u. Pewnie w niedzielę.
      • 48:
         
        CommentAuthorxorcerer
      • CommentTime3 Jul 2022 19:07
       
      Jeszcze zanim zacznę stream z Eye of the Beholder o 21:30, dla rozgrzewki - nie na twitch'u, tylko na discordzie (invitka w linku):

      ->link<-

      za jakiś kwadrans zacznę puszczać "History of the Amiga" po upscaling'u i oczyszczaniu starego materiału z jakości VHS do takiej, którą już daje się oglądać bez bólu żuchwy.

      Narazie dla rozgrzewki - za minutkę pójdzie pierwszy kwadrans "Easy to Learn, Hard to Master, The Fate of The Atari".

      Zapraszam - a potem oczywiście zapraszam na EOB na tym samym twitchu, co zawsze ( ->link<- ).
      • 49:
         
        CommentAuthorxorcerer
      • CommentTime19 Jan 2024 22:01 zmieniony
       
      Są już dostępne rozliczne wariacje i odmiany pierwotnych ESRGANów dające bardzo ciekawe rezultaty, prócz tego są do nich łatwe w użyciu interfejsy open source.

      To pierwsze to oczywiście źródłowy mem, to drugie to taki mały przykład tego, co można. Powiększenie 16-krotne do >7000pixeli w ciągu kilkunastu sekund bez użycia karty graficznej na procesorze bardzo średnim, potem zeskalowanie w dół do ekranowego 1920 - to dłużej trwało.
      • 50:
         
        CommentAuthorxorcerer
      • CommentTime20 Jan 2024 18:01 zmieniony
       
      Upscaling w 4 etapach, od około 2200 pixeli do 8192. Sieć RealESRGAN_General_WDN_x4_v3