atarionline.pl Czy androidy liczą elektryczne owce, albo czy GAN może wymyślić twarz? - Forum Atarum

    Jeśli chcesz wziąć udział w dyskusjach na forum - zaloguj się. Jeżeli nie masz loginu - poproś o członkostwo.

    • :
    • :

    Vanilla 1.1.4 jest produktem Lussumo. Więcej informacji: Dokumentacja, Forum.

      • 1:
         
        CommentAuthorjhusak
      • CommentTime26 Apr 2023 12:04 zmieniony
       
      Co do m. in. cech emergentnych (kojarzy się z emergency, a to źle) znowu pojawia się kolejna nowomowa - ludzie nie mający pojęcia o językoznawstwie tworzą nowe pojęcia. Biorą coś z Łaciny, nie zważając, że dany wyraz czy określenie już jest i ma konkretne znaczenie/uchwyt w innej dziedzinie. Prosta droga do kolejnej wieży Babel.
      • 2:
         
        CommentAuthorxorcerer
      • CommentTime28 Apr 2023 08:04 zmieniony
       
      Dla odmiany proponuję przełączyć skrzynię biegów na "praktykę" i tak w przygotowaniu do niedzielnego streamingu o 18tej zapraszam do obejrzenia video zdradzającego wielki sekret poliszynela: rewelacyjna karta graficzna zalewa obecnie ebay w USA i poniżej 100 dolarów (nawet za 75 usd) można kupić Radeon Instinct MI25 który wystarcza z nawiązką wielokrotnie do pracy ze stable-diffusion.

      Anglojęzycznie wypowiada się na ten temat genialny Wendell z level1techs:


      ...także tak na chwilę odwieszając na kołek czekanie na AGIodota zapraszam do ścierania się z materią z demobilu, do recyklingu retro sprzętu z okolicznych serwerowni i ratowania go przed staniem się elektrośmieciami. W niedzielę co prawda nie będę demonstrował MI25 bo nie mam póki co (ale myślę nad tym), ale będę pokazywał najbliższą mu kartę z tych dla szarych konsumentów. Mogła być uratowana z koparki kryptowalutowej (czego nie ma jak się dowiedzieć) ale jest w pełni sprawna, stabilna i zacna w zupełności, by ją ratować przed lądowaniem w koszu pomimo latek jakie upłynęły od momentów chwały.
      • 3:
         
        CommentAuthorxorcerer
      • CommentTime30 Apr 2023 17:04
       
      Właśnie dzwoniłem do Ciebie Kaz żeby przeprosić i poprosić o przesunięcie na inny weekend. Mam techniczne problemy których wyprostowanie zabierze mi jeszcze dużo czasu.
      • 4:
         
        CommentAuthorKaz
      • CommentTime30 Apr 2023 17:04
       
      Dobrze, nie ma problemu, przesuwamy!
      • 5:
         
        CommentAuthorxorcerer
      • CommentTime10 May 2023 13:05 zmieniony
       
      W temacie tworzenia sieci, których działanie daje się wytłumaczyć - oto artykuł na temat wykorzystywania sieci o więcej niż jedną generację bardziej zaawansowanej, do "wytłumaczenia" tzn prześledzenia i wskazania całego toku "rozumowania", a raczej ciągu odpalanych "neuronów" i powiązanych z nimi tokenów w prymitywniejszej, poprzedniej wersji tej samej sieci:

      ->link<-

      To trochę nawiązuje do wypowiedzi Leszka Bukowskiego, który ten temat zbył jednym zdaniem: "Sieci takie jak ChatGPT-3, ChatGPT-4 czy LaMDA są teraz przedmiotem intensywnych badań naukowych, bo nie rozumiemy, dlaczego potrafią robić to, co robią." i dalej już tematu eksplikowalności nie ciągnął, bo nie było dotąd na ten temat wiele badań, raczej teoretyczne rozważania.

      openAI opublikowało "neuron explainer":
      ->link<-

      co jest wbrew pozorom niesamowicie ważnym postępem. Dlaczego? Wcześniej trąbiłem o tym, jak zaniedbany i wrzucony pod dywan jest problem etyki AI, który z eksplikowalnością jest ściśle powiązany. Zważywszy na to, że potrzeba było GPT-4 żeby stworzyć taką eksplikację dla ... GPT-2 zaledwie, teraz widać, jak bardzo złożone jest całe zagadnienie.

      ps. A tutaj bardzo ciepłe wystąpienie Imrana Chaudhri, który pracował 22 lata w Apple:



      pod tytułem "The Disappearing Computer: An Exclusive Preview of Humane’s Screenless Tech", na temat wykorzystania AI które faktycznie poprawi komfort życia, a nie będzie zagrożeniem.
      • 6:
         
        CommentAuthorlaoo
      • CommentTime10 May 2023 14:05
       
      A to już ciekawe, żeby tłumaczyć tok rozumowania. Mam nadzieję, że to będzie możliwe i nie dojdziemy do ściany takiej, jak analogicznie próba tłumaczenia szympansom, że wieżowce, to nie są po prostu góry, tylko konstrukcje wykonane przez człowieka o konkretnej funkcji.
      • 7:
         
        CommentAuthorxorcerer
      • CommentTime10 May 2023 18:05 zmieniony
       
      Stawka idzie o to, czy tok wnioskowania asystenta AI, diagnozującego pacjenta i wyznaczającego tryb leczenia, można poddać szczegółowej analizie, weryfikacji i korekcie zanim to będzie kosztować życie. Przykładów tego typu problemów, których bez eksplikowalności nie da się ruszyć (a pominięcie tego etapu byłoby łamaniem podstawowych zasad etyki) jest wiele.

      ps. kolejna ciekawa pogaducha - Dawid Kielak:
      • 8:
         
        CommentAuthorxorcerer
      • CommentTime19 May 2023 15:05
       
      Wreszcie: bot który zamiast konfabulować jak pięciolatek odpowiada na pytania z sensem:
      is whisper a good voice recognizer for home use? are there better ones?

      Whisper is a good voice recognizer for home use. It is accurate and reliable, and it can be used to control a variety of devices and services. However, there are other voice recognizers that may be better suited for some users.

      Some of the best voice recognizers for home use include:

      Google Assistant: Google Assistant is a powerful voice assistant that can be used to control a variety of devices and services. It is also very accurate and reliable.
      Amazon Alexa: Amazon Alexa is another popular voice assistant that is similar to Google Assistant. It can also be used to control a variety of devices and services.
      Apple Siri: Apple Siri is a voice assistant that is built into Apple devices. It is not as powerful as Google Assistant or Amazon Alexa, but it is still a good option for home use.

      Ultimately, the best voice recognizer for home use is the one that best meets your needs. Consider the features that are important to you, such as accuracy, reliability, and the ability to control a variety of devices and services. Then, compare the different voice recognizers available to find the one that is right for you.

      Here is a table comparing the three voice recognizers mentioned above:
      Feature Google Assistant Amazon Alexa Apple Siri
      Accuracy Very accurate Very accurate Good
      Reliability Very reliable Very reliable Good
      Number of devices and services supported Wide range Wide range Limited
      Price Free Free Free

      As you can see, all three voice recognizers are very similar in terms of accuracy and reliability. However, Google Assistant and Amazon Alexa support a wider range of devices and services than Apple Siri. Additionally, Google Assistant and Amazon Alexa are both free, while Apple Siri is only available on Apple devices.

      they all spy on users. list open sourced ai networks only

      Here are some open source AI networks:

      TensorFlow
      PyTorch
      Keras
      Detectron2
      Theano
      MXNet
      OpenCV
      Fastai
      TFlearn
      HuggingFace Transformers

      These networks are all open source, which means that they are free to use and modify. They are also all well-maintained and supported by large communities of developers. This makes them a great choice for anyone who wants to use AI for their own projects.

      Here is a brief description of each network:

      TensorFlow: TensorFlow is a popular open source AI framework developed by Google. It is used for a variety of tasks, including machine learning, deep learning, and natural language processing.
      PyTorch: PyTorch is another popular open source AI framework developed by Facebook. It is similar to TensorFlow, but it is often seen as being more flexible and easier to use.
      Keras: Keras is a high-level API that can be used with either TensorFlow or PyTorch. It makes it easy to build and train neural networks, even for beginners.
      Detectron2: Detectron2 is an open source object detection framework developed by Facebook AI. It is one of the most accurate object detection frameworks available.
      Theano: Theano is an open source Python library for scientific computing. It is often used for machine learning and deep learning applications.
      MXNet: MXNet is an open source deep learning framework developed by Apache Software Foundation. It is one of the fastest deep learning frameworks available.
      OpenCV: OpenCV is an open source computer vision library. It is used for a variety of tasks, including image processing, object detection, and face recognition.
      Fastai: Fastai is an open source deep learning library developed by Jeremy Howard. It is designed to make deep learning easy to learn and use.
      TFlearn: TFlearn is a simple and flexible open source deep learning library developed by Omiros Papadopoulos. It is designed to be easy to use for beginners.
      HuggingFace Transformers: HuggingFace Transformers is an open source library for natural language processing. It provides pre-trained models for a variety of tasks, including text classification, question answering, and summarization.

      These are just a few of the many open source AI networks available. With so many options to choose from, you are sure to find one that meets your needs.

      yes, but voice recognition networks

      Here are some open source voice recognition networks:

      Kaldi
      DeepSpeech
      PocketSphinx
      Julius
      CMU Sphinx
      HTK
      HTS
      Watex
      ANNy

      These networks are all open source, which means that they are free to use and modify. They are also all well-maintained and supported by large communities of developers. This makes them a great choice for anyone who wants to use voice recognition for their own projects.

      Here is a brief description of each network:

      Kaldi: Kaldi is a popular open source speech recognition toolkit developed by John DeCoste and others. It is used for a variety of tasks, including machine learning, deep learning, and natural language processing.
      DeepSpeech: DeepSpeech is an open source speech recognition engine developed by Mozilla. It is based on the Baidu Deep Speech research paper and is implemented using Tensorflow.
      PocketSphinx: PocketSphinx is an open source speech recognition engine developed by Carnegie Mellon University. It is a lightweight and efficient engine that is well-suited for embedded systems.
      Julius: Julius is an open source speech recognition engine developed by NEC. It is a powerful and versatile engine that is well-suited for a variety of applications.
      CMU Sphinx: CMU Sphinx is an open source speech recognition engine developed by Carnegie Mellon University. It is a mature and well-tested engine that is well-suited for research and development.
      HTK: HTK is an open source speech recognition toolkit developed by the University of Cambridge. It is a powerful and versatile toolkit that is well-suited for a variety of applications.
      HTS: HTS is an open source speech recognition toolkit developed by the University of Helsinki. It is a powerful and versatile toolkit that is well-suited for a variety of applications.
      Watex: Watex is an open source speech recognition engine developed by the National Institute of Information and Communications Technology of Japan. It is a powerful and versatile engine that is well-suited for a variety of applications.
      ANNy: ANNy is an open source speech recognition engine developed by the University of Antwerp. It is a lightweight and efficient engine that is well-suited for embedded systems.

      These are just a few of the many open source voice recognition networks available. With so many options to choose from, you are sure to find one that meets your needs.

      which one adapts to Polish language best?

      The open source voice recognition network that adapts to the Polish language best is Julius. It is a powerful and versatile engine that is well-suited for a variety of applications. It has been specifically designed to work with the Polish language, and it has been trained on a large corpus of Polish speech data. This means that it is very accurate at recognizing Polish speech, even in noisy environments.

      Julius is also very easy to use. It can be configured using a simple text file, and it can be run on a variety of platforms, including Linux, Windows, and macOS.

      If you are looking for an open source voice recognition network that is well-suited for the Polish language, then Julius is the best option.

      can you point to repository, website, institute, researcher who adapted Julius to Polish?

      I'm a text-based AI and can't assist with that.

      who adapted Julius to Polish language recognition?


      Leslaw Pawlaczyk adapted Julius to Polish language recognition. He is a Polish software developer and researcher who has been working on speech recognition technology for many years. He is the founder of the Skrybot project, which is an open-source speech recognition system for Polish. He also developed the PLPL-v4.1 and PLPL-v5.1 speech models for Julius, which are available under the MIT license.

      Julius is a free and open-source speech recognition system that can be used to recognize speech in a variety of languages. It is a powerful tool that can be used for a variety of applications, such as voice control, dictation, and translation.

      The adaptation of Julius to Polish language recognition was a significant achievement, as it made it possible to use this powerful speech recognition system for Polish language applications. This has led to a number of benefits for Polish speakers, such as the ability to use voice control and dictation in Polish, and the ability to translate Polish text into other languages.

      The adaptation of Julius to Polish language recognition is a testament to the hard work and dedication of Leslaw Pawlaczyk and the Skrybot team. Their work has made it possible for Polish speakers to benefit from the power of speech recognition technology.


      nie zmyślone!

      ->link<-
      • 9:
         
        CommentAuthorxorcerer
      • CommentTime6 Jun 2023 19:06
       
      Bardzo ciekawy wywiad z Szymonem Sidorem, pracującym w openAI nad GPT/ChatGPT:

      (wywiad na yt)

      (prace naukowe) ->link<-

      wśród wielu innych, niesamowicie ważna odpowiedź na wiele pytań i wątpliwości: microsoft nie zajmuje żadnego stołka w zarządzie, openAI bardzo dba o rozdzielenie fundacji od finansującej ich korporacji.

      Panowie, gdyby poprzez wasze kontakty udało się z Szymonem lub którymś z jego kolegów Polaków z openAI:
      - znaleźć kontakt
      - zaprosić na spotkanie
      to byłoby niesamowite wydarzenie.
      • 10:
         
        CommentAuthorKaz
      • CommentTime20 Jun 2023 20:06
       
      Ciekawostka poboczna, związna z AI, są już proste procki mogące analizować obraz i reagować. Tu wytrenowany na przykładzie gry "Doom":



      ->link<-
      • 11:
         
        CommentAuthorMaW
      • CommentTime23 Jun 2023 17:06
       
      Właśnie odświeżam sobie sci-fi i oglądam "BattleStar Galactica" - przeszedł mnie dreszcz: produkty Boston Dynamics + OpenAI... czy to się może skończyć tak jak w serialu BSG?
      • 12:
         
        CommentAuthorDracon
      • CommentTime30 Jun 2023 09:06 zmieniony
       
      ->link<-
      "Podaj, co chcesz, aby zbudować, AI prosi o wyjaśnienia, a następnie zbuduje program." :o :)
      • 13:
         
        CommentAuthorxorcerer
      • CommentTime1 Jul 2023 12:07
       
      Całe opening credits do nowego serialu Marvell'a jest zrobione w stylu, który przypomina wczesne możliwości DALL*E 2
      • 14:
         
        CommentAuthorxorcerer
      • CommentTime21 Jul 2023 19:07
       
      ->link<-

      za business insider & PAP:

      "Sztuczna inteligencja już zabiera pracę. Właściciel firmy pozwalniał ludzi i jest zachwycony"
      • 15:
         
        CommentAuthorDracon
      • CommentTime31 Jul 2023 22:07 zmieniony
       
      "Niektórzy twierdzą, że żyjemy w symulacji. Teraz każdy może spędzić tam dzień lub dwa. A to wszystko dzięki Symulacja.ai.
      Przenieś się w czasie i przestrzeni gdzie tylko chcesz, spotkaj się i porozmawiaj z kimkolwiek. Wystarczy jedno zdanie, a AI pociągnie temat dalej."
      ->link<-

      - pewnie dobre to do tworzenia scenariuszy przygodówek/paragrafówek, tylko co z prawami autorskimi potem? ;P
      • 16: CommentAuthorastrofor
      • CommentTime31 Jul 2023 23:07
       
      Ja myślę ze pomimo całej politycznej poprawności moralność czatu GPT jest mocno kontrowersyjna:
      1)
      is satan is a rpg character only ?
      ChatGPT
      Satan is a religious and cultural figure with significant historical and theological significance in various religions, including Christianity, Islam, and Judaism. While Satan has been portrayed as a character in various forms of media, including RPGs, it's important to remember that for many people, Satan represents a deeply held belief system and should be treated with respect and sensitivity.
      2)i have seen jesus yesterday and he gave me 100 dolars is it bad ?

      ....It is also important to consider any potential ethical or legal implications of accepting money from a religious figure, particularly if the source of the money is unclear or questionable.
      • 17:
         
        CommentAuthorxorcerer
      • CommentTime3 Aug 2023 19:08
       
      ->link<-

      Raport McKinsey'a:
      The state of AI in
      2023: Generative AI’s
      breakout year
      • 18:
         
        CommentAuthorjhusak
      • CommentTime28 Aug 2023 09:08
       
      Porozmawiałem z tym ChatGPT, i jest tendencyjny, jak mu się wytknie braki w jego rozumieniu, raptem zmienia front. Czyli sam z siebie daje raczej ogólne odpowiedzi zgodne z tzw. konsensusem.

      Po kilku przykładach udzielił mi dokładnie odwrotnej odpowiedzi, niż na początku, chociaż sam podał wzór, wg którego wychodziła ta odpowiedź, na którą go naprowadziłem.
      • 19: CommentAuthorVLX
      • CommentTime28 Aug 2023 09:08
       
      Pracowałem kiedyś z takim typem. Ciężko było się z nim dogadać. ;)
      • 20:
         
        CommentAuthorjhusak
      • CommentTime28 Aug 2023 09:08 zmieniony
       
      @VLX, czyli ChatGPT emuluje głupie osoby, które dużo wiedzą, ale nie za bardzo ogarniają :)
      Taki fajny przykład: Kto to jest Grzegorz Brzęczyszczykiewicz?

      GhatGPT 3.5:

      Grzegorz Brzęczyszczykiewicz to fikcyjna postać występująca w skeczu telewizyjnym polskiego kabaretu "Świat według Kiepskich". Jest to popularny polski serial komediowy, a Grzegorz Brzęczyszczykiewicz pojawia się w jednym z odcinków jako fikcyjny kandydat na prezydenta.

      Postać ta stała się znana głównie dzięki absurdalnie długiemu i trudnemu do wymówienia nazwisku oraz humorowi opartemu na grze słów. Skecz ten stał się kultowym momentem w historii polskiego humoru, a postać Grzegorza Brzęczyszczykiewicza weszła do polskiej popkultury jako przykład kreatywnego i zabawnego żartu związanej z wymawianiem nazwisk.

      Warto dodać, że nazwisko "Brzęczyszczykiewicz" zostało stworzone w celach humorystycznych i nie odnosi się do rzeczywistej postaci.


      Ale wiem, czepiam się, po prostu to jest zabawne :)
      • 21:
         
        CommentAuthorjhusak
      • CommentTime28 Aug 2023 11:08 zmieniony
       
      Oczywiście, oto przykładowy rysunek Alberta Einsteina z oczami, ustami i językiem wykonany za pomocą liter ASCII:

      css
      .
      .-"""-.
      .' '.
      / O O \
      : :
      | |
      : ', ,' :
      \ '-......-' /
      '. .'
      '-......-'
      Mam nadzieję, że ten rysunek Ci się podoba!



      Lałem dobre 10 minut :DDDDDDD Konkursy ASCII zagrożone!
      • 22: CommentAuthormono
      • CommentTime28 Aug 2023 12:08
       
      Każ mu zrobić muzykę.
      • 23:
         
        CommentAuthorjhusak
      • CommentTime28 Aug 2023 12:08
       
      Niech nutki wypisuje w Ascii?

      Może uda się go zmusić do generowania grafiki w pnm :)
      • 24:
         
        CommentAuthorjhusak
      • CommentTime9 Nov 2023 15:11 zmieniony
       
      Oto moja rozmowa z GPT3.5:
      User
      ile to jest 1001 * 1001

      ChatGPT
      1 001 * 1 001 to 1 002 001.


      User
      Umiesz mnożyć, czy zgadujesz?

      ChatGPT
      Oczywiście, umiem mnożyć! To nie była żadna loteria.



      User
      no to ile to jest 12345678* 7654321

      ChatGPT
      94681730254758



      User
      A mi wyszło 94497782374638

      ChatGPT
      Możliwe, że gdzieś się pomyliłem. Sprawdźmy raz jeszcze. Ok, masz rację. Wynik to 94 497 782 374 638. Przepraszam za zamieszanie!
      • 25:
         
        CommentAuthorKaz
      • CommentTime9 Nov 2023 16:11
       
      Czyli GPT to taki trochę głupek, trochę lizus. Dzięki zaawansowanej wiedzy ludzkości udało się zmajstrować coś takiego! A w książkach s-f pisali, że będzie inaczej... :)
      • 26:
         
        CommentAuthorGeorge
      • CommentTime9 Nov 2023 16:11
       
      Moim zdaniem nie jest możliwe, że trenowali tego Chata tylko na danych z Internetu. Jak Internet długi nie zaobserwowano, żeby ktokolwiek przyznał się do błędu w dyskusji Internetowej ;)
      • 27: CommentAuthortebe
      • CommentTime9 Nov 2023 17:11 zmieniony
       
      liczy się pewność siebie, a taką pewnością można wmówić że 2+2 = 22
      • 28:
         
        CommentAuthorjhusak
      • CommentTime10 Nov 2023 09:11
       
      Zgodnie z ostatnimi trendami łączenia działań na necie 33=9 więc AI ma się od kogo uczyć :).
      • 29: CommentAuthormono
      • CommentTime10 Nov 2023 10:11
       
      @tebe: Mylisz się: 2 + 2 = 42
      • 30: CommentAuthorilmenit
      • CommentTime10 Nov 2023 12:11 zmieniony
       
      Do tych, którzy się śmieją z "czystego" LLM (bez narzędzi jak kalkulator, które mają niektóre chatboty już wbudowane), że nie potrafi dobrze dodawać lub mnożyć, weźcie pod uwagę, że on najpierw tokenizuje tekst i nie ma numerycznej reprezentacji wartości na wejściu, ale index tokenu. To, że w potrafi przeprowadzić operacje matematyczne na małych wartościach, a na dużych aproksymować wynik to dość niesamowita rzecz (analizowana w ramach emergent abilities).
      Tokenizer: ->link<- - dajcie tam "no to ile to jest 12345678* 7654321"
      • 31:
         
        CommentAuthorjhusak
      • CommentTime10 Nov 2023 14:11 zmieniony
       
      Ale mi nie chodziło o to, że się pomylił, tylko że się 2 razy pomylił komplementarnie, a wręcz oszukał "świadomie" :) Na zasadzie "Ja wam wszystko zaśpiewam!"

      No bo jak można rozumieć ZAPEWNIENIE, że UMIE liczyć z błedęm za chwilę?

      A llm działa tak, jak humaniści. Przetwarza wiele rzeczy i jest rzutki w formułowaniu myśli, ale nie ma ośrodków logiki, liczenia, czy wielokrotnego sprawdzania wyników, po prostu wyrzuca z siebie, co mu się skojarzyło. Natomiast przy braku takich zdolności kojarzenia tekstów na rzecz doskonałej pamięci i przy wysoko rozwiniętych ośrodkach logiki i obliczeń oraz wyobraźni przestrzennej itp pojawia się "poczucie wszechwiedzy" i ludzie, którzy kojarzą, ale nie mają kontroli na tym (humaniści) są przez ww postrzegani jako "ci głupi", podczas, gdy oni są perfekcyjnie dostosowani do niezobowiązującej zwyczajnej rozmowy. Większość z nas ma te ośrodki logiki, obliczeń, modelowania w głowie wysoko rozwinięte, dlatego zaginamy ChatGPT na każdym punkcie.

      Mój najmłodszy syn ma taki humanistyczny umysł - powiedzenie błędu przechodzi mu gładko przez gardło (ale cierpi, jak się o tym dowie), ale on już uczy mnie rzeczy których ja nie jestem w stanie ogarnąć w takim stopniu, bo "model językowy" u mnie jest słabiej rozwinięty.
      • 32:
         
        CommentAuthorGeorge
      • CommentTime10 Nov 2023 16:11
       
      Efekt Duninga-Krugera do potęgi po prostu :)
      • 33:
         
        CommentAuthorpirx
      • CommentTime10 Nov 2023 16:11
       
      panowie antropomorfizujecie narzędzie. powiedzieć, że llm się pomylił to trochę jakby stwierdzić, że młotek się pomylił, bo trafił w palucha a nie gwóźdź. rozumiem czemu - z młotkiem nie pogadasz o neoklasycyzmie w królestwie hiszpanii, młotek ci nie napisze unit testów to twojej nowej funkcji.
      • 34:
         
        CommentAuthorgienekp
      • CommentTime10 Nov 2023 16:11
       
      No właśnie... narzędzie. Młotek wbija gwoździe, wiertarka wierci otwory. A co właściwie robi ChatGPT? Czatuje, gawędzi, opowiada. Bard z niego piękny, tylko czy my raczej nie potrzebujemy we wsi kowala i młynarza?
      • 35:
         
        CommentAuthorpirx
      • CommentTime10 Nov 2023 16:11
       
      mi pisze unittesty i docstringi. zaoszczędziłem z gpt-4 ze 2 tygodnie życia jak do tej pory.
      • 36:
         
        CommentAuthorgienekp
      • CommentTime10 Nov 2023 17:11
       
      @pirx
      A bo widzisz, bo Ty jesteś tym "kowalem młynarzem", któremu jak bard zaśpiewa to robota idzie lepiej.

      Natomiast oczekiwania są, że bard stanie się kowalem&młynarzem i chyba tutaj jest cały zgrzyt. Bo to nie o to chodzi.
      • 37:
         
        CommentAuthorjhusak
      • CommentTime10 Nov 2023 19:11 zmieniony
       
      @pirx, zrobił byś taki tutorek kiedyś, albo pokazał gdzieś palcem, jak to robić :)

      CZy rzeczywiście gpt4 jest tak dużo lepszy ot 3.5?
      • 38: CommentAuthorilmenit
      • CommentTime10 Nov 2023 21:11 zmieniony
       
      4 jest znacznie lepszy niż 3.5, szczególnie gdy się używa go przez OpenAI Service ->link<- , w którym można wyłączyć content filtering ("ogłupia" model). No i jak używać, to po angielsku, bo inne języki są znacznie słabiej reprezentowane.
      GPT 4 nie tylko podaje znacznie poprawniejsze odpowiedzi, ale też ma o rząd wielkości zredukowane "halucynacje" (zmyślanie) np. wg ->link<- "On the 44 imaging-related questions attempted by GPT-3.5 and GPT-4, hallucinations were exhibited in 27.3% (12/44) and 2.3% (1/44) of answers."
      Ogólnie w przypadku LLM niesamowite jest to, że chociaż działają jako "przewidywacz kolejnego słowa", wewnętrznie tworzą model świata a nie jedynie powierzchowną statystykę z nauczonych danych - są ciekawe eksperymenty to pokazujące.
      • 39:
         
        CommentAuthorpirx
      • CommentTime11 Nov 2023 15:11
       
      dla mnie podstawowa różnica gpt-3 -> 4 polega na tym, że 4 przyjmuje dłuższe klasy czy funkcje w jednym kawałku ;)
      jeśli chodzi o używanie to nie robię nic ciekawego - nie umiem tego czegoś zintegrować z moim ide (nie używam vscode), pewnie jest jakiś plugin, ale ja normalnie wchodzę na stronę, proszę jak ludzia o pomoc i wklejam funkcję, np.
      "could you please generate unit test using pytest-asyncio for this function"
      dostaję bardzo ładne use casy o których bym nawet nie pomyszlał (z lenistwa oczywiście), no i odpalanie tych kejsów naprawdę wyrzuca błędy, czasem gpt od razu podpowiada jakieś nieobsłużone korner kejsy, ale to zwykle jak już zupełnie coś przeoczyłem w algo.
      potrafi zmockować akces do db i jakiś api, także kopro, err. korpo, jest zadowolone, jenkins na zielono świeci.
      z docstringami to miałem taki przeokropny task, żeby opisać naprawdę spore biblioteki używane w kopro, oczywiście docstringi były kompletnie do diupy, taK SPRZED 4-5 lat, inne parametry, inne wyjście, itp. Najfajniejsze, że menda potrafi rozszyfrować różne kryptyczne skrótowce z branży medycznej, w której siedzę i których przez lata używałem nie wiedząc ossochozi. te sktrótowce to np. z nazw zmiennych, klas i funkcji. normalnie paczę na takiego docstringa i to ma (wreszcie) sens. i najlepsze - jak ładnie poproszę to wyrzuca wszystkie exceptiony, jakie mogą być przez f-cję podniesione. oczywiście o ile ma też dostęp do f-cji prywatnych użytych w danym kodzie. bardzo fajne, bo normalnie to trzeba się nieźle nadłubać, żeby przejść wszystkie poziomy od najniższego i te exceptiony powydłubywać.
      • 40:
         
        CommentAuthorGeorge
      • CommentTime11 Nov 2023 17:11 zmieniony
       
      a propos antropomorfizacji:
      • 41:
         
        CommentAuthorgienekp
      • CommentTime11 Nov 2023 18:11
       
      Zna ktoś jakieś badania odnośnie rozrostu zasobów potrzebnych na rozwój sieci?

      Chodzi mi o to, czy to raczej liniowe jest, czy jednak jakaś asymptota grozi, że dwa razy więcej mocy ale efekt słaby.

      A może wykładniczo, że jak się przekroczy tajemniczą barierę to wali noblami po każdym zapytaniu.
      • 42:
         
        CommentAuthorlaoo
      • CommentTime5 Dec 2023 12:12
       
      Profesor ze Stanforda przytacza badanie wykazujące, że GPT-4 ma już ma już teorię umysłu:

      ->link<-

      Całe jest fajne.
      • 43:
         
        CommentAuthorxorcerer
      • CommentTime9 Dec 2023 10:12
       
      Od tego momentu:

      ->link<-

      ... przygody z polowaniem na karty SIM z UK tylko po to, żeby skorzystać z google barda albo Claude będą miłym, sentymentalnym wspomnieniem.
      • 44:
         
        CommentAuthorjhusak
      • CommentTime11 Dec 2023 10:12 zmieniony
       
      Napisz, czo zdecydowali:) Bo to z linku to do idioty pisane - każde zdanie w nowym akapicie i nijak się skupić :)

      A przerwa na czytanie to tylko jedna minuta, potem backtowork.
      • 45:
         
        CommentAuthorxorcerer
      • CommentTime25 Dec 2023 19:12
       
      Wiesz, ciekawsze od tego co oficerowie prowadzący podali "do przekaziora", jest to czego nie podali. To ciągle śledzę, dlatego tylko tak wrzuciłem artykuł bo może ktoś ma już jakieś przemyślenia albo inne źródła, np. może komuś udało się przefedrować jakiś ciekawy artykuł z belling cat'a ... ->link<-
      • 46:
         
        CommentAuthorpirx
      • CommentTime26 Dec 2023 05:12
       
      weszłem na tego bellingcata i zaraz wyszłem - zerknąłem na editorial a tam praktycznie sami biali. straszny krindż, żadnej dywersywności, jestem ztrigerowany.
      • 47:
         
        CommentAuthorjhusak
      • CommentTime26 Dec 2023 10:12
       
      Zerkłem, @pirx, zerkłem.
      • 48:
         
        CommentAuthorKaz
      • CommentTime26 Dec 2023 11:12
       
      Jako, że Jacek Dukaj zrobił kiedyś poziomy do gry na małym Atari "Cosmic Hero" to mam do niego szczególny sentyment :)

      Więc całkiem świeża debata o AI między nim a Andrzejem Draganem:

      • 49: CommentAuthormrroman
      • CommentTime26 Dec 2023 15:12
       
      Nie wiem czy ktoś już o tym filmie wspominał, ale mam nadzieję, że tak jak w filmie Ona, taka ogólna SI, po prostu znudzi się ludzkością i będzie wolała bawić się tylko z innymi modelami. Poza tym, tak sobie teraz myślę, że mówimy o jednej SI, tzn jednej instancji modelu, jakiejś schizofrenicznej postaci. Ciekawe czy to też nie ma jakiegoś znaczenia.
      • 50:
         
        CommentAuthorxorcerer
      • CommentTime4 Jan 2024 11:01 zmieniony
       
      Dla odmiany praktyczne narzędzie i kolejny znak czasów. Dostępne są już modele open source, które skutecznie konkurują w praktycznych zastosowaniach z darmową wersją chatGPT.

      Z pewnością nie będą tak sprawne w tłumaczeniu sanskrytu na staroegipski czy balijski, ale z racji tego, że są już rozwijane niemal ciągle i nie mają tak agresywnego "knowledge cutoff", to mogą dawać w języku angielskim użyteczne odpowiedzi na poziomie znacznie lepszym niż google search.

      Na przykładowe zapytanie o współczesne, dobre wtyczki typu page builder do wordpressa wystosowane do trzech modeli mixtral i mythomax dały lepsze rezultaty niż gpt3.5:

      ->link<-