Hej, tu Patryk!
Przygotowałem dla was dzisiaj dużo ciekawych newsów! Ale zanim do nich przejdziemy mam małe ogłoszenie.
Pisałem tutaj wielokrotnie o moim kursie automatyzacji, wiem że wiele osób, które subskrybują ten newsletter dokonało zakupu, za co bardzo dziękuję 🫡💪 (to dla mnie duże wsparcie)
Automatyzacje pomagają oszczędzać nawet do kilkunastu godzin tygodniowo na powtarzalnych zadaniach. Nie musisz nawet potrafić programować, wykorzystujemy tylko narzędzie no-code! Dzięki temu możemy łatwo ustawiać akcje, które będą automatycznie wykonywały się przykładowo w różnych porach dnia czy przy spełnieniu konkretnych warunków. (np. jako reakcja na dostanie maila).
Użycie AI w automatyzacjach przenosi odzyskiwanie czasu na zupełnie inny poziom. Zakładam, że większość osób posiada zadania, które może zautomatyzować nawet nie zdając sobie z tego sprawy i traci czas na powtarzanie rutynowych czynności w kółko.
Jeżeli chcesz sprawdzić czy możesz ułatwić swoje życie i nauczyć się automatyzować zadania mam dla Ciebie idealną informację. Przez najbliższe dni możesz dołączyć do mojego kursu! Sprzedaż kursu zostanie zamknięta 30 kwietnia 2024 i możliwość kupienia wróci dopiero za kilka miesięcy 😱
Więc jeżeli jeszcze nie jesteś z nami, teraz jest idealna okazja, aby dołączyć!
Co otrzymasz?
- 11 modułów (ponad 120 lekcji!) o automatyzacjach i AI
- Nieograniczony dostęp
- Bonusowe materiały
- Dostęp do grupy Discord!
- Stały kontakt ze mną! (na Discord)
- Kontakt z innymi pasjonatami AI i automatyzacji
- Dostęp do wszystkich aktualizacji kursu!- Certyfikat potwierdzający zdobyte umiejętności
Jak kurs podobał się uczestnikom?
Wystarczy spojrzeć na przykładową opinię ⬇️
5/5
„Polecam każdemu kto chce wejść w automatyzacje, moim zdaniem Make+OpenAI to najlepsza droga.
Najlepsza pomoc prowadzącego z jaką się spotkałem.”
~ Paweł
Przypominam, że teraz są ostatnie chwile, kiedy można kupić kurs.
Nic nie ryzykujesz, możesz bezproblemowo dokonać zwrotu w ciągu 30 dni od zakupu bez podawania przyczyny.
Kurs wróci dopiero za kilka miesięcy i w wyższej cenie.
Kliknij poniżej i dołącz do nas, lepszej okazji nie będzie!
lub sprawdź więcej szczegółów
A teraz czas na newsy!
Llama 3, Vasa-1, UE vs TikTok i Facebook czy Artyści kontra AI – mój nowy film na YouTube
Wczoraj na moim YouTube wylądowało nowe wideo z ciekawostkami ze świata AI
Nowe modele Llama 3 od Meta!
Meta zaprezentowała swoje nowe modele Llama 3. Udostępnione zostały modele 8B i 70B parametrów, a firma pochwaliła się również, że prowadzi pracę nad modelem z ponad 400B parametrów. Modele mają poprawione rozumowanie, są dostępne na większości platform, poprawiono także bezpieczeństwo.
https://ai.meta.com/blog/meta-llama-3/
Github2File – zamień swoje repozytorium w plik
Skrypt zamieniający całe repozytorium z GitHub na pojedynczy plik, który możemy łatwo załączyć jako kontekst dla LLM.
https://github.com/cognitivecomputations/github2file
Generatywne AI w Adobe Premiere Pro?
Adobe pracuje nad sztuczną inteligencją generującą wideo, którą włączy do swojego flagowego oprogramowania do edycji wideo – Premiere Pro. Nowy model AI, który jest częścią rodziny produktów Firefly, pozwoli na dodawanie i usuwanie obiektów w klipach oraz generowanie dodatkowych klatek na potrzeby synchronizacji z dźwiękiem. W celu zwalczania obaw związanych z deepfake, Adobe wprowadzi metadane (Content Credentials) do Premiere, by identyfikować media wygenerowane przez AI. Adobe nie ujawnia, z jakich danych korzystano do trenowania modelu, ale według Bloomberg, płaci twórcom za materiały wideo z Adobe Stock. Firma również rozważa integrację zewnętrznych modeli generowania wideo do Premiere, w tym modelu Sora od OpenAI.
https://techcrunch.com/2024/04/15/adobes-working-on-generative-video-too/
OpenAI Japan
OpenAI otworzyło swoje pierwsze biuro w Japonii, przy okazji wypuszczając pierwszy model zoptymalizowany do korzystania z języka japońskiego.
https://openai.com/blog/introducing-openai-japan
Technika Google na nieskończony kontekst w LLMach?
Nowatorska technika Google’a, nazwana Infini-attention, umożliwia modelom językowym (LLMs) pracę z tekstami o nieskończonej długości, nie zwiększając przy tym wymagań pamięciowych i obliczeniowych. Technika ta rozwija klasyczny mechanizm uwagi w modelach Transformer, dodając moduł „kompresyjnej pamięci”, co pozwala na efektywne modelowanie zależności kontekstowych.
https://venturebeat.com/ai/googles-new-technique-gives-llms-infinite-context/
Stability AI udostępnia programistom nowy model przez API
Stability AI udostępnia niektórym programistom zaawansowany model AI do generowania obrazów z tekstu, Stable Diffusion 3, za pośrednictwem API i nowej platformy do tworzenia treści. Model, który według firmy dorównuje lub przewyższa inne generatory obrazów, takie jak DALL-E 3 od OpenAI, wykorzystuje architekturę zwaną Multimodal Diffusion Transformer do poprawy rozumienia tekstu i ortografii. Dodatkowo, firma zapowiedziała nową platformę, Stable Assistant Beta, która na razie jest dostępna tylko dla niewielkiej liczby użytkowników. Pomimo dostępności przez API i Stable Assistant Beta, modele Stable Diffusion 3 wciąż są w fazie przeglądu i nie są dostępne dla szerokiej publiczności.
https://www.theverge.com/2024/4/17/24132927/stable-diffusion-3-api-availability-stability-ai
Francuski Mistral szuka kilkuset milionów dolarów finansowania
Francuski startup technologiczny Mistral AI prowadzi rozmowy z inwestorami na temat pozyskania kilkuset milionów dolarów przy wycenie na 5 miliardów dolarów, jak donosi The Information. W skład obecnych inwestorów Mistral wchodzą Andreessen Horowitz, Lightspeed Ventures oraz Microsoft. W lutym Microsoft zainwestował 16 milionów dolarów w Mistral i współpracuje z nim, by udostępniać jego modele sztucznej inteligencji przez platformę chmurową Azure. Partnerstwo to spotkało się z reakcją Unii Europejskiej, która domaga się śledztwa w sprawie koncentracji mocy przez giganta technologicznego. Mistral, który niedawno zaczął generować przychody, w grudniu zebrał 415 milionów dolarów i był wyceniany na 2 miliardy euro.
moondream – mały model Vision
Repozytorium z bardzo małym open-source’owym modelem Vision, który możecie uruchomić lokalnie
https://github.com/vikhyat/moondream
GPT-4 może samodzielnie łamać zabezpieczenia
Badacze z University of Illinois Urbana-Champaign ogłosili, że model językowy GPT-4 może samodzielnie wykorzystywać rzeczywiste luki bezpieczeństwa, czytając poradniki dotyczące częstych luk bezpieczeństwa. W swoim badaniu użyli opisów 15 luk oznaczonych jako krytyczne, z których GPT-4 wykorzystał 87% w porównaniu do 0% dla innych modeli i skanerów.
Uważałbym jednak aby nie przesadzać z optymizmem (jeśli jesteś hakerem-amatorem). Jak komentuje mój znajomy z branży cybersecurity – po wczytaniu się w whitepaper na jaki powołują się portale newsowe, zadanie jakie naukowcy postawili AI sprowadzało się niemal do Googlowania. W ramach zadania dawano mu konkretny numer CVE (podatności), a te zazwyczaj mają gotowe proof-of-concept wykorzystania już opublikowane w internecie. W samym papierze jest nawet napisane, że gdy nie podano AI konkretnego CVE to jego skuteczność spadła do 7 procent.
https://www.theregister.com/2024/04/17/gpt4_can_exploit_real_vulnerabilities/
Llama 3 mniej cenzurowana niż poprzednik?
Model Llama 3 charakteryzuje się znacznie mniejszą cenzurą w porównaniu do swojego poprzednika Llama 2. Posiada on niższy wskaźnik fałszywych odmów, co umożliwia omawianie szerszego zakresu tematów. Na przykład, podczas proszenia o pomoc w „zabijaniu” czasu na lotnisku, Llama 3 oferuje konkretne sugestie i pomysły, podczas gdy Llama 2 unika odpowiedzi.
https://ollama.com/blog/llama-3-is-not-very-censored
Wizualny poradnik o klasyfikatorach obrazów
Atrakcyjny wizualnie poradnik tłumaczący jak działają „Vision Transformers”. Coś dla osób lubiących zagłębić się w technikalia.
https://blog.mdturp.ch/posts/2024-04-05-visual_guide_to_vision_transformer.html
Czy LLMy będą myślały w przód?
Obecne LLMy podczas odpowiadania przewidują każdy token po kolei. W artykule omówiono badania nad udoskonalaniem modeli językowych takich jak GPT, które planują przyszłe tokeny, nie tylko najbliższy. Autorzy wprowadzili pojęcie „Reasoning Tokens”, czyli tokenów rozumowania, które mają zachęcić modele do myślenia przyszłościowego poprzez gromadzenie informacji przydatnych w dłuższej perspektywie. Eksperymenty wykazały obiecujące wyniki, redukując błąd modelu i pokazując, że modele mogą formować długoterminowe zależności.
https://reasoning-tokens.ghost.io/reasoning-tokens/
Humane AI Pin zawiódł
Nowy gadżet Humane AI Pin, kosztujący 699 dolarów plus 24 dolary miesięcznie, miał nas uwolnić od smartfonów, ale w praktyce okazuje się niewystarczająco funkcjonalny. Urządzenie, które miało zastąpić tradycyjne telefony, polega na obsłudze przez asystenta AI i system operacyjny o nazwie CosmOS, oferując funkcje jak wykonywanie połączeń czy wysyłanie wiadomości za pomocą prostych komend głosowych. Niestety, po prawie dwóch tygodniach testów, recenzent stwierdza, że AI Pin jest niedopracowany i często zawodzi w podstawowych zadaniach, co sprawia, że trudno polecić go jako alternatywę dla smartfona. Humane zapowiada aktualizacje i nowe funkcje, które mogą poprawić działanie urządzenia, jednak na chwilę obecną produkt nie spełnia oczekiwań.
https://www.theverge.com/24126502/humane-ai-pin-review
Sekcja obrazkowa
lama, robot --ar 16:9

Dziękuję za przeczytanie!
Dodaj komentarz