OrlowskiDev

Na bieżąco z branżą sztucznej inteligencji!

[ODNews] #21 – Samodzielny programista AI Devin, AI wspomaga fuzję jądrową, Grok open-source?

Hej, tu Patryk!

A przed wami jak co tydzień nowe wydanie ciekawostek ze świata sztucznej inteligencji!

Devin – Pierwszy programista AI

Devin to pierwszy w pełni autonomiczny inżynier oprogramowania AI, zdolny do planowania i wykonania złożonych zadań inżynieryjnych. Może uczyć się nowych technologii, budować i wdrażać aplikacje, znajdować i naprawiać błędy w kodzie, jak również szkolić i dostosowywać własne modele AI. Devin wykazuje wyjątkową umiejętność współpracy z użytkownikami, raportując postępy w czasie rzeczywistym i akceptując feedback. W teście SWE-bench, benchmarku sprawdzającym rozwiązanie rzeczywistych problemów z GitHuba, Devin osiągnął wynik 13,86%, znacznie przewyższając dotychczasowe modele. Twórcami Devina jest Cognition, laboratorium AI, które planuje wykorzystać osiągnięcia Devina do rozwoju nowych możliwości w różnych dziedzinach, nie ograniczając się tylko do kodowania.

https://www.cognition-labs.com/introducing-devin

MidJourney blokuje pracowników Stability AI

Midjourney oskarżyło pracowników konkurencyjnej firmy Stability AI, twórców Stable Diffusion, o próbę pozyskania ich danych, co doprowadziło do awarii systemu i zakłócenia usług przez prawie 24 godziny. Stwierdzono, że aktywność pochodziła z dwóch płatnych kont, które miały związek z pracownikami Stability AI. W odpowiedzi, Midjourney zdecydowało się na zakaz dostępu dla wszystkich pracowników Stability AI do swojej usługi na czas nieokreślony oraz wprowadzenie nowej polityki. CEO Stability AI, Emad Mostaque, odpowiedział, twierdząc, że firma nie nakazała takich działań i sugerował, że jeśli doszło do nich z ich strony, był to niezamierzony wypadek. Sytuacja nadal się rozwija, a obie firmy do tej pory nie skomentowały oficjalnie tej sprawy.

https://www.theverge.com/2024/3/11/24097495/midjourney-bans-stability-ai-employees-data-theft-outage

AI pomaga przy fuzji jądrowej

Naukowcy z Uniwersytetu Princeton opracowali sztuczną inteligencję, która potrafi przewidzieć i zapobiec „tearing mode instabilities” — przerywaniom w liniach pola magnetycznego w plazmie, co jest jednym z głównych problemów podczas reakcji syntezy jądrowej. W trakcie treningu naukowcy mogli dostosowywać proces, a sam algorytm, testowany później w realnym eksperymencie, potrafił przewidzieć niestabilności z 300-milisekundowym wyprzedzeniem, co pozwalało na ich zapobieganie. To przełomowe osiągnięcie wskazuje na potencjał wykorzystania AI do osiągnięcia stabilnej syntezy jądrowej, choć przed naukowcami jest jeszcze wiele wyzwań, w tym dalsze eksperymenty i potencjalne rozszerzenie algorytmu na inne typy niestabilności.

https://www.freethink.com/energy/nuclear-fusion-reactions

Covariant tworzy ChatGPT dla robotów

Firma Covirant ogłosiła uruchomienie platformy RFM-1 (Robotics Foundation Model 1), która jest porównywana do dużego modelu językowego, lecz skierowanego do „języka robotów”. Celem RFM-1 jest ułatwienie robotom pracy w rozmaitych sektorach, nie tylko w magazynach, ale również w produkcji, przetwórstwie żywności, recyklingu, rolnictwie i usługach, a także w domach osób prywatnych. Platforma ma umożliwić robotom bardziej ludzko-podobny sposób rozumowania i podejmowania decyzji dzięki zaawansowanej AI, co stanowi odejście od tradycyjnych systemów roboczych programowanych do wykonywania jednego zadania. RFM-1 używa danych do generowania wideo-symulacji w celu określenia najlepszego sposobu działania, reagując na polecenia tekstowe lub głosowe, takie jak „podnieś jabłko”. Firma zapowiada kompatybilność nowej platformy z „większością” sprzętu, na którym jest już wdrażane oprogramowanie Covariant.

https://techcrunch.com/2024/03/11/covariant-is-building-chatgpt-for-robots/

Podobają Ci się newsy, które czytasz? Jeżeli tak i jeszcze nie subskrybujesz to zachęcam! Dzięki temu będziesz wiedział co dzieje się w świecie AI jeszcze szybciej! 

Możesz zrobić to klikając w link⬇️
orlowskidev.pl/newsletter

Jak Chiny dopracowały do perfekcji swój transport kolejowy?

Chiny wykorzystują sztuczną inteligencję do zarządzania największą siecią kolejową dużych prędkości na świecie, długości 45 000 km. System AI w Pekinie przetwarza ogromne ilości danych w czasie rzeczywistym z całego kraju, umożliwiając zespołom konserwacyjnym szybką reakcję na nietypowe sytuacje z dokładnością do 95%. W ciągu ostatniego roku, dzięki stosowaniu technologii AI, nie odnotowano żadnych poważnych problemów z torami, które wymagałyby zmniejszenia prędkości, a liczba drobnych usterek torów zmniejszyła się o 80% w porównaniu z poprzednim rokiem. AI poprawiła także jakość utrzymania infrastruktury, pozwalając na precyzyjne i terminowe prace konserwacyjne. Naukowcy i inżynierowie z Chin, którzy gromadzili i organizowali dane niezbędne do szkolenia systemu AI, wskazują na konieczność wykorzystania nowych technologii wobec rosnącej sieci i podkreślają, jak AI pomogła w zwiększeniu efektywności analizy nowych danych o 85%.

https://www.scmp.com/news/china/science/article/3255039/china-puts-trust-ai-maintain-largest-high-speed-rail-network-earth

GPT jest rasistą przy sprawdzaniu CV?

Agencja Bloomberga przeprowadziła badanie, w którym stworzyli identyczne CV pod względem doświadczenia w branży finansowej i zmieniali w nich jedynie imię, nazwisko i wizerunek osoby, która miałaby dostać pracę. Okazało się, że model GPT dużo częściej jako najlepszą osobę na stanowisko związane z zarządzaniem finansami wybierał azjatycką kobietę, niż kobiety czy mężczyzn innego pochodzenia. Najrzadziej jako idealnego kandydata wskazywał czarnoskórego mężczyznę.

https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/

Altman wraca do zarządu OpenAI

Sam Altman, CEO OpenAI, wrócił do zarządu firmy po niezależnym śledztwie, które nie znalazło podstaw do jego usunięcia z powodu zarzucanego nieprawidłowego postępowania. Śledztwo obejmowało przesłuchanie członków zarządu, pracowników oraz przegląd ponad 30 000 dokumentów. Dodatkowo do zarządu OpenAI dołączą nowi członkowie: Sue Desmond-Hellmann, Nicole Seligman oraz Fidji Simo. Altman na wideokonferencji przeprosił za nieporozumienia w zarządzie i zapowiedział wzmocnienie polityki konfliktu interesów. Altman wyraził nadzieję na dalszą współpracę z Ilyą Sutskeverem, pomimo jego roli w nieudanej próbie przewrotu.

https://www.theverge.com/2024/3/8/24094885/openai-sam-altman-investigation-board-results

AI wspomoże moderatorów Reddita

Reddit wprowadził narzędzie wykorzystujące sztuczną inteligencję do wykrywania i flagowania treści, które mogą być przejawem nękania online. To narzędzie skanuje posty i komentarze, poszukując zagrożeń i obelg, co ma pomóc moderatorom szybciej zidentyfikować i zająć się problematyczną zawartością. Choć samo narzędzie opiera się na dużym modelu językowym, uczonym na danych o działaniach moderatorów i treściach usuwanych przez zespoły Reddita, ostateczna decyzja o usunięciu treści nadal należy do ludzkich moderatorów.

https://www.geeksforgeeks.org/reddits-new-ai-tool-to-detect-online-harassment/

Powtarzalność postaci w MidJourney!

Zespół MidJourney dodał do generatora świetną, nową funkcjonalność. Od teraz możemy w bardzo łatwy sposób tworzyć nowe obrazki z postacią z wcześniej wygenerowanych zdjęć. Wystarczy użyć parametru character reference (–cref). W dodatku możemy kontrolować jak silne ma być podobieństwo postaci parametrem –cw przyjmującym wartości od 0 do 100.

Grok od Elona Muska wydany open-source!

Po oskarżeniu OpenAI o niespełnianie swojej misji Elon chyba zorientował się, że jego LLM również wcale nie jest otwarty. Ale to już przeszłość, kilka dni temu firma xAI udostępniła architekturę i wagi modelu Grok o 314 miliardach parametrów na licencji Apache 2.0 do użytku przez każdego publicznie!

https://x.ai/blog/grok-os

Figure + OpenAI = niesamowity robot

Połączenie LLM od firmy OpenAI i robotów z sieciami neuronowymi od Figure dało niesamowite efekty. Robot, który potrafi prowadzić konwersację i wykonywać polecenia. Na ten filmik naprawdę warto spojrzeć.

90 naukowców podpisało list mający na celu zapobieganie tworzenia broni biologicznej z AI

90 naukowców podpisało list mający na celu określenie jak odpowiedzialnie korzystać z AI przy tworzeniu np. nowych białek. Chodzi o zapobieganie wytwarzania nowych wirusów lub toksyn, ponieważ AI może pomóc przy stworzeniu wielu nowych substancji.

https://responsiblebiodesign.ai/

Podobają Ci się newsy, które czytasz? Jeżeli tak i jeszcze nie subskrybujesz to zachęcam! Dzięki temu będziesz wiedział co dzieje się w świecie AI jeszcze szybciej! 

Możesz zrobić to klikając w link⬇️
orlowskidev.pl/newsletter

Możliwość szybkiej edycji dostępna w Gemini

Google udostępniło nową funkcjonalność w Gemini pozwalającą na szybkie zmodyfikowanie odpowiedzi od chatbota. Niestety w Polsce dostęp jest jedynie do uproszczonej wersji klikając ikonę pod całą odpowiedzią, można wtedy zmienić odpowiedź na przykład na krótszą lub dłuższą.

https://9to5google.com/2024/03/06/gemini-modify-tune-response/

CTO OpenAI zapowiedziała model Sora jeszcze w tym roku

Model Sora zrobił niemałą furorę, gdy pojawiły się pierwsze prezentacje wyprodukowanych przez niego wideo. Lecz na razie pozostaje on jedynie do użytku przez naukowców i użytkowników testowych. Niedługo może się to zmienić, ponieważ dyrektorka ds. technologii OpenAI, Mira Murati, powiedziała dziennikowi „Wall Street Journal”, że firma udostępni publicznie Sorę „jeszcze w tym roku”.

https://futurism.com/the-byte/openai-cto-releasing-sora-this-year

Najlepsze modele nadal nie radzą sobie z testami IQ

Ciekawy tekst traktujący o tym jak i czy w ogóle najlepsze modele LLM takie jak GPT-4 czy Gemini Ultra radzą sobie z testami IQ. Wygląda na to, że mamy jeszcze trochę czasu zanim AI będzie naprawdę „inteligentne”.

https://www.maximumtruth.org/p/top-ais-still-fail-iq-tests

Czy OpenAI przypadkiem pokazało GPT-4.5 Turbo?

Krążą plotki, że w wyszukiwarce Google na chwilę zaindeksowała się strona na blogu OpenAI dotycząca GPT-4.5 Turbo. Nie jest ona już możliwa do znalezienia, więc nie ma pewności, że nie jest to spreparowany screenshot. Jeżeli informacje z opisu by się potwierdziły nowy model posiadałby większy kontekst (256k tokenów) i nowe dane (do czerwca 2024) i miałby ukazać się właśnie w czerwcu 2024 roku.

https://www.androidauthority.com/chat-gpt-4-5-turbo-3425326/

Autopromocja

Kurs „Zautomatyzuj swoją codzienność”!


Komentarze

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *