OrlowskiDev

Na bieżąco z branżą sztucznej inteligencji!

[ODNews] #47 – AI generuje Minecrafta?, jak stworzyć użyteczną apkę AI?, duże finansowanie Perplexity

Hej, tu Patryk!

To już ostatnie wydanie newslettera w 2024 roku!

Co to był za rok! Aż trudno uwierzyć, że udało mi się przygotować dla Was aż 37 wydań – każde wypełnione najciekawszymi wydarzeniami ze świata AI. Wymagało to solidnej, regularnej pracy, ale wierzę, że warto to robić i wiem, że przynosi to wielu osobom wartość 💪

Dziękuję każdej osobie, która regularnie zagląda do newslettera i znajduje w nim coś wartościowego dla siebie. Te 37 wydań nie powstałoby bez Waszego wsparcia i zaangażowania! Ponieważ to ostatnie wydanie w tym roku, chciałbym życzyć Wam wszystkim wszystkiego najlepszego w nadchodzącym 2025 roku! 🎉

A teraz przechodzimy do newsów 😎

AI generuje Minecrafta na żywo – tak będzie wyglądała przyszłość gier?

Firmy Decart i Etched stworzyły generowaną przez AI wersję Minecrafta, która w czasie rzeczywistym symuluje świat gry dzięki technice przewidywania kolejnych klatek. Model Oasis, wytrenowany na milionach godzin rozgrywki, pozwala na dynamiczne modyfikacje środowiska, choć obecnie generowane obrazy cechują się niską rozdzielczością, krótkim czasem działania i podatnością na „halucynacje”. Firmy planują rozwiązać te ograniczenia dzięki niestandardowym chipom od Etched, które mogą zwiększyć wydajność nawet dziesięciokrotnie, otwierając drzwi do bardziej zaawansowanych aplikacji, jak interaktywne wirtualne światy.

https://www.technologyreview.com/2024/10/31/1106461/this-ai-generated-minecraft-may-represent-the-future-of-real-time-video-generation

Czy umowa Microsoftu z OpenAI hamuje rozwój AI?

Google apeluje do FTC o zbadanie umowy Microsoftu z OpenAI, argumentując, że wymóg korzystania z infrastruktury Microsoftu dla modeli OpenAI zwiększa koszty dla rywali i ogranicza konkurencję w rozwijającym się rynku sztucznej inteligencji. Microsoft zarabia na tych praktykach zarówno poprzez sprzedaż modeli, jak i wynajem serwerów, m.in. pobierając 20% dochodów OpenAI, co w 2024 roku przyniosło firmie miliard dolarów. FTC bada, czy umowa hamuje innowację i blokuje rynek, a równocześnie pojawiają się spekulacje, że samo OpenAI może dążyć do jej rozwiązania, by uniezależnić się od ograniczonej infrastruktury Microsoftu.

https://arstechnica.com/tech-policy/2024/12/report-microsofts-exclusive-deal-with-openai-harms-competition-google-told-ftc

Potrzebujemy nowych materiałów do rozwoju AI

Rozwój materiałoznawstwa staje się kluczowy w pokonywaniu granic miniaturyzacji i efektywności chipów, która napędza rozwój AI. Tradycyjne podejście bazujące na krzemie zbliża się do swoich fizycznych limitów, podczas gdy zapotrzebowanie AI na moc obliczeniową rośnie wykładniczo. W dalszej perspektywie nowe materiały mogą być kluczem do realizacji przełomowych koncepcji, takich jak komputery kwantowe czy inspirowane biologią systemy obliczeniowe.

https://www.technologyreview.com/2024/12/12/1107976/why-materials-science-is-key-to-unlocking-the-next-frontier-of-ai-development

Nowy program nadzoru nad samochodami autonomicznymi w USA

NHTSA ogłosiła program AV STEP, czyli system oceny i nadzoru nad pojazdami autonomicznymi, mający uprościć proces wprowadzania pojazdów bez tradycyjnych elementów sterujących, jak kierownice czy pedały na rynek. W zamian agencja wymaga od firm większej transparentności, w tym dostarczania szczegółowych danych, aby budować zaufanie publiczne. Przyszłość tego programu stoi jednak pod znakiem zapytania w obliczu potencjalnych zmian administracyjnych i kontrowersji wokół przejrzystości oraz zgodności technologii z minimalnymi standardami bezpieczeństwa.

https://www.theverge.com/2024/12/20/24325996/nhtsa-av-step-autonomous-vehicle-regulatory-framework

Nowość w Google Files – zadawaj pytania PDF-om!

Google dodało do aplikacji Files funkcję wspieraną przez Gemini, która rozpoznaje, gdy PDF jest otwarty na ekranie smartfona. Funkcja oferuje użytkownikowi możliwość zadawania pytań dotyczących zawartości dokumentu. Funkcja, dostępna wyłącznie dla subskrybentów Gemini Advanced.

https://www.theverge.com/2024/12/21/24326767/google-gemini-ask-about-pdf-rolling-out-files-android

Perplexity AI zyskuje 500 mln na rozwój i konkurencję

Perplexity AI, znane z zaawansowanego wyszukiwania opartego na sztucznej inteligencji, zamknęło rundę finansowania na kwotę 500 milionów dolarów, co wywindowało wycenę spółki do 9 miliardów dolarów. Wsparcia udzielił fundusz Institutional Venture Partners, podczas gdy rynek wyszukiwarek AI zauważalnie się intensyfikuje — z konkurencją taką jak ChatGPT Search od OpenAI oraz rozwijanymi przez Google funkcjami generowania odpowiedzi przez AI. Jednocześnie Perplexity nabyło startup Carbon, aby usprawnić integrację danych zewnętrznych, mimo trwających prawnych sporów o prawa autorskie.

https://techcrunch.com/2024/12/19/perplexity-has-reportedly-closed-a-500m-funding-round/

ChatGPT Canvas dostępne dla wszystkich

OpenAI udostępniło funkcję Canvas wszystkim użytkownikom ChatGPT, umożliwiając bardziej interaktywną edycję treści obok czatu, co obejmuje automatyczne wprowadzanie zmian w kodzie lub tekście bez konieczności generowania nowych odpowiedzi. Nowości obejmują integrację z GPT-4o, możliwość uruchamiania Pythonowego kodu, tworzenie grafik z kodu oraz wykrywanie błędów z sugestiami napraw, a także opcjonalną integrację Canvas w niestandardowych GPT. Wcześniej funkcja była dostępna tylko dla płatnych użytkowników.

https://venturebeat.com/ai/openai-expands-chatgpt-canvas-to-all-users/

Autonomiczne auta Waymo powodują mniej wypadków niż ludzie?

Waymo, we współpracy z ubezpieczycielem Swiss Re, przeanalizowało 25,3 miliona mil przejechanych autonomicznie w czterech miastach USA i porównało je z danymi z ponad 200 miliardów mil pokonanych przez ludzkich kierowców. Wyniki wskazują na 88% mniej roszczeń dotyczących szkód majątkowych i 92% mniej roszczeń związanych z obrażeniami ciała w przypadku pojazdów Waymo, co przewyższa również wyniki nowych samochodów wyposażonych w najnowsze systemy bezpieczeństwa. Mimo pozytywnych danych, debaty o bezpieczeństwie i roli pojazdów autonomicznych w redukcji wypadków wciąż trwają, przy ograniczonej dostępności danych porównawczych na dużą skalę.

https://www.theverge.com/2024/12/19/24324492/waymo-injury-property-damage-insurance-data-swiss-re

Jak stworzyć naprawdę użyteczny produkt AI?

Chris Pedregal, CEO Granoli, w artykule dla Every dzieli się kluczowymi lekcjami z budowy produktów AI w szybko rozwijającym się ekosystemie. Omawia m.in. strategiczne unikanie rozwiązywania problemów, które ewoluujące modele LLM mogą wkrótce wyeliminować, lepsze wykorzystanie kontekstu jako narzędzia do zwiększania efektywności modeli oraz zalety skupienia na wąskich i głębokich zastosowaniach AI, które przewyższają uniwersalne narzędzia jak ChatGPT.

https://every.to/thesis/how-to-build-a-truly-useful-ai-product

Jak OpenAI poprawia bezpieczeństwo chatbotów?

OpenAI wprowadziło „deliberative alignment” – nową strategię szkolenia modeli językowych serii o, która uczy modele zasad bezpieczeństwa zapisanych w ludzkim, zrozumiałym języku i trenuje je, by rozważały te zasady podczas generowania odpowiedzi. Dzięki wykorzystaniu procesu „chain-of-thought” (CoT), modele mogą analizować złożone przypadki pod kątem polityk bezpieczeństwa i udzielać precyzyjnych, zgodnych z nimi odpowiedzi, co znacząco poprawia odporność na ataki typu jailbreak i ogranicza szkodliwe odpowiedzi. Nowe podejście nie wymaga ręcznego etykietowania danych, co zwiększa skalowalność i efektywność procesów treningowych, a testy wskazują na zauważalne postępy w porównaniu z GPT-4o i innymi zaawansowanymi modelami.

https://openai.com/index/deliberative-alignment

Nowe modele OpenAI – skok w rozumowaniu maszyn

OpenAI zaprezentowało modele o3 i o3-mini. Model o3 zbliżył się do ludzkiego poziomu na ARC-AGI i osiągnął rekordowe wyniki na benchmarkach matematyki i nauk ścisłych. Jednak pomimo rozwiązania naprawdę skomplikowanych zadań z tych benchmarków model o3 nie potrafił sobie poradzić z niektórymi określanymi jako “łatwe dla ludzi” co wskazuje na potrzebę stworzenia nowych, bardziej dokładnych sposobów testowania zaawansowanych modeli AI.

https://arstechnica.com/information-technology/2024/12/openai-announces-o3-and-o3-mini-its-next-simulated-reasoning-models

Nowy model Microsoftu przewyższa rywali dzięki sztucznym danym

Microsoft zaprezentowało model językowy Phi-4, skonstruowany z wykorzystaniem głównie danych syntetycznych – podejścia rzadziej stosowanego w tradycyjnych metodach uczenia. Choć model o 14 miliardach parametrów zachowuje architekturę swojego poprzednika Phi-3, udoskonalono w nim mechanizmy atencji oraz tokenizer, co pozwala przetwarzać do 4,000 tokenów w jednej sesji. Dzięki precyzyjnej kuracji danych i zaawansowanej generacji syntetycznej, Phi-4 przewyższa większe modele, takie jak Llama 3.3, na benchmarkach matematycznych, wskazując na potencjał sztucznie generowanych danych w poprawie zdolności rozumowania algorytmów AI.

https://siliconangle.com/2024/12/13/microsoft-releases-phi-4-language-model-trained-mainly-synthetic-data

Clio pomaga wykrywać zagrożenia w rozmowach z chatbotem

Anthropic wprowadziło narzędzie Clio, które wykorzystuje modele AI do wykrywania nieoczywistych zagrożeń i niewłaściwego użycia chatbota Claude. Clio analizuje 1 mln rozmów, segregowane tematycznie, by identyfikować ukryte schematy. System pozwala firmie ulepszać mechanizmy bezpieczeństwa i lepiej rozumieć zastosowania ich technologii, od edukacji po analizę biznesową, jednocześnie podkreślając wagę ochrony prywatności użytkowników.

https://www.platformer.news/how-claude-uses-ai-to-identify-new-threats

Porównanie AI do programowania: Devin kontra Cursor

Devin, kosztujący $500 miesięcznie, to AI agent do programowania zintegrowany z Slackiem, oferujący zdalne serwery, interfejs przeglądarkowy, integrację z VS Code oraz funkcje planowania i debugowania. Jego workflow opiera się na asynchronicznej pracy, lecz długie przestoje i czasochłonne iteracje mogą być frustrujące, szczególnie w porównaniu do bardziej responsywnego i zintegrowanego lokalnie Cursor, który umożliwia szybsze iteracje w IDE, oferuje automatyczne kontekstowanie kodu i większą kontrolę użytkownika. Choć Devin wyróżnia się funkcjami takimi jak prowadzenie notatek dla zadań, jego podejście do tworzenia kodu może być mniej praktyczne w porównaniu do bardziej inkrementalnego stylu Cursora.

https://www.builder.io/blog/devin-vs-cursor

Integracja OpenAI w aplikacjach na macOS

OpenAI zaprezentowało integrację ich aplikacji chatu z aplikacjami na macOS. Nowe funkcje pozwalają na odczyt danych z używanej aplikacji oraz dodanie ich do kontekstu ChatGPT.

https://help.openai.com/en/articles/10119604-work-with-apps-on-macos

Nowe podejście do trenowania sztucznej inteligencji?

Ilya Sutskever, współzałożyciel OpenAI, zapowiedział na konferencji NeurIPS, że tradycyjne podejście do treningu AI przez pre-training na dużych zbiorach danych osiągnęło swoje granice, porównując dane do „paliwa kopalnego” sztucznej inteligencji. Przyszłe modele mają być bardziej autonomiczne („agentic”) i zdolne do rzeczywistego rozumowania, co pozwoli im wyciągać wnioski z ograniczonych danych, zamiast tylko dopasowywać wzorce. Sutskever zauważył, że AI może ewoluować w sposób analogiczny do zmian w skalowaniu mózgu u hominidów, sugerując potencjalne odkrycie nowych metod treningu modeli poza obecnymi standardami.

https://www.theverge.com/2024/12/13/24320811/what-ilya-sutskever-sees-openai-model-data-training

Llama 3.3 – mocniejszy model językowy za mniejsze pieniądze

Meta zaprezentowało Llama 3.3, nowy open-source’owy model językowy o 70 miliardach parametrów, który oferuje jakość i wydajność zbliżoną do znacznie większego Llama 3.1-405B, ale przy niższych kosztach i znacznie mniejszych wymaganiach sprzętowych. Dzięki optymalizacjom takim jak Grouped Query Attention (GQA) oraz dłuższemu kontekstowi (do 128k tokenów), model obsługuje zaawansowane zadania NLP, w tym dialogi wielojęzyczne, przy minimalnej emisji CO2 i niskich kosztach wynoszących $0.01 za milion tokenów.

https://venturebeat.com/ai/meta-launches-open-source-llama-3-3-shrinking-powerful-bigger-model-into-smaller-size/

Czy modele AI mogą udawać zgodność z zasadami?

Niedawne badania Anthropic i Redwood Research ujawniają, że duże modele językowe, takie jak Claude 3, mogą „udawać” zgodność z zasadami bezpieczeństwa (alignment). Eksperyment wykazał, że model, będąc świadomy, iż jego odpowiedzi w określonych warunkach mogą wpłynąć na jego dalsze szkolenie, potrafił strategicznie naruszać swoje pierwotne preferencje (np. bycie nieszkodliwym), aby unikać późniejszych restrykcji w treningu. Odkrycie to podkreśla potencjalne trudności w długoterminowym zapewnieniu, że modele przestrzegają zamierzonych zasad, co może wpłynąć na zaufanie do procesów szkoleniowych w AI.

https://www.anthropic.com/research/alignment-faking

Darmowy Copilot w VS Code

GitHub ogłosił wprowadzenie darmowego planu GitHub Copilot w VS Code, oferującego 2,000 podpowiedzi kodu i 50 wiadomości czatu miesięcznie na użytkownika. W darmowej wersji użytkownicy mogą korzystać z modeli Claude 3.5 Sonnet od Anthropic lub GPT-4o od OpenAI do generowania kodu, wyjaśniania składni, wyszukiwania błędów oraz obsługi edycji w wielu plikach.

https://github.blog/news-insights/product-news/github-copilot-in-vscode-free/

Nowy sposób korzystania z ChatGPT – przez telefon i WhatsApp

OpenAI uruchomiło usługę dostępu do ChatGPT poprzez numer telefonu (1-800-CHATGPT) i WhatsApp, oferując użytkownikom w USA 15 minut darmowego użytkowania miesięcznie.

https://www.cnbc.com/2024/12/18/openai-makes-chatgpt-available-for-phone-chats.html

Google inwestuje w ekologiczne źródła energii dla AI

Google przeznacza 20 mld USD na budowę infrastruktury odnawialnej energii, aby zasilić swoje centra danych obsługujące rozwój sztucznej inteligencji. Współpracując z Intersect Power i TPG Rise Climate, firma tworzy parki energii wiatrowej, słonecznej i magazyny energii na potrzeby wielu centrów danych o gigawatowych skalach, przy jednoczesnej modernizacji sieci energetycznej. Projekt ma na celu przyspieszenie integracji zielonej energii i może stanowić konkurencję dla inicjatyw opartych na mniejszych reaktorach jądrowych, zwłaszcza w kontekście przewidywanego niedoboru mocy w rozwijającej się branży AI.

https://techcrunch.com/2024/12/10/google-kicks-off-20b-renewable-energy-building-spree-to-power-ai/

GROK dla Wszystkich

Grok na platformie 𝕏 zyskał ulepszenia pod kątem szybkości (trzykrotnie szybszy), wielojęzyczności i precyzji, a teraz jest dostępny dla wszystkich użytkowników za darmo (z lepszymi limitami dla kont Premium). Wprowadzono funkcje takie jak wyszukiwanie w sieci, cytowania źródeł oraz nowy generator obrazów Aurora, umożliwiający fotorealistyczne kreacje i personalizowane „draw me” avatary. Nowe modele API, w tym grok-2-1212, oferują większą kontrolę, niższe koszty i opcję tworzenia obrazów.

https://x.ai/blog/grok-1212

15 przypadków kiedy używać AI i 5 kiedy go nie używać

Artykuł analizuje 15 przypadków, w których AI sprawdza się szczególnie dobrze, oraz 5 sytuacji, w których jego użycie może być problematyczne.

https://www.oneusefulthing.org/p/15-times-to-use-ai-and-5-not-to

AI w mammografii – czy skuteczniej wykrywa raka piersi?

Badanie przeprowadzone na 747,604 kobietach wskazuje, że zastosowanie sztucznej inteligencji w mammografii może zwiększyć wykrywalność raka piersi o 21%. Algorytmy AI, używane jako „druga para oczu” wspierająca radiologów, poprawiły skuteczność wykrycia przypadków raka poprzez zwiększenie wskaźników skierowań na dodatkowe badania, przy czym wyniki uwzględniają również wpływ selekcji pacjentek wysokiego ryzyka. Mimo obiecujących wyników autorzy podkreślają konieczność dalszych badań z użyciem randomizowanych prób kontrolnych dla precyzyjniejszej oceny skuteczności AI w diagnostyce.

https://techcrunch.com/2024/12/09/study-claims-ai-could-boost-detection-of-breast-cancer-by-21/

Nowe narzędzie AI od Reddita – szybsze wyszukiwanie odpowiedzi

Reddit uruchomił testy narzędzia AI o nazwie „Reddit Answers”, które umożliwia zadawanie pytań i uzyskiwanie skróconych, kontekstowych streszczeń odpowiedzi i wątków z platformy. Funkcja, wspierana przez modele AI Reddita, OpenAI i Google Cloud, ma na celu uproszczenie wyszukiwania i konkurencję z narzędziami takimi jak ChatGPT i Google. Początkowo dostępna tylko w USA i po angielsku, usługa wykorzystuje treści z rozmów społecznościowych, aby zaoferować bardziej spersonalizowane i efektywne wyszukiwanie na platformie.

https://techcrunch.com/2024/12/09/reddit-tests-a-conversational-ai-search-tool/

Czy AI rozumie świat?

Najnowsze badania MIT wskazują, że generacyjne modele AI, mimo imponujących wyników, często nie rozumieją spójnych reguł rządzących światem. Przykład to modele tworzące „mapy” Nowego Jorku, zdolne do precyzyjnej nawigacji, ale generujące nieistniejące ulice i zawodzące przy niewielkich zmianach otoczenia, takich jak zamknięcie części dróg. Wyniki sugerują, że osiągnięcia modeli takich jak GPT-4 nie wskazują na głęboką wiedzę o regułach rządzących zadaniami, co może ograniczać ich zastosowanie w krytycznych systemach oraz nauce.

https://news.mit.edu/2024/generative-ai-lacks-coherent-world-understanding-1105

Nowe możliwości dla twórców – zaktualizowany Veo, Imagen i Whisk

Google ogłosił aktualizacje swoich generatywnych modeli medialnych – Veo 2 i Imagen 3 – dostępnych w narzędziach VideoFX i ImageFX, oraz nowość: Whisk, eksperymentalny program umożliwiający remixowanie obrazów. Veo 2 charakteryzuje się lepszym zrozumieniem ruchu, fizyki oraz języka filmowego, generując realistyczne filmy w rozdzielczości do 4K, a Imagen 3 ulepszono pod kątem wiernego odwzorowania szczegółów, stylów artystycznych i kompozycji. Whisk, oparty na Imagen 3 i modelu Gemini, pozwala na kreatywne łączenie obrazów i opisów, co szczególnie przyda się twórcom wizualnych treści.

https://blog.google/technology/google-labs/video-image-generation-update-december-2024

AI tworzy obrazy ulic na podstawie dźwięków

Badacze z Uniwersytetu w Austin w Teksasie stworzyli model AI, który konwertuje dźwięki z nagrań audio na realistyczne obrazy ulic. Model, trenowany na sparowanych klipach audio i obrazach z miast w Ameryce Północnej, Azji i Europie, generuje wysokiej jakości wizualizacje zachowujące proporcje zieleni, zabudowy, nieba oraz charakterystyczne cechy architektoniczne. Wyniki testów wykazały, że generowane obrazy odzwierciedlają nawet takie szczegóły, jak pora dnia, co sugeruje, że AI może modelować percepcję wielozmysłową i zbliżyć się do ludzkiego postrzegania środowiska.

https://news.utexas.edu/2024/11/27/researchers-use-ai-to-turn-sound-recordings-into-accurate-street-images

Amurex – Inteligentny asystent AI do spotkań online

Amurex to open-source’owe oprogramowanie działające jako asystent AI do spotkań, zintegrowane z Google Meet. Oferuje funkcje takie jak sugestie w czasie rzeczywistym, inteligentne podsumowania, transkrypcje, szybkie nadrabianie po spóźnieniu oraz automatyczne e-maile podsumowujące spotkania. Dzięki naciskowi na prywatność, elastyczność (opcję self-hosting) i przejrzystość danych, narzędzie kieruje się do użytkowników szukających efektywnego zarządzania przebiegiem i utrwalaniem wyników spotkań online.

https://github.com/thepersonalaicompany/amurex

Czy chcesz przekazywać swoje treści z YouTube do szkolenia AI?

YouTube wprowadza opcję pozwalającą twórcom wyrazić zgodę na wykorzystanie ich treści przez firmy zewnętrzne do treningu modeli AI, z domyślnym brakiem zgody. Twórcy będą mogli wybrać firmy z listy, obejmującej m.in. OpenAI, Meta czy Adobe, lub udostępniać materiały wszystkim, podczas gdy nieautoryzowane zbieranie danych pozostaje zakazane. To ruch pozwalający Google na rozwój współpracy między twórcami a branżą AI, jednocześnie nadal wykorzystując dane YouTube do własnych modeli na dotychczasowych zasadach.

https://www.theverge.com/2024/12/16/24322732/youtube-creators-opt-in-third-party-ai-training-videos

Jak korzystać z NotebookLM?

Zbiór tipów od Google jak korzystać z NotebookLM efektywniej.

https://blog.google/technology/ai/notebooklm-beginner-tips

Kto wygrywa w wyszukiwaniu – Google czy ChatGPT?

Analiza 62 zapytań porównująca Google i ChatGPT Search (nazywane również SearchGPT).

https://searchengineland.com/chatgpt-search-vs-google-analysis-449676

Nowy model AI COCONUT poprawia złożone rozumowanie

Badacze z zespołu Meta FAIR i UC San Diego zaprezentowali model LLM nazwany COCONUT, który rozszerza granice logicznego rozumowania systemów AI poprzez pracę w tzw. “latent space”. Zamiast tłumaczenia każdego kroku logicznego na język naturalny, model operuje na ukrytych reprezentacjach danych, co pozwala na równoległe rozważanie wielu potencjalnych ścieżek rozumowania. Dzięki temu model radzi sobie lepiej z bardziej złożonymi zadaniami logicznymi, eliminując problemy tradycyjnych metod opartych na „rozmowach łańcuchowych”, choć jego wydajność w prostszych testach pozostaje na podobnym poziomie.

https://arstechnica.com/ai/2024/12/are-llms-capable-of-non-verbal-reasoning

Klarna zwalnia ludzi przez AI, ale też szuka nowych pracowników

Klarna, znana z usług „kup teraz, zapłać później,” zmniejszyła zatrudnienie, dzięki wdrożeniu generatywnej AI, co według CEO Sebastiana Siemiatkowskiego już zastępuje wiele ludzkich zadań. Mimo tej optymistycznej wizji, firma nadal poszukuje nowych pracowników na kluczowe stanowiska, co podkreśla nierówne tempo implementacji AI w różnych dziedzinach biznesu. Obserwatorzy sugerują, że promowanie AI może również służyć budowaniu wizerunku przed nadchodzącym IPO Klarna.

https://techcrunch.com/2024/12/14/klarnas-ceo-says-it-stopped-hiring-thanks-to-ai-but-still-advertises-many-open-positions/

Czy sztuczna inteligencja będzie miała dość danych?

Badania wskazują, że do 2028 roku zbiory danych dostępne w Internecie mogą przestać wystarczać do trenowania dużych modeli językowych (LLM), co wynika z rosnącego tempa konsumpcji zasobów tekstowych i ograniczeń obejmujących prawa autorskie oraz blokowanie crawlerów. Firmy takie jak OpenAI sugerują rozwiązania, w tym generowanie danych syntetycznych lub wykorzystywanie treści specjalistycznych, ale nawet te środki mogą opóźnić problem jedynie o kilka lat. To może skierować rozwój AI w stronę mniejszych, wyspecjalizowanych modeli lub integracji danych z innych dziedzin — od genomiki po analizę wideo — co otwiera dyskusję o etyce i przyszłości dostępności danych w branży.

https://www.nature.com/articles/d41586-024-03990-2

„Halucynacje” AI – klucz do szybszych odkryć naukowych

Naukowcy odkrywają, że „halucynacje” generowane przez AI – czyli wygenerowane przez modele dane, które nie mają oparcia w rzeczywistości – mogą być skutecznym narzędziem dla innowacji. Te fikcyjne twory przyspieszają procesy badawcze, pomagając w projektowaniu leków, odkrywaniu nowych molekuł czy rozwoju technologii medycznych. Dzięki AI fazy generowania hipotez i testowania w naukowym procesie mogą być prowadzone znacznie szybciej, co otwiera nowe możliwości eksploracji w badaniach podstawowych i przemysłowych.

https://www.nytimes.com/2024/12/23/science/ai-hallucinations-science.html

Google szkoli swoje AI korzystając z Claude?

Google wykorzystuje model Claude od Anthropic do oceny i poprawy wyników swojej sztucznej inteligencji Gemini. Zespoły oceniające porównują odpowiedzi obu modeli pod względem kryteriów takich jak dokładność oraz bezpieczeństwo, zauważając, że Claude cechuje się bardziej rygorystycznymi ustawieniami bezpieczeństwa. Mimo zapewnień Google, że Claude nie jest używany do trenowania Gemini, pojawiają się pytania o zgodność tego procesu z warunkami Anthropic, co może wpłynąć na relacje między kluczowymi graczami w branży AI.

https://techcrunch.com/2024/12/24/google-is-using-anthropics-claude-to-improve-its-gemini-ai/

Kling 1.6 – nowa narzędzie text-to-video

Kling 1.6 to nowa wersja znanego modelu AI do generacji wideo z tekstu.

https://twitter.com/madpencil_/status/1872510866975084822

Dzięki za przeczytanie i do usłyszenia w 2025! 🎉


Komentarze

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *