Elon Musk dalej nie może przeboleć faktu, że nie ma już kontroli nad OpenAI. Jego działania sądowe spaliły na panewce, więc spróbował innymi drzwiami, zbierając grupę inwestorów i oferując 97,4 miliarda dolarów za przejęcie firmy. Oferta została odrzucona w wielkim stylu, a CEO OpenAI, Sam Altman, nie poszczędził sarkazmu.
Konsorcjum inwestorów Muska obejmuje jego własną firmę xAI, a także Valor Equity Partners, Baron Capital, Atreides Management, Vy Capital, 8VC oraz Ariego Emanuela, CEO Endeavor. Gdyby mu się powiodło, Musk najpewniej przeprowadziłby fuzję xAI z OpenAI. To czas, by OpenAI powróciło do open-source’owej, skupionej na bezpieczeństwie siły, jaką kiedyś było. Upewnimy się, że tak się stanie – powiedział kontrowersyjny miliarder w oświadczeniu. Szef OpenAI, Sam Altman, odpowiedział na to bez wahania i nie szczędząc złośliwości – Nie, dziękujemy, ale możemy kupić Twittera za 9,74 miliarda, jeśli chcesz…
Prawnik Elona Muska, Marc Toberoff, powiedział, że w poniedziałek złożył ofertę przejęcia wszystkich aktywów organizacji non-profit zarządowi OpenAI. Mimo że została odrzucona, oferta ta komplikuje starannie tworzone plany dotyczące przyszłości OpenAI, w tym jego konwersję do modelu for-profit i wykorzystanie do 500 mld dolarów na budowę infrastruktury AI w ramach projektu Stargate. OpenAI i Musk walczą już bowiem w sądzie o kierunek rozwoju firmy.
Nasza struktura zapewnia, że żadna osoba nie może przejąć kontroli nad OpenAI… To są taktyki, które próbują nas osłabić, ponieważ czynimy wielkie postępy – napisał Altman do pracowników.
Kolejna inwestycja Microsoft w Polsce
Do 2026 roku Microsoft planuje zainwestować w Polsce około bagatela 2,8 miliarda złotych!
Środki te zostaną przeznaczone na rozwój mocy obliczeniowych, chmury i sztucznej inteligencji. W praktyce oznacza to dalszą rozbudowę Microsoft Technology Center, które firma otworzyła w Warszawie w 2019 roku, pozwalając tym samym polskim klientom korzystać z laboratorium kompetencji i wiedzy technologicznej Microsoft oraz partnerów firmy.
W rozmowie z premierem Donaldem Tuskiem, Wiceprezes i Prezydent Microsoft Brad Smith wspomniał również o trzeciej fazie inwestycji po 2026 roku. Na ten moment nie podano jednak żadnych szczegółów finansowych. Bez wątpienia inwestycja tego biznesowego giganta to kolejny dowód na strategiczne znaczenie Polski podczas swojej już 30-steletniej obecności w naszym kraju.
Meta trenowała AI na pirackich ebookach
Trenowanie sztucznej inteligencji na danych objętych prawami autorskimi wzbudza wiele kontrowersji. Z jednej strony fascynuje nas wizja AI, która posiadła całą spisaną wiedzę ludzkości, a z drugiej – nieskrępowane korzystanie z chronionej własności intelektualnej można uznać za naruszenie zasad etycznych i prawnych. Meta zdaje się nimi nie przejmować.
Meta (dawniej Facebook) to dziś jeden z czołowych twórców sztucznej inteligencji. Jak w przypadku większości modeli, również jego były szkolone na dużych zestawach danych. Okazuje się, że nie do końca legalnie pozyskanych. W styczniu wniesiono pozew, oskarżający Metę o trenowanie jej modeli AI na zestawie danych składającym się z pirackich ebooków i artykułów. Ujawnione e-maile dostarczyły nowych dowodów przeciwko firmie Marka Zuckerberga w sprawie dotyczącej praw autorskich, wytoczonej przez autorów książek.
Autorzy oskarżyli Meta o nielegalne trenowanie modeli AI na pirackich książkach. Zarzuty te zostały teraz dodatkowo potwierdzone przez ujawnioną korespondencję. E-maile te ujawniły, że Meta przyznała się do pobrania z torrentów kontrowersyjnego, dużego zestawu danych LibGen, który zawiera dziesiątki milionów spiraconych książek. Według autorów pozwu Meta pobrała przynajmniej 81,7 terabajta danych z wielu szemranych bibliotek poprzez witrynę Anna’s Archive, w tym przynajmniej 35,7 TB danych z LibGen i Z-Library. Oprócz tego firma pobrała wcześniej 80,6 TB danych z LibGen.
Oskarżyciele opisali skalę tego nielegalnego procederu jako zdumiewającą, zauważając, że znacznie mniejsze akty piractwa danych – zaledwie 0,008% ilości chronionych prawem autorskim utworów, które Meta przejęła – doprowadziły do tego, że sędziowie skierowali sprawę do prokuratury USA w celu wszczęcia dochodzenia karnego. E-maile wykazały, że pracownicy Mety byli świadomi ryzyka prawnego związanego z ich działaniami. W kwietniu 2023 r. Nikolay Bashlykov, inżynier badawczy w Meta, napisał, że pobieranie torrentów z firmowego laptopa nie wydaje się właściwe.
Kilka miesięcy później Bashlykov skontaktował się z zespołem prawnym. Używanie torrentów oznacza 'seedowanie’ plików, tj. udostępnianie zawartości na zewnątrz. To może być legalnie nie OK – pisał. Mimo tych ostrzeżeń – jak uważają autorzy – Meta postanowiła ukryć aktywność seedowania, ustawiając je na najniższą możliwą przepustowość. Firma próbowała też najprawdopodobniej uniknąć ryzyka, by ktokolwiek namierzył ją jako seedującego/pobierającego, ściągając dane na inne serwery.
Jak sztuczna inteligencja pomaga planecie?
Szkoły w słonecznej Gruzji mają ten sam problem, co sklepy z meblami w śnieżnej Minnesocie. Gdy na zewnątrz robi się gorąco lub zimno, w obu tych miejscach mają jeden sposób, by w środku zrobiło się komfortowo: zablokować powietrze z zewnątrz i włączyć ogrzewanie lub klimatyzację. Oba te rozwiązania to pożeracze energii.
Tak było wcześniej. Teraz narzędzia AI pomagają im zautomatyzować strategie oszczędzania energii, w tym integrację świeżego powietrza i zmniejszenia przepływu powietrza do pustych pomieszczeń. Wzięliśmy złożoność zarządzania budynkiem – śledzenie w czasie rzeczywistym pogody, zajęcia, jakości powietrza i wydajności urządzeń – i stworzyliśmy autopilota „smart energy”, który działa w budynkach o dowolnym rozmiarze i jest łatwy w użyciu – mówi Dave Koerner z 75F.
Nie można dokładnie przewidzieć, jak AI wpłynie na postępy w zrównoważonym rozwoju na dłuższą metę, ale wiemy, że ma ona trzy umiejętności, które mogą okazać się game-changerami. Jakie to umiejętności i w jaki sposób AI już teraz pomaga naszej planecie? Dowiedz się tego z artykułu: „Jak sztuczna inteligencja pomaga planecie? Poznaj 3 sposoby.”
Plan OpenAI na 2026 rok: masowa produkcja chipów AI
OpenAI planuje uniezależnić się od Nvidii w kwestii dostaw układów scalonych i opracowuje pierwszą generację własnych chipów AI. Firma finalizuje projekt pierwszego układu i zamierza wysłać go do produkcji w Taiwan Semiconductor Manufacturing Co (TSMC) w ciągu kilku miesięcy. Proces wysyłki pierwszego designu do fabryki chipów nazywa się taping out.
Jak podają źródła, OpenAI jest na dobrej drodze do masowej produkcji własnych chipów AI w 2026 roku. Typowy tape-out kosztuje dziesiątki milionów dolarów i trwa około 6 miesięcy. OpenAI może jednak zapłacić więcej za przyspieszoną produkcję. Nie ma gwarancji, że pierwszy tape-out się powiedzie. Jeśli nie, to konieczne będzie zdiagnozowanie problemu i powtórzenie tego etapu.
W OpenAI ten skupiony na treningu układ jest postrzegany jako narzędzie strategiczne do wzmocnienia pozycji negocjacyjnej OpenAI z innymi dostawcami układów. Po tym pierwszym chipie inżynierowie OpenAI planują opracowywać coraz bardziej zaawansowane procesory z każdą nową iteracją. Jeśli pierwszy tape-out zakończy się sukcesem, umożliwi to masową produkcję pierwszego własnego układu AI i przetestowanie go jako alternatywy dla układów Nvidia jeszcze w tym roku.
Duże firmy technologiczne, takie jak Microsoft i Meta, także próbowały swoich sił przy produkcji własnych chipów AI, ale mimo wieloletnich starań nie osiągnęły zadowalających rezultatów. Układ budowany przez OpenAI wydaje się bardziej obiecujący. Jest on projektowany przez wewnętrzny zespół kierowany przez Richarda Ho, który w ciągu ostatnich miesięcy dwukrotnie zwiększył liczebność do 40 osób, we współpracy z Broadcom. Ho dołączył do OpenAI ponad rok temu, przechodząc z Google, gdzie pomagał prowadzić program własnego chipa AI.
Zespół ten jest mniejszy niż podobne grupy w Google czy Amazon. Nowy projekt układu dla ambitnego programu na dużą skalę może kosztować nawet 500 milionów dolarów za pojedynczą wersję. Dwa razy tyle potrzeba, by zbudować niezbędne oprogramowanie i peryferia. A skąd w ogóle potrzeba tylu układów?
Dzisiejsza generatywna sztuczna inteligencja działa przede wszystkim na układach Nvidia, które mają około 80% udziału w rynku. Przy coraz śmielszych projektach AI i rosnących kosztach poleganie na wyłącznie jednym dostawcy chipów może być nierozsądne. Dlatego też jej główni klienci – Microsoft, Meta i OpenAI – starają się opracować alternatywy. W przypadku OpenAI chip ten, zdolny zarówno do trenowania, jak i uruchamiania modeli sztucznej inteligencji, początkowo miałby zostać wprowadzony na mniejszą skalę i głównie służyć do uruchamiania modeli. Według doniesień układ ten będzie miał ograniczoną rolę w infrastrukturze firmy.
Modele generatywnej sztucznej inteligencji (GenAI) stają się coraz mądrzejsze, w związku z czym mają one nienasycony popyt na układy w centrach danych. Inwestycje na dużą skalę prowadzą już wszyscy czołowi gracze – Meta wyda 60 mld dolarów na infrastrukturę AI w przyszłym roku, a Microsoft – 80 mld dolarów w 2025 roku. OpenAI uczestniczy z kolei w projekcie Stargate, który jest 4-letnią inwestycją na 500 mld dolarów, mającą prowadzić do stworzenia AGI.
Kiedy wyjdzie GPT-5? Znamy już harmonogram
W ostatnich miesiącach temat GPT nieco ucichł po wydaniu OpenAI o1 i innych tańszych oraz wydajniejszych wariantów. Nie oznacza to jednak zakończenia linii GPT. Przeciwnie, jego kolejne iteracje są już w planach. Sam Altman zarysował harmonogram dla GPT-4.5 i GPT-5.
Jeszcze dwa lata temu zakładano, że model GPT-5 może być już silną sztuczną inteligencją, która zostanie opracowana do końca 2023 roku. Jak wiadomo, nic takiego się nie stało, a prace nad AGI – w tym w ramach potężnie finansowanego projektu Stargate – będą trwały dopiero przez najbliższe 4 lata. Równocześnie z tym OpenAI pracuje nad kolejnymi wersjami modelu sztucznej inteligencji GPT. Szczegółów dowiadujemy się z najnowszego tweeta Sama Altmana:
„AKTUALIZACJA PLANU DZIAŁANIA OPENAI DLA GPT-4.5 i GPT-5:
Chcemy lepiej dzielić się naszą mapą drogową i znacznie uprościć naszą ofertę produktów.
Chcemy, aby AI „po prostu działała” dla Was; zdajemy sobie sprawę, jak skomplikowane stały się nasze oferty modelu i produktów.
Nie znosimy selektora modeli tak samo jak Wy i chcemy wrócić do magicznej, zunifikowanej inteligencji.
Następnie wprowadzimy GPT-4.5, model nazywany wewnętrznie „Orion”, jako nasz ostatni model nieoparty na koncepcji łańcucha myślowego [non-chain-of-thought model].
Po tym naszym głównym celem będzie zunifikowanie modeli o-series i GPT-series poprzez stworzenie systemów, które mogą używać wszystkich naszych modeli, wiedzą, kiedy myśleć przez dłuższy czas, a kiedy nie, i ogólnie są przydatne w szerokim wachlarzu zadań.
Zarówno dla ChatGPT, jak i naszego API, wypuścimy GPT-5 jako system, który integruje wiele naszej technologii, w tym o3. Nie będziemy już udostępniać o3 jako samodzielny model. Darmowa wersja ChatGPT będzie miała nielimitowany dostęp do GPT-5 jako standardowego ustawienia inteligencji (!!!), z zastrzeżeniem progów nadużyć.
Subskrybenci planu Plus będą mogli uruchamiać GPT-5 na wyższym poziomie inteligencji, zaś subskrybenci Pro będą mogli uruchamiać GPT-5 na jeszcze wyższym poziomie inteligencji. Te modele będą obejmować głos, kanwy, wyszukiwanie, deep research i nie tylko.” — Sam Altman, CEO OpenAI
Nie wiadomo jeszcze, kiedy dokładnie ukażą się nowe, zunifikowane modele AI, ale biorąc pod uwagę tempo prac i skalę inwestycji, spodziewamy się już przynajmniej wersji preview w tym roku.