OpenAI wypuścił GPT-4.5

W czwartek ukazała się wersja zapoznawcza OpenAI GPT‑4.5, największego, najbardziej zaawansowanego i wyposażonego w największą wiedzę modelu AI tego producenta. GPT-4.5 opiera się na GPT-4o i został zaprojektowany do bardziej uniwersalnych zastosowań niż modele wnioskujące, specjalizujące się w zadaniach STEM.

Nowatorskie metody trenowania AI przyniosły efekty

OpenAI wytrenowało swój najmocniejszy model przy użyciu nowych technik nadzoru w połączeniu z tradycyjnymi metodami, takimi jak supervised fine-tuning (SFT) oraz reinforcement learning from human feedback (RLHF), których użyto wcześniej dla GPT-4o. Firma przeprowadziła rozległe testy bezpieczeństwa przed wdrożeniem i nie znalazła żadnego wzrostu zagrożenia w porównaniu z istniejącymi modelami sztucznej inteligencji.

Wczesne testy pokazują, że interakcja z GPT-4.5 odczuwana jest jako bardziej naturalna. Jego bardziej rozległa baza wiedzy, mocniejsze dopasowanie do intencji użytkownika i ulepszona inteligencja emocjonalna sprawiają, że jest dobrze dopasowany do zadań, takich jak pisanie, programowanie i rozwiązywanie praktycznych problemów – z mniejszą ilością halucynacji. Udostępniamy GPT-4.5 jako research preview, aby lepiej zrozumieć jego mocne strony i ograniczenia. Nadal eksplorujemy jego możliwości i jesteśmy ciekawi, jak ludzie używają go w sposoby, których mogliśmy się nigdy nie spodziewać. – OpenAI

GPT-4.5-benchmark

Nowy model sztucznej inteligencji lepiej rozumie świat i emocje

OpenAI rozwinęło możliwości sztucznej inteligencji, skalując dwa uzupełniające się paradygmaty: nienadzorowane uczenie (unsupervised learning) oraz wnioskowanie (reasoning):

  1. Skalowanie wnioskowania uczy modele myśleć i produkować łańcuchy myśli, zanim udzielą odpowiedzi, co pozwala im rozwiązywać złożone problemy STEM lub logiczne. Modele takie jak OpenAI o1 i OpenAI o3-mini rozwijają ten paradygmat.
  2. Uczenie bez nadzoru zwiększa z kolei trafność i intuicję modelu AI.

GPT-4.5 to przykład skalowania nienadzorowanego uczenia poprzez skalowanie mocy obliczeniowej i danych wraz z innowacjami z zakresu architektury i optymalizacji. GPT-4.5 został wytrenowany na superkomputerach Microsoft Azure AI. Rezultatem jest model z większym zakresem wiedzy i głębszym zrozumieniem świata, prowadzący do redukcji halucynacji i większej niezawodności w szerszym zakresie tematów. – OpenAI

OpenAI GPT-4.5 dostępny dla deweloperów i płatnych użytkowników ChatGPT

GPT-4.5 jest już dostępny w ChatGPT Pro. Jego klienci mogą wybrać ten model w przeglądarkowej, mobilnej i desktopowej wersji aplikacji. W przyszłym tygodniu OpenAI zacznie udostępniać nowy model subskrybentom Plus i Team, a w jeszcze następnym tygodniu trafi do użytkowników Edu i Enterprise.

Wersja zapoznawcza GPT-4.5 jest także dostępna dla deweloperów poprzez Chat Completions API, Assistants API, oraz Batch API w płatnych planach. Model obsługuje kluczowe funkcjonalności, takie jak wywoływanie funkcji, Structured Outputs, streaming i wiadomości systemowe, a także przetwarzanie obrazów, które przyjmuje jako dane wejściowe.

Wczesne testy wykazały, że GPT-4.5 może okazać się przydatny dla deweloperów tworzących aplikacje AI szczególnie dzięki temu, że wykazuje dużą inteligencję emocjonalną i kreatywność. Może więc wspomagać użytkowników jako pomoc w pisaniu, komunikacji, nauce, coachingu i burzy mózgów. Agenty AI mogą zaś skorzystać z jego zdolności planowania i wykonywania, wliczając w to wieloetapowe przepływy pracy kodowania i automatyzację złożonych zadań.

OpenAI wypuścił GPT-4.5

GPT-4.5 wymaga dużej mocy obliczeniowej i nie jest tani

W porównaniu z małymi modelami językowymi, które ostatnio radzą sobie wyjątkowo dobrze, najnowsze dzieło OpenAI nie spuszcza nogi z gazu. Jak wiemy, duże modele AI działają na wyższych obrotach niż ich wersje mini, a ich wytrenowanie także jest kosztownym procesem. Wspomina o tym producent:

GPT-4.5 to bardzo duży i intensywny obliczeniowo model, przez co jest droższy niż GPT-4o i nie ma na celu jego zastąpienia. Z tego powodu oceniamy, czy kontynuować jego użycie w API w perspektywie długoterminowej, jako że balansujemy wspieranie obecnych możliwości z budowaniem przyszłych modeli. – OpenAI

OpenAI traktuje więc GPT-4.5 raczej jako pokaz możliwości niż prawowitego następcę GPT-4o. Starsze, bardziej ekonomiczne modele AI pozostają dalej w użyciu, a firma wciąż szuka różnych kompromisów.

Elon Musk chwali rozwiązania AI Microsoftu

Musk-Trump AI Microsoft

Elon Musk zaciekle rywalizuje z OpenAI i próbuje ingerować w jego strategię. Nie przeszkadza mu to jednak docenić działań Microsoftu na tym polu. Kontrowersyjny miliarder, właściciel xAI, Tesli i wielu innych przedsiębiorstw, a od niedawna także doradca Donalda Trumpa, pochlebnie skomentował niedawnego tweeta Satyi Nadelli.

Satya Nadella udostępnił na portalu X wideo, które opowiada, jak sztuczna inteligencja jest używana, by pomóc farmerom z Indii zwiększyć plony i wprowadzić bardziej zrównoważone praktyki. Fantastyczny przykład wpływu AI na rolnictwo – napisał CEO Microsoft. Na filmie widzimy, jak drobni rolnicy z indyjskiej kooperatywy mogą korzystać z nowych technologii, aby zwiększyć wydajność plonów, zmniejszyć użycie chemikaliów, zoptymalizować zużycie wody i nie tylko.

Omawiana technologia łączy sztuczną inteligencję, sensory, dane geoprzestrzenne oraz dane czasoprzestrzenne z dronów, satelit i gleby. Wszystko to łączy się w czasie rzeczywistym, jest przetwarzane przez AI i wraca do farmerów w postaci wiedzy. Rolnicy mogą zadawać agentowi AI pytania w swoim własnym języku i uzyskiwać praktyczne wskazówki na ekranie smartfona. Fenomenalnie jest to widzieć – mówi Nadella.

Co na to wszystko Elon Musk? Przedsiębiorca wielokrotnie krytykował działania Microsoftu i jego relacje z OpenAI, ale najwidoczniej nie ma zastrzeżeń co do praktycznych zastosowań ich sztucznej inteligencji. W odpowiedzi na tweeta Nadelli napisała, że „AI ulepszy wszystko”.

„AI will improve everything” to świetny slogan, który podsumowuje to, jak na sztuczną inteligencję zapatrują się liderzy big tech. Z drugiej strony postawa Muska sprawia wrażenie ambiwalentnej. Co prawda chwali on egalitarne działania Microsoftu i uważa, że misją OpenAI powinno być służenie ludzkości, ale jego ostatnie działania na arenie politycznej zdają się temu przeczyć. Sztuczna inteligencja jest wyjątkowym polem, którego optyka każe nam zastanowić się nad relacjami drobnych rolników i megakorporacji, a także odpowiedzieć sobie na pytanie – ratować Ziemię czy lecieć na Marsa?

Dwie funkcje Copilot Pro dostępne za darmo bez limitu

Copilot Pro F

Microsoft wypuścił Copilota dwa lata temu i odtąd ciągle go ulepsza. W międzyczasie pojawiły się płatne, lepiej wyposażone warianty Copilot Pro i Microsoft 365 Copilot. Jak to czasem bywa, funkcje premium przechodzą do darmowej wersji. Tym razem to dwa narzędzia rodem z Copilot Pro: Voice i Think Deeper. Co dokładnie potrafią?

Obie funkcje napędzane są przez wyjątkowo zdolny model sztucznej inteligencji OpenAI o1. Od dzisiaj użytkownicy darmowego Copilota mają do nich nielimitowany dostęp. Teraz możemy prowadzić rozległe konwersacje z Copilotem, używając Voice, oraz korzystać z zaawansowanych modeli wnioskowania Think Deeper, aby rozwiązywać bardziej złożone zadania i uzyskiwać odpowiedzi na skomplikowane pytania.

Użyj Voice, aby przećwiczyć parę prostych zwrotów w nowym języku, co pomoże Ci nawigować gdy odwiedzasz nowy kraj albo poznajesz nowych ludzi; powiedz Copilotowi o pracy, o którą się ubiegasz, i o swoim doświadczeniu zawodowym oraz poproś go, by odegrał z Tobą rozmowę kwalifikacyjną; albo otrzymaj porady kulinarne bez używania rąk, podążając za nowym przepisem krok po kroku – zachęca Microsoft.

Think Deeper jest przydatny w ogarnianiu bardziej złożonych tematów jak robienie dużego zakupu, szacowanie przyszłej wartości remontu domu czy planowanie zmiany w karierze. Oto kilka pomysłów na prompty, z którymi możesz zacząć:

  • Porównaj najlepsze samochody elektryczne. Zwykle cenię wyżej design i komfort i chcę mieć poczucie, że moje zakupy są „odporne na przyszłość”. Stwórz nowatorski system punktacji, który pomoże mi w ocenie.
  • Mam 15 tys. do wydania na remont domu. Zastanawiam się między wyspą kuchenną, zaktualizowaną łazienką i wymianą dachu. Co zwiększy wartość mojego domu po 3 latach?
  • Żyję w dzielnicy, w której dochodzi do przerw w dostawie prądu podczas silnego wiatru. Powinienem kupić generator? Jakie są wady i zalety, rzeczy, które powinienem brać pod uwagę, wpływ na mój budżet i wygodę?

— The Copilot Team, Microsoft

Microsoft dodaje, że użytkownicy Copilot Pro zachowają preferowany dostęp do najnowszych modeli podczas szczytowego wykorzystania, wczesny dostęp do eksperymentalnych funkcji AI (więcej już wkrótce) i dodatkowe użycie Copilota w wybranych aplikacjach Microsoft 365, takich jak Word, Excel i PowerPoint.

Microsoft wprowadza nowe, małe modele AI: Phi-4-multimodal i Phi-4-mini

Phi-4-Azure

W grudniu zeszłego roku Microsoft wypuścił Phi-4, mały model językowy (SLM) o najwyższej wydajności w swojej klasie. Teraz gigant rozszerza rodzinę tego modelu sztucznej inteligencji o 2 nowe warianty: Phi-4-multimodal oraz Phi-4-mini. Są one nakierowane odpowiednio na pracę z wieloma typami danych jednocześnie oraz osiąganie rezultatów dorównujących dużym modelom przy mniejszym zapotrzebowaniu obliczeniowym.

Phi-4-multimodal – nowy model multimodalny od Microsoft

Phi-4-multimodal to model multimodalny, który obsługuje mowę, obraz i tekst jednocześnie. Jest to model AI o 5,6 mld parametrów, a także pierwszy mutlimodalny model językowy Microsoftu, który integruje 3 wspomniane typy zawartości i przetwarza je w pojedynczej, zunifikowanej architekturze. W porównaniu do innych wysokiej klasy modeli omni, takich jak Google Gemini 2.0 Flash czy Gemini 2.0 Flash Lite, Phi-4-multimodal osiąga wyższą wydajność w wielu benchmarkach, co możecie prześledzić w tabeli poniżej.

W zadaniach opartych na mowie Phi-4-multimodal prześciga wyspecjalizowane modele mowy, takie jak WhisperV3 oraz SeamlessM4T-v2-Large, zarówno w automatycznym rozpoznawaniu mowy (ASR), jak i tłumaczeniu mowy (ST). Microsoft podaje, że model ten osiągnął najwyższą pozycję na tablicy liderów Hugging Face OpenASR z imponująco niskim współczynnikiem błędów słów (6,14%).

W zadaniach powiązanych z rozpoznawaniem obrazów (computer vision), w tym w zadaniach wymagających wnioskowania w obszarach matematyki i nauk ścisłych, multimodalny wariant Phi-4 również osiąga mocne rezultaty. W przypadku typowych umiejętności multimodalnych, takich jak rozumienie dokumentów i wykresów, OCR i wizualne rozumowanie naukowe, nowy model wyprzedza popularnych rywali, takich jak Gemini-2-Flash-lite-preview i Claude-3.5-Sonnet.

Phi-4-mini – nowy model tekstowy SLM

Phi-4-mini to z kolei mały model językowy (SLM) o 3,8 mld parametrów, który wyprzedza parę znanych dużych modeli językowych (LLMs) w zadaniach opartych na tekście. Obejmuje to wnioskowanie, zadania matematyczne, kodowanie, podążanie za instrukcjami i wywoływanie funkcji.

Aby zapewnić bezpieczeństwo tych nowych modeli AI, Microsoft poprowadził testy wspólnie z wewnętrznymi i zewnętrznymi specjalistami z dziedziny security, a także zaimplementował strategie opracowane przez zespół Microsoft AI Red Team (AIRT). Oba modele mogą być wdrażane bezpośrednio na urządzeniu i dalej optymalizowane przy pomocy środowiska ONNX Runtime. Daje im to zgodność międzyplatformową i czyni je to odpowiednimi w scenariuszach zarówno niskobudżetowych, jak i wymagających niskiej latencji.

Phi-4-mini-language-benchmarks

Phi-4-multimodal i Phi-4-mini są już dostępne dla deweloperów w Azure AI Foundry, Hugging Face oraz NVIDIA API Catalog. Deweloperzy mogą przejrzeć dokumentację techniczną, aby poznać zarys rekomendowanych sposobów użycia modeli oraz ich ograniczeń.

Nowe modele sztucznej inteligencji Microsoftu dowodzą znaczących osiągnięć na polu mniejszej i tańszej AI, która potrafi być równie wydajna, co duże, kosztowne modele działające tylko w centrach danych. Takie niewielkie modele uruchamiające się lokalnie na urządzeniu można z powodzeniem zastosować w aplikacjach AI.

Microsoft Copilot dostał aplikację na macOS. W końcu!

Copilot-macOS-app

Microsoft ogłosił wydanie dedykowanej aplikacji Copilot na macOS. Do tej pory użytkownicy komputerów Mac mogli co najwyżej uruchamiać asystenta AI w przeglądarce. Jak sprawuje się nowa aplikacja i jak ją włączyć?

Dotąd pełnoprawna aplikacja Microsoft Copilot została wydana na Windows, Androida i iOS. W międzyczasie pojawił się też na krótko port na iPada, ale został zdjęty. Użytkownicy Maców byli więc zmuszeni do otwierania Copilota w aplikacji internetowej w przeglądarce. Zmieniło się to dopiero wczoraj.

Teraz dostępny w App Store (i w moim docku): Copilot dla MacOS 🍎 Nie wiem, jak mogłem kiedykolwiek żyć bez option+spacja z milionem rzeczy dziennie, o które proszę Copilota. Miłośnicy Apple’a, wasze Maki mogą teraz dołączyć do imprezy z iPhonem i iPadem. Sprawdźcie to teraz i dajcie mi znać, co myślicie! – Mustafa Suleyman, CEO Microsoft AI

Oprócz wszystkich funkcji dostępnych w Internecie dedykowana aplikacja oferuje dodatkowe wsparcie dla skrótu klawiszowego. Na komputerze Mac możesz teraz nacisnąć Option + Spacja, aby otworzyć niewielkie okienko wprowadzania, w którym możesz wpisać wiadomość albo rozpocząć czat głosowy z Copilotem.

Na ten moment istnieją pewne ograniczenia. Copilot dla komputerów Mac wymaga wersji macOS 14 lub nowszej. Nie działa też na Macach z procesorami Intel – wspierane są jedynie te z chipami Apple M1 lub nowszymi. Przede wszystkim jednak aplikacja Copilot została wydana tylko w Stanach Zjednoczonych i Wielkiej Brytanii. Microsoft zapowiada jednak, że już wkrótce dołączą do nich kolejne regiony.

Microsoft Copilot na macOS można pobrać bezpłatnie z Mac App Store.

EU Data Boundary ukończone. Dane klientów Microsoft pozostaną w Europie

Microsoft-UE

W 2021 roku Microsoft zapowiedział nowe rozwiązanie EU Data Boundary dla klientów chmury obliczeniowej. Dzięki niemu użytkownicy mogą przechowywać i przetwarzać swoje dane w granicach Unii Europejskiej. Dotyczy to danych w usługach Microsoft 365, Azure, Power Platform i Dynamics 365. Wdrażanie programu podzielono na etapy, a ostatni z nich wreszcie został ukończony.

Aby zachować bezpieczeństwo, stabilność i wysoką jakość dla swoich klientów, Microsoft zaplanował wdrażanie EU Data Boundary w kilku etapach. Faza pierwsza wystartowała w styczniu 2023 r., umożliwiając magazynowanie i przetwarzanie danych klientów w obrębie UE – początkowo jedynie dla kluczowych usług Microsoft 365, Power Platform, Dynamics 365 i Microsoft Azure. Początek drugiej fazy to styczeń 2024 r. Wprowadziła ona pseudonimizowanie danych osobowych, aby upewnić się, że dane, które zapobiegają bezpośredniej identyfikacji, pozostają w regionach Unii Europejskiej.

EU_Data_Boundary

Microsoft ogłosił wczoraj ukończenie wdrażania EU Data Boundary wraz z wydaniem fazy trzeciej (Phase 3). Teraz, gdy klienci z UE i EFTA proszą o wsparcie techniczne dla usług Microsoft 365, Power Platform i Dynamics 365, dane profesjonalnych usług, w tym dzienniki udostępniane przez klientów i notatki dotyczące przypadków pomocy technicznej generowane przez Microsoft, będą przechowywane w regionach UE i EFTA.

Gigant zaznaczył, że implementacja EU Data Boundary wymagała rozległych, wieloletnich starań inżynierów z setek zespołów produktowych Microsoftu oraz tysięcy deweloperów z całego świata.

W Microsoft wierzymy, że technologia chmurowa może być innowacyjna, bezpieczna i zbudowana, by chronić europejskie wartości. EU Data Boundary dla Microsoft Cloud to kolejny przykład tego, jak pracujemy, by wspomagać europejskie organizacje poprzez rozwiązania i narzędzia, których potrzebują, by wzrastać i rozkwitać w nowoczesnym, bezpiecznym środowisku chmurowym. – Julie Brill, CVP i CPO, oraz Paul Lorimer, CVP w Microsoft 365

Microsoft_Cloud_UE_inwestycje

Przypomnijmy, że EU Data Boundary działa w następujących krajach UE i EFTA: Austria, Belgia, Bułgaria, Chorwacja, Cypr, Czechy, Dania, Estonia, Finlandia, Francja, Niemcy, Grecja, Węgry, Irlandia, Włochy, Łotwa, Litwa, Luksemburg, Malta, Holandia, Polska, Portugalia, Rumunia, Słowacja, Słowenia, Hiszpania, Szwecja, Liechtenstein, Islandia, Norwegia i Szwajcaria.

Satya Nadella: miarą sukcesu AI będzie wzrost gospodarczy, a nie benchmarki

Satya-AI-MS

Satya Nadella już w przeszłości mówił, które wskaźniki się liczą, a które nie. Jego zdaniem dokładna wartość rynkowa Microsoftu czy to, która firma jest najwyżej wyceniana na świecie, nie jest tak istotne. Szef Microsoftu podobnie widzi ocenianie sztucznej inteligencji. Według niego wyniki modeli AI w benchmarkach to kwestia drugorzędna. Liczy się to, jak AI (w tym jej podrasowana wersja AGI) realnie wpłynie na wzrost gospodarczy oraz… czy zabierze nam pracę.

W niedawnym wywiadzie Satya Nadella powiedział, że miarą sukcesu sztucznej inteligencji będzie namacalny, globalny wzrost gospodarczy, a nie arbitralne benchmarki, które mierzą, jak dobrze programy AI mogą rywalizować w wyzwaniach, takich jak rozwiązywanie niejasnych zagadek matematycznych. Są one interesujące w oderwaniu od rzeczywistości, ale nie mają praktycznego zastosowania.

Czy zabieranie ludziom pracy przez AI ma odwrócić uwagę od istotnych problemów?

CEO Microsoft odniósł się też do palącego ostatnio pytania – czy sztuczna inteligencja zabierze ludziom pracę. AGI, czyli AI ogólnego zastosowania, według bardziej pesymistycznych wizjonerów zastąpi ludzi, a ci nie otrzymają nic w zamian. Opodatkowanie maszyn i AI oraz wprowadzenie bezwarunkowego dochodu podstawowego w obecnym klimacie politycznym wydaje się bowiem odległe i mało realne. Satya Nadella rozwiewa te obawy. Według niego nie dojdzie do zastąpienia ludzi, a mówienie o tym to niepotrzebne rozpraszanie uwagi, gdy branża musi stać się praktyczna i po prostu spróbować zarobić pieniądze, zanim inwestorzy stracą cierpliwość.

Microsoft jest głównym inwestorem OpenAI, firmy, której CEO Sam Altman od dawna wyrażał zaniepokojenie tym, że AI w końcu może opanować świat. Krytycy twierdzą, że to straszenie ma na celu przede wszystkim umieszczenie Altmana w centrum władzy i utrzymanie kontroli poprzez przejęcie regulacji. Z drugiej strony, w odpowiedzi na niedawną propozycję wykupienia OpenAI przez Elona Muska, Altman oświadczył, że struktura firmy jest tak skonstruowana, by jedna osoba nie mogła mieć nad nią władzy.

Jeśli będziemy mieli tę eksplozję, obfitość, cokolwiek, dostępny towar inteligencji, to pierwszą rzeczą, jaką zaobserwujemy, będzie wzrost Produktu krajowego brutto (GDP). To tutaj wybiegamy trochę w przyszłość z całym tym hypem wokół AGI. Kiedy mówimy, że to jest jak rewolucja przemysłowa, to miejmy ten typ wzrostu typowy dla rewolucji przemysłowej. – Satya Nadella, CEO Microsoft

AI jako nowa rewolucja przemysłowa będzie mieć znaczny wpływ na wzrost gospodarczy

Według Nadelli nawet 10% wzrost skorygowany o inflację i przypisany AI dowiódłby, że jest to technologia na miarę kolejnej rewolucji przemysłowej. Jego zdaniem inwestowane dziś miliardy w firmy AI nie liczą się jako prawdziwy wzrost GDP, ponieważ musi istnieć rzeczywisty popyt po drugiej stronie. W przeciwnym razie te firmy upadną i spłoną.

Mimo tego uspokajającego tonu Satyi Nadelli istnieją firmy, zwykle dostawcy usług i sprzętu napędzanego przez AI, które wprost chwalą się tym, że mogą one zastąpić ludzi. Spory szum wywołała wypowiedź CEO firmy Klarna, Sebastiana Siemiątkowskiego, który opowiadał, że zastąpi sztuczną inteligencją wielu swoich pracowników. Przedsiębiorca wycofał się z tych słów, jednak późniejszy raport ujawnił, że Klarna zastąpiła podstawowy system drzewka telefonicznego sztuczną inteligencją, co nie było szczególnie innowacyjne i sprawiło, że sfrustrowani klienci opuszczali czat.

Agenty AI mogą świetnie wspomagać ludzkich pracowników i zwiększyć ich wydajność. Jeśli jednak firma liczy na poważne oszczędności, zwalniając ludzi i na ich miejsce obsadzając kulawą AI, to efekt będzie odwrotny do zamierzonego… przynajmniej na razie, póki silna sztuczna inteligencja jest na etapie konceptualizowania.