Na konferencji Microsoft Build 2025 (19-22 maja) padło sporo ogłoszeń nowych funkcji AI, a część z nich dotyczy systemu Windows, który dla wielu deweloperów stanowi podstawowe środowisko pracy. Aby ułatwić im rozwijanie i dostrajanie sztucznej inteligencji – w tym także lokalnie – Microsoft uruchamia nową platformę Windows AI Foundry. Gigant wprowadza też do Windowsa nowy protokół Model Context Protocol, który umożliwi bezpieczną pracę agentów AI.
Windows AI Foundry – nowa platforma dla deweloperów
Microsoft już od dawna wspiera budowanie aplikacji AI w Windows, choćby za sprawą Windows Copilot Runtime. Na swojej najnowszej konferencji deweloperskiej gigant przedstawił nowe środowisko Windows AI Foundry, które umożliwia lokalne rozwijanie sztucznej inteligencji w Windows. Opiera się ono na wspomnianym Windows Copilot Runtime, dodając do niego trochę nowych funkcjonalności. Platforma będzie oferować gotowe do użycia interfejsy API napędzane przez wbudowane modele AI, narzędzia do personalizacji modeli, możliwość wprowadzania open-source’owych modeli z Azure AI Foundry oraz środowisko uruchomieniowe do inferencji, umożliwiające deweloperom wprowadzanie ich własnych modeli.
Windows AI Foundry oferować będzie zunifikowaną i niezawodną platformę wspierającą cykl rozwoju AI na etapach treningu i inferencji. Dzięki prostszym APIs modeli do zadań wizualnych i językowych deweloperzy mogą zarządzać i uruchamiać open-source’owe LLMs poprzez Foundry Local albo wprowadzić własnościowy model do skonwertowania, fine-tuningu i wdrożenia w kliencie i chmurze. Windows AI Foundry jest już dostępny dzisiaj – informuje Microsoft.
Model Context Protocol w Windows 11 – bezpieczna agentowa przyszłość
Microsoft traktuje Windows 11 jako system agentowy, a więc taki, w którym można będzie bezpiecznie uruchamiać wiele agentów AI, aby wykonywały w imieniu użytkownika różne zadania, dzieląc się danymi i obowiązkami.
Jako że agenty AI potrafią coraz więcej i są coraz bardziej zintegrowane z naszymi codziennymi przepływami pracy, potrzeba bezpiecznej, ustandaryzowanej komunikacji między narzędziami i agentami nigdy nie była tak duża. Na Microsoft Build 2025 ogłaszamy wczesną wersję zapoznawczą tego, jak Windows 11 obejmuje Model Context Protocol (MCP) jako podstawową warstwę bezpiecznej, interoperacyjnej, agentowej platformy obliczeniowej – oraz jak ją zabezpieczamy – David Weston, VP Enterprise and OS Security w Microsoft
Model Context Protocol to lekki, otwarty protokół – właściwie jest to JSON-RCP over HTTP – który pozwala agentom i aplikacjom odkrywać oraz wywoływać narzędzia w ustandaryzowany sposób. Pomaga on również w orkiestracji lokalnych i zdalnych usług, pozwalając deweloperom budować je raz i integrować wszędzie.
Windows 11 będzie wspierał deweloperów budujących inteligentne aplikacje, którzy chcą używać MCP – wyjaśnia Weston. Platforma MCP stanie się dostępna dla programistów w najbliższych miesiącach.
Copilot Tuning – nowy sposób trenowania modeli w Microsoft Copilot Studio

Na konferencji Microsoft Build 2025 padło sporo zapowiedzi dotyczących Copilota. Część z nich dotyczy platformy Copilot Studio, która pozwala tworzyć własne agenty AI. Jedną z nowości jest Microsoft 365 Copilot Tuning, który pozwala każdej organizacji dostosowywać modele AI przy użyciu własnych danych, przepływów pracy i procesów. Zaprezentowano też orkiestrację wielu agentów, dzięki którym mogą one pracować w zespole, a także nowe formy ochrony i zarządzania.
Duże modele językowe (LLMs) oraz generowanie wspomagane wyszukiwaniem (RAG), mają wiele ograniczeń, zanim zostaną dostosowane do wymogów organizacji. Sztuczna inteligencja nie zawsze rozumie Twoją firmę razem z jej procesami, terminologią i stylem. Czatboty mogą dostarczać informacje z publicznie dostępnych zestawów danych, ale brakuje im świadomości kontekstowej. Wielu dostawców AI oferuje możliwość dostrojenia modeli (fine-tuning), aby miały one dobre rozeznanie w sprawach firmowych. Sęk w tym, że zwykle jest to proces czasochłonny, skomplikowany i zasobożerny.
Microsoft 365 Copilot Tuning to odpowiedź na te ograniczenia, ale też alternatywny sposób na fine-tuning dla firmy, pozbawiony obciążeń kosztowych i złożoności typowych dla innych rozwiązań. Twórcy (niekoniecznie deweloperzy) mogą użyć narzędzi low-code w Microsoft Copilot Studio, aby wykorzystać wysoce zautomatyzowane “przepisy” na fine-tuning, które pozwolą wytrenować model na danych organizacji, tak aby towarzyszył pracownikom w codziennych zadaniach.
Po zakończeniu treningu agenty AI, zbudowane w Agent Builder paroma kliknięciami, mogą wskoczyć do tych dostrojonych, ukierunkowanych na konkretne zadania modeli i łatwo zintegrować się z aplikacjami Microsoft 365, takimi jak Copilot Chat, Teams, Word czy SharePoint Agreements.
Agenty tworzone bez użycia kodu oraz dane klientów pozostają bezpieczne w granicach usługi Microsoft 365, zaś Microsoft nie używa ich do trenowania modeli bazowych. Copilot Tuning będzie dostępny od czerwca 2025 w ramach Microsoft 365 Copilot Tuning Early Adopter Program.
Orkiestracja wielu agentów AI w Microsoft Copilot Studio

Copilot to jeden z czołowych tematów na konferencji deweloperskiej Microsoft Build 2025. Widać tu wyraźnie rysowanie się nowego trendu, jakim jest podejście multi-agent. Zaprezentowano orkiestrację wielu agentów AI, dzięki którym mogą one pracować w drużynie oraz dzielić się danymi i obowiązkami. Przedstawiono także nowe formy ochrony i zarządzania agentami w Microsoft 365.
Orkiestracja wielu agentów w Copilot Studio
Jak podaje Microsoft, już 230 tysięcy ogranizacji – w tym 90% firm z listy Fortune 500 – korzysta z Copilot Studio, aby tworzyć i personalizować agenty. Według prognoz w 2028 roku działać będzie 1,3 miliarda agentów AI. Wiele z nich będzie ze sobą współpracować, co jest już od jakiegoś czasu możliwe dzięki nowym protokołom i usługom.
Orkiestracja wielu agentów (multi-agent orchestration) to nowa funkcjonalność Microsoft Copilot Studio, która umożliwia agentom wymienianie się danymi, współpracę przy zadaniach oraz dzielenie się zadaniami w zależności od umiejętności i doświadczenia poszczególnych agentów. Przykładowo w procesie onboardingu nowego pracownika współpracować mogą agenty AI wyspecjalizowane w HR, IT i marketingu. Ta funkcjonalność jest już dostępna w publicznej wersji zapoznawczej.
Microsoft ogłosił również, że teraz możemy wprowadzać do Copilot Studio własne modele (“bring your own models”) z integracją modeli Azure AI Foundry dla promptów i generatywnych odpowiedzi. Oznacza to dostęp do ponad 1900 modeli sztucznej inteligencji, w tym również dostosowanych do konkretnej branży, dzięki czemu odpowiedzi agentów AI mogą być bardziej adekwatne.
Tworzenie i zarządzanie agentami AI w Microsoft 365
Jak twierdzi Microsoft, agenty AI stały się podmiotami biznesowymi pierwszej kategorii i możesz teraz zarządać nimi za pomocą tych samych narzędzi, których używasz do zarządzania tożsamością i dostępem w firmie: Microsoft Entra. Microsoft Entra Agent ID sprawia, że agent stworzony w Copilot Studio lub Azure AI Foundry ma automatycznie przydzielaną tożsamość, co nie wymaga od dewelopera żadnych dodatkowych działań. Zapewnia to również administratorom widoczność i kontrolę nad agentem. Funkcja jest już dostępna w wersji public preview.
Aby zapobiegać ewentualnym przeciekom, ochrona Microsoft Purview Information Protection będzie teraz obejmować także agenty Copilot Studio, które używają Microsoft Dataverse. Ochrona informacji firmowych pozwala firmom automatycznie klasyfikować i chronić wrażliwe dane. Publiczna wersja zapoznawcza zostanie udostępniona w czerwcu.
Grok 3, Sora i wiele innych nowości w Azure AI Foundry

Na konferencji Build 2025 Microsoft przedstawił trochę nowości dla Azure AI Foundry. Jako że według Forrester aż 85% przedsiębiorstw realizuje strategie w podejściu multi-model, także ono znajduje swoje odzwierciedlenie na platformie. Microsoft informuje też o dostępności Foundry Agent Service i Foundry REST API, fine-tuningu modeli, zbliżającej się integracji modelu Sora od OpenAI oraz o firmach, które już zaadaptowały tę platformę.
Grok dołącza do Foundry Models
Wybrane rodziny modeli AI, hostowane i sprzedawane bezpośrednio przez Microsoft – w tym Llama 3, Llama 4, Grok 3, Mistral OCR, Codestral i Flux – są już obecne obok Azure OpenAI w zbiorze Foundry Models. Firma rozszerzyła też partnerstwo z Hugging Face, by zapewnić szerszy dostęp do modeli. Wkrótce można spodziewać się ponad 10 tysięcy modeli i setek gotowych narzędzi agentowych.
Na nowej tablicy liderów zobaczymy modele uszeregowane według jakości, kosztu i przepustowości, a router modeli automatycznie wybierze najlepszą opcję dla każdego requestu w oparciu o ograniczenia latencji i budżetu klienta. To narzędzie potrafi zapewnić nawet do 60% oszczędności w porównaniu z bezpośrednim wyborem GPT-4.1 w Foundry Models przy zachowaniu zbliżonej dokładności. Foundry Local umożliwia z kolei uruchamianie rosnącego katalogu modeli zoptymalizowanych pod kątem urządzeń brzegowych – bezpośrednio na Windows lub macOS w trybie offline.
Pozostałe nowości w Azure AI Foundry
Microsoft przedstawił jeszcze kilka ważnych ogłoszeń i zapowiedzi:
- Fine-tuning i destylacja modeli: deweloperzy mogą teraz dostrajać (fine-tuningować) modele GPT-4.1-nano, o4-mini i Llama 4 w Foundry Models. Dostrajanie poprzez wzmacnianie jest dostępne dla zaawansowanych zadań wnioskowania/rozumowania.
- Foundry Agent Service już ogólnodostępny: możesz hostować pojedynczego agenta lub orkiestrować grupę agentów poprzez protokół Agent-to-Agent (A2A). Usługa upraszcza rozwijanie agentów, integrując się ze źródłami danych, takimi jak Bing, SharePoint, Azure AI Search i Microsoft Fabric, a także wspiera automatyzację zadań poprzez narzędzia, takie jak Azure Logic Apps, Azure Functions i niestandardowe narzędzia korzystające z OpenAPI i Model Context Protocol (MCP).
- Sora od OpenAI trafi do Foundry Models: już wkrótce najnowocześniejszy model generowania wideo Sora będzie dostępny dla deweloperów w Azure AI Foundry.
- Foundry REST API już ogólnodostępny: wersja GA unifikuje wnioskowanie modeli, operacje agentów i oceny za jednym punktem końcowym, z zestawami SDK dla języków Python, C#, JavaScript i Java.
- Azure AI Foundry ma już 70 tysięcy klientów: Microsoft poinformował, że już 70 000 firm zaadaptowało platformę. Własne aplikacje AI rozwijają na niej m.in. Heineken i Accenture.
Nowy agent kodujący w GitHub Copilot oraz wydanie Open Source

Na konferencji deweloperskiej Microsoft Build 2025 sporo mówiło się o sztucznej inteligencji. Na styku tych dwóch domen wyrósł GitHub Copilot. Usługa ma już ponad 3 lata i stale się rozwija. Dziś padło kilka gorących ogłoszeń na jej temat. Microsoft/GitHub zaprezentowali m.in. nowego agenta AI kodowania i ogłosili otwarcie źródeł GitHub Copilota w Visual Studio Code. Co to dokładnie znaczy?
W zeszłym tygodniu OpenAI zaprezentował Codex, nowego agenta AI wykonującego równolegle wiele zadań dotyczących kodowania. Na odpowiedź Microsoftu nie trzeba było długo czekać. Pierwszego dnia konferencji BUILD (19.05) firma zaprezentowała “agenta kodującego”:
Nasz najnowszy coding agent wprowadza GitHub Copilota na wyższy poziom – z programisty w parze do równorzędnego, pełnoprawnego członka Twojego zespołu. Możesz mu przydzielać zadania, takie jak rewizje kodu, pisanie testów, naprawianie bugów, a nawet implementowanie pełnych specyfikacji. Może on także współpracować z innymi agentami, aby podołać bardziej złożonym wyzwaniom przy tworzeniu i produkcji. Dzięki wbudowanym logom audytowym i ochronie gałęzi każda proponowana zmiana jest rewidowana przed dostarczeniem. Copilot to Twój najnowszy kolega z zespołu – podejmuje się żmudnej pracy, dzięki czemu Ty możesz skupić się na tym, co ma największe znaczenie — Amanda Silver, CVP Product w Developer Division, i Mario Rodriguez, CPO w GitHub
GitHub Copilot coding agent to dalsza ewolucja Project Padawan. Deweloperzy mogą przydzielać mu zadana w github.com, GitHub Mobile lub poprzez GitHub CLI. Aby zacząć działać, agent AI automatycznie rozkręci w pełni dające się personalizować środowisko programistyczne napędzane przez GitHub Actions. Programiści mogą śledzić postępy jego pracy w logach. Gdy agent kodujący zakończy pracę, zgłosi pull request, którego akceptacja (bądź nie) leży w gestii człowieka.
Agent kodowania w GitHub Copilot korzysta z Model Context Protocol (MCP). Oprócz tekstu obsługuje on także obrazy jako dane wejściowe, dzięki czemu można do niego wprowadzać np. zrzuty ekranu ukazujące błąd lub makiety w celu wdrożenia nowej funkcji.
Microsoft ogłosił także tryb agenta dla Microsoft Visual Studio Code i Visual Studio, JetBrains, Eclipse i Xcode, nowego agenta Azure Site Reliability Engineering (SRE) oraz GitHub Models, które uproszczą budowanie aplikacji AI. Jeśli GitHub Copilot zmienia to, jak piszemy kod, to Azure AI Foundry zmienia to, co możemy budować. A teraz ta moc jest dostępna bezpośrednio w Twoim przepływie GitHub. Dzięki natywnej integracji możesz eksperymentować z najnowocześniejszymi modelami od OpenAI, Meta, Microsoft, Mistal, Cohere i nie tylko – bezpośrednio w GitHub – dodają Silver i Rodriguez. Wszystko to pod egidą “agentic DevOps”.
Jest jeszcze jedna rzecz, która zmienia zasady gry – GitHub Copilot w Visual Studio Code przechodzi na Open Source. Jako że GitHub Copilot ewoluował w Visual Studio Code, AI stała się kluczową częścią doświadczenia dewelopera – napędzając wszystko od testów po bezpieczeństwo. Podejmujemy następny krok w naszej przygodzie open-source – wyjaśnia Microsoft. Wskutek tego funkcje AI rozszerzeń GitHub Copilota będą teraz częścią tego samego repozytorium, które napędza VS Code.
Odzwierciedla to nasze zaangażowanie w transparentność, innowację napędzaną przez społeczność oraz danie deweloperom decydującego głosu w kształtowaniu przyszłości tworzenia oprogramowania z asystą AI. Wierzymy, że ta nowa era rozwijania oprogramowania – napędzana przez agenty – będzie tak transformacyjna, jak przejście do chmury. Usuwa ona tarcia, zmniejsza złożoność i przepisuje strukturę kosztów, co od dekad hamowało deweloperów. A co może najważniejsze, przywraca to coś, o czym mówimy za mało: radość. Kiedy czyścimy backlog, rozładowujemy nadmiar przyziemnych zadań i skupiamy się na tym, co kochamy tworzyć, nie tylko przyspieszamy – odblokowujemy też przyszłość, na którą czekaliśmy, aby ją stworzyć — Amanda Silver, CVP Product w Developer Division, i Mario Rodriguez, CPO w GitHub
Google I/O 2025 – najważniejsze zapowiedzi z konferencji

W tym samym tygodniu, co Microsoft Build, Google poprowadził swoją konferencję I/O 2025. Firma przedstawiła sporo nowatorskich osiągnięć na polu sztucznej inteligencji. Oto najważniejsze tematy:
- Sztuczna inteligencja Gemini w przeglądarce Chrome. Google integruje AI z Chrome na wzór rozwiązań Microsoftu i Opery. Funkcja jest na razie dostępna tylko dla płatnych subskrybentów. Gemini ma działać jako “asystent przeglądania”, rozumiejąc to, co dzieje się w kartach przeglądarki. Może dla nas wyjaśnić i podsumować informacje ze stron internetowych. W przyszłości ma pracować na wielu kartach i wykonywać zadania jako agent AI.
- Gemini wchodzi na Androida XR. Sztuczna inteligencja Google trafi na okulary i headsety rozszerzonej rzeczywistości Samsunga i innych producentów. W podróży Gemini może pomóc w nawigacji, nakładając wskazówki na widziany obraz. Podczas rozmów w obcym języku technologia może tłumaczyć konwersację na żywo, wyświetlając napisy.
- Gemini 2.5 Pro już dostępny. Nowa wersja modelu sprawdza się szczególnie dobrze w programowaniu front-endowym i projektowaniu UI. Oferuje ulepszone możliwości generowania kodu, logiki i matematyki oraz dostęp dla deweloperów przez Google AI Studio i Vertex AI.
- Google Veo 3 – w końcu realistyczny generator wideo. Generatywny model tworzenia wideo na podstawie tekstu i obrazu tworzy wyjątkowo realistyczne filmy, które osiągają jakość porównywalną lub nawet lepszą niż OpenAI Sora. To samo środowisko pozwala dodawać efekty dźwiękowe. Wygląda świetnie, ale może otwierać furtkę do wyjątkowo realistycznych deepfake’ów.
- Google Imagen 4 – fotorealistyczny generator obrazów. Na fotorealizm stawia również nowy model generowania obrazu. Podobnie jak GPT-4o od OpenAI, tak również Imagen 4 od Google tworzy wyższej jakości grafiki, precyzyjnie podąża za instrukcjami użytkownika, przykłada dużą wagę do szczegółów i rozumie złożone prompty.
- Tryb AI w wyszukiwarce Google. To dalsza ewolucja “AI Overviews”, które znamy w Polsce jako “Przegląd od AI” na stronie wyników wyszukiwania. Dziś dostępny tylko dla testerów z USA, AI Mode w Google Search obsługuje o wiele bardziej złożone zapytania, a także integruje się z Deep Search, trybem wykonującym setki wyszukań, aby stworzyć rozległy raport. W przyszłości będzie integrował się z innymi usługami Google oraz zapamiętywał historię użytkownika, stając się bardziej personalnym agentem i asystentem AI na wzór Copilota.
Anthropic Claude Opus 4 i Sonnet 4. Nowe, potężne modele kodujące

Anthropic wypuścił nową generację modeli Claude: Claude Opus 4 i Claude Sonnet 4. Opus 4 jest zdaniem firmy najlepszym modelem do kodowania na świecie, osiągając świetne wyniki w złożonych, długotrwałych zadaniach. Sonnet 4 ma zaś oferować lepszą wydajność w zakresie kodowania i rozumowania w porównaniu do swojego poprzednika, Claude Sonnet 3.7. W wybranych benchmarkach te nowe modele przeganiają analogiczne rozwiązania od OpenAI i Google. Sonnet 4 jest tak dobry, że GitHub integruje go z agentem kodowania w GitHub Copilot.
Oba modele obsługują dwa tryby pracy: szybkie odpowiedzi oraz rozszerzone przetwarzanie dla głębszego rozumowania. Użytkownicy darmowej wersji Claude mają dostęp wyłącznie do modelu Sonnet 4, natomiast subskrybenci planów Pro, Max, Team i Enterprise mogą korzystać z obu modeli oraz trybu rozszerzonego rozumowania. Modele są dostępne poprzez Anthropic API, Amazon Bedrock oraz Google Cloud Vertex AI.
Opracowanie: Krzysztof Sulikowski