Copilot w PowerPoint wygeneruje prezentację na podstawie dokumentów PDF lub TXT

Microsoft 365 Copilot w PowerPoint od dawna potrafi generować prezentacje w PowerPoint na podstawie zwykłego opisu tekstowego (prompta) albo dokumentów Worda. Ta ceniona funkcja została właśnie rozszerzona o kolejne typy plików, które można użyć jako referencji. Jak do działa?

Copilot w PowerPoint potrafi wygenerować prezentację na podstawie samego prompta. Możesz jednak wskazać mu pliki, na których ma się opierać. Microsoft ogłosił, że prócz dokumentów Worda możesz teraz wybrać także pliki TXT i PDF zapisane w OneDrive i SharePoint. Jak to zrobić?

  1. Otwórz nową prezentację w PowerPoint na Windows, Mac lub w przeglądarce.
  2. Kliknij ikonę Copilot nad slajdem.
  3. W panelu Copilot wybierz Utwórz prezentację z pliku.
  4. W polu Utwórz prezentację na temat wpisz nazwę pliku DOCX, PDF albo TXT bądź też kliknij przycisk Dołącz pliki w chmurze, aby otworzyć przeglądarkę i wybrać pliki z OneDrive lub SharePoint.
  5. Możesz dodać więcej szczegółów – jak na przykład to, na jakich tematach Copilot ma się skupić.
  6. Kliknij przycisk Wyślij, a Copilot wygeneruje wersję roboczą.
  7. Przejrzyj szkic. Możesz dodawać, zmieniać kolejność i usuwać tematy.
  8. Aby utworzyć pełną prezentację, kliknij przycisk Generuj slajdy.

fot. Microsoft

Jak to wykorzystać w pracy? Możesz na przykład wygenerować prezentacje, pisząc prompty:

  • Stwórz prezentację na temat najważniejszych punktów z Raport_kwartalny_FY25Q3.pdf
  • Utwórz prezentację o tym, jak ważne są spotkania hybrydowe z PracaHybrydowaNajlepszePraktyki.pdf Stwórz prezentację na temat najważniejszych punktów z Raport_kwartalny_FY25Q3.pdf
  • Zrób prezentację o głównych odkryciach naukowych z WynikiBadań.txt

Funkcja jest już dostępna w PowerPoint na Windows (wersja 2409, build 18025.20000), macOS (wersja 16.88, build 24082514) i w przeglądarce dla użytkowników z firmową licencją Microsoft 365 Copilot.

Copilot w menu kontekstowym i na stronie nowej karty w Edge

fot. Microsoft

Microsoft wypuścił aktualizację Edge 138 w Stable Channel. Wersja 138.0.3351.55 wprowadza parę nowości związanych z Copilotem. Teraz łatwiej będzie wyszukiwać z pomocą asystenta, a także korzystać z jego sztucznej inteligencji do tworzenia podsumowań. Nowa opcja jest dostępna w menu kontekstowym. Użytkownicy mogą też wyszukiwać w historii przeglądania z pomocą wbudowanego modelu AI. Jak to wszystko dokładnie działa?

Microsoft Copilot na stronie nowej karty w Edge

Microsoft Edge to pierwsza przeglądarka internetowa zintegrowana ze sztuczną inteligencją. Po niej nadeszła jeszcze Opera One czy Perplexity Comet. Edge od początku pozwala korzystać z Copilota (wcześniej pod nazwą Bing Chat) na pasku bocznym i ma w swoim interfejsie jego duży przycisk. Jest też nowa opcja dedykowana rosnącej grupie użytkowników, którzy zamiast w tradycyjnej wyszukiwarce internetowej wolą szukać informacji na stronie czatbota.

Możliwość ustawienia strony Copilota jako stronę nowej karty pojawiła się w Edge 137 jako funkcja eksperymentalna, do włączenia której trzeba było grzebać w edytorze flag. Teraz jest to już oficjalna funkcja, choć działa nieco inaczej. Użytkownicy mogą zobaczyć sugerowane prompty Copilota związane z praca i produktywnością obok pola wyszukiwania na stronie nowej karty. Użytkownicy mogą też zobaczyć ikonę Copilota w polu wyszukiwania, co pozwala im kliknąć tę ikonę, aby wysłać ich bieżące wyszukanie do Copilota – wyjaśnia Microsoft.

To rozwiązanie wydaje się lepsze niż wspomniana funkcja eksperymentalna. Dzięki niemu użytkownicy nie będą nadmiernie korzystać z AI, kiedy pytanie czy fraza tego nie wymaga (działanie sztucznej inteligencji jest nawet 10-krotnie droższe niż tradycyjnej wyszukiwarki).

Podsumowanie od Microsoft 365 Copilot Chat w menu kontekstowym Edge

Tworzenie podsumowań jest jedną z najbardziej znanych funkcji generatywnej sztucznej inteligencji. Teraz pojawiła się nowa opcja, by szybko je uzyskać. Wygeneruje je dla nas Microsoft 365 Copilot Chat po kliknięciu nowej opcji w menu kontekstowym. Ta funkcja pomaga użytkownikom szybko zapoznać się z otwartą stroną i zadać pytania na jej temat – wyjaśnia Microsoft. Nowość podlega kontrolowanemu wdrażaniu i może nie być dostępna od razu.

Wyszukiwanie w historii przeglądania oparte na AI w Edge

Microsoft Edge ma też funkcję AI, która wspomaga wyszukiwanie w historii przeglądania. Nawet jeśli użyjesz synonimu albo zrobisz literówkę, sztuczna inteligencja powinna zrozumieć, o co Ci chodzi, i namierzyć wcześniej odwiedzone strony. Po włączeniu tej funkcji strony, na które wchodzisz, będą pokazywane w rozszerzonych wynikach wyszukiwania w historii.

Model działający na urządzeniu jest trenowany z użyciem Twoich danych, które nigdy nie opuszczają Twojego urządzenia i nigdy nie są wysyłane do firmy Microsoft – czytamy w changelogu.

Ta funkcja także podlega kontrolowanemu wdrażaniu i może jeszcze nie być dostępna. Administratorzy mogą ją kontrolować poprzez regułę EdgeHistoryAISearchEnabled.

Nowe modele AI w GitHub Copilot dla Visual Studio

fot. GitHub

Visual Studio oraz Visual Studio Code to jedne z najpopularniejszych środowisk programistycznych. Miesięcznie korzysta z nich 50 mln użytkowników. Deweloperzy mogą liczyć na pomoc sztucznej inteligencji na każdym etapie tworzenia aplikacji. Microsoft informuje, że poprzez GitHub Copilot dla Visual Studio będą im pomagać najnowsze, ulepszone modele. Jakie są dostępne?

Microsoft wprowadza do GitHub Copilot w Visual Studio mądrzejsze modele domyślne, większy wybór modeli i łatwiejsze sposoby zarządzania ich użyciem.

Copilot w Visual Studio używa teraz GPT-4.1 jako domyślnego modelu (wcześniej 4o). W naszych testach dostarczył on znacznie lepszą wydajność – szybsze odpowiedzi, wyższej jakości sugestie i wyższą ogólną efektywność – wyjaśnia Rhea Patel, Product Manager GitHub Copilot for Visual Studio.

fot. Microsoft

GitHub Copilot Chat w Visual Studio oferuje teraz jeszcze większy wybór modeli AI, w tym:

  • Claude Sonnet 4
  • Claude Opus 4
  • Claude Sonnet 3.5
  • Claude 3.7 (w trybach non-thinking oraz thinking)
  • OpenAI o3 mini
  • Gemini 2.0 Flash
  • Gemini 2.5 Pro

Ponadto wybór modelu jest teraz trwały, co oznacza, że Twój wybór pozostanie aktywny we wszystkich wątkach. Ułatwiono też przełączanie modeli. Jeśli któryś z nich jest dostępny w Twoim planie, ale jeszcze nie jest włączony, zobaczysz monit w przeglądarce modeli. Nie musisz otwierać ustawień GitHub Copilota.

Microsoft dodał też nowy panel, który pomaga monitorować użycie. Wystarczy kliknąć plakietkę Copilota w prawym górnym rogu Visual Studio i wybrać “Copilot Consumptions”, aby prześledzić, ile requestów premium użyłe/aś na czacie, w sugestiach uzupełniania kodu i nie tylko.

fot. Microsoft

Z tego miejsca możesz też uzyskać dostęp do ustawień “Manage Plan”, aby zaktualizować swoją subskrypcję GitHub Copilot albo zmienić ustawienia na GitHub.com. Jeśli skończyły Ci się requesty premium, zostaniesz automatycznie przełączony/a na standardowy model GPT-4.1 bez dodatkowych opłat.

Microsoft wprowadza Mu, lokalny model AI do uruchamiania na Windows

fot. Microsoft

Popularne modele sztucznej inteligencji, które znajdujemy w czatbotach i innych aplikacjach AI, to najczęściej duże modele językowe (LLM), których zapotrzebowanie na moc obliczeniową jest zwykle tak duże, że mogą się uruchamiać tylko w centrach danych. Istnieją też jednak małe modele językowe (SLM), które mogą działać na komputerze PC, a nawet na smartfonie. Microsoft właśnie jeden wypuścił.

Microsoft zaprezentował swój najnowszy mały model językowy (small language model) do uruchamiania na urządzeniu. Nosi on nazwę Mu i sprawdzi się w scenariuszach, które wymagają wnioskowania złożonych relacji wejścia-wyjścia. Według producenta został zaprojektowany tak, by pracować wydajnie, działając lokalnie. Co ciekawe, jest to również model napędzający agenta w aplikacji Ustawienia, dostępnego dla Windows Insiderów na Copilot+ PCs. To on kojarzy opisy podawane przez użytkowników z opcjami w Ustawieniach. Przykładowo po napisaniu “mój kursor myszy jest za mały” w wyszukiwarce agent AI wyświetli pod spodem okienko dialogowe “Zwiększ rozmiar wskaźnika myszy z 1 do 3” z przyciskiem “Zastosuj”.

Mu jest w pełni obsługiwany przez układ NPU (Neural Processing Unit) znajdujący się na Copilot+ PCs. Jego wydajność odpowiedzi wynosi ponad 100 tokenów na sekundę. To nie tylko mały model językowy (SLM), ale również model w architekturze encoder-decoder zoptymalizowany do wdrożeń na małą skalę. Oznacza to, że “koder najpierw konwertuje dane wejściowe na reprezentację utajoną o stałej długości, a dekoder generuje tokeny wyjściowe na podstawie tej reprezentacji”. Ten design zapewnia Mu odpowiednią wydajność, która może sprostać zadaniom wykonywanym na komputerze z Windows.

Microsoft zastosował w Mu kilka optymalizacji, które pozwalają wydusić z SLM jeszcze więcej wydajności. Model był zaś szkolony na GPU Nvidia A100 z Azure Machine Learning w kilku etapach.

Zespalając najnowocześniejsze techniki kwantyzacji z optymalizacjami opartymi na sprzęcie, upewniliśmy się, że Mu jest wysoce efektywny we wdrożeniach z prawdziwego świata, w aplikacjach o ograniczonych zasobach. Aby podnieść łatwość użytkowania Windows, skupiliśmy się na zaadresowaniu wyzwania zmiany setek ustawień systemowych. Naszym celem było stworzenia agenta napędzanego przez AI wewnątrz Ustawień, który rozumie język naturalny i bez trudu zmienia odpowiednie ustawienia – Vivek Pradeep, VP, Distinguished Engineer, Windows Applied Sciences.

Google wypuścił Gemini CLI. Sztuczna inteligencja w terminalu

fot. Google

Dla wielu programistów i power userów interfejs wiersza poleceń (CLI) to coś więcej niż narzędzie pracy – to ich drugi dom. Z tego powodu wielu producentów oprogramowania wypuszcza swoje narzędzia w wersji tekstowej. Taki ukłon w stronę fanów terminala zrobił także Google, który  wypuścił Gemini CLI, nowego agenta AI na licencji Open Source. Jak pisze producent, zapewnia on darmowy, lekki i dla wielu osób wygodny dostęp do Gemini.

Choć otwiera się w terminalu, Gemini CLI daje dostęp do wszystkich multimodalnych funkcji, takich jak rozumienie kodu, generowanie obrazów czy wyszukiwanie w Internecie. Program jest zgodny z Model Context Protocol (MCP), co pozwala rozszerzać jego możliwości. Można też z niego korzystać nieinteraktywnie, wywołując go poprzez skrypty, co pozwala automatyzować zadania i integrować go z istniejącymi przepływami pracy.

Gemini CLI ma wyjątkowo szczodrą darmową ofertę. Po zalogowaniu się na osobiste konto Google użytkownik może przesyłać 60 requestów na minutę i w sumie 1000 requestów dziennie bez żadnych opłat. Prompty trafiają do Gemini 2.5 Pro, najpotężniejszego modelu Google.

Warto też wspomnieć, że w zeszłym tygodniu Google wypuścił model Gemma 3n, otwarty na deweloperów model AI do uruchamiania na urządzeniach mobilnych. Potrafi przetwarzać obrazy, dźwięk i wideo, a nie tylko tekst, co jest miłym zaskoczeniem. Może się uruchamiać na urządzeniach z 2GB pamięci, programować i wnioskować.

Alerty tekstowe od AI z wideodomofonu. Nowa funkcja Amazon Ring

fot. Amazon

Amazon przedstawił nową funkcję generatywnej sztucznej inteligencji Video Descriptions, która zostanie zintegrowana z urządzeniami Ring. Wideodomofon (dzwonek do drzwi z wbudowaną kamerą) lub kamera Ring będzie przesyłać użytkownikowi tekstowe opisy tego, co widzi. Powiadomienia będą wysyłane na telefon, dzięki czemu można będzie je szybko przeczytać nawet na ekranie blokady.

Funkcja korzysta z komputerowego rozpoznawania zawartości obrazów (ang. computer vision) i jest w stanie szybko nakreślić nam to, co wypatrzyła kamera, np. „dwoje ludzi zagląda do białego auta na podjeździe” albo „pies rozrywa na strzępy papierowe ręczniki na dywanie”. Co ciekawe, AI opisuje tylko główne przyczyny, które wywołały alert ruchu, oraz działania, które podejmują.

Opisy są celowo zwięzłe, tak by użytkownik mógł szybko podjąć decyzję, czy chce zareagować. Funkcja zaczęła być udostępniana w wersji beta subskrybentom Ring Home Premium w USA i Kanadzie. Można ją włączyć w aplikacji Ring.

Perplexity Comet. Nowa przeglądarka AI na Windows

fot. Perplexity

Perplexity wypuściło w maju swoją przeglądarkę Comet ekskluzywnie dla użytkowników Mac na Apple Silicon. Zgodnie z oczekiwaniami jest ona naszpikowana sztuczną inteligencją, pozwalając rozmawiać z modelem AI w języku naturalnym, podrzucając e-maile, na które nie odpowiedzieliśmy, czy nawet oferując wirtualne przebieranki w doświadczeniu „Try on”, które pozwala przesłać swoje zdjęcie i przymierzać różne ubrania.

Nie trzeba było długo czekać na Comet na Windows. Jak napisał CEO Perplexity, Aravind Srinivas, build na Windows jest już gotowy, a kilka zaproszeń firma rozesłała wczesnym testerom. W drodze są też nowe buildy na Androida i iOS.

Ciekawe, co takiego zaprezentuje Perplexity użytkownikom „Okienek”, którzy mają już do dyspozycji Microsoft Edge i Opera One.

Niemcy twierdzą, że DeepSeek wysyła dane do Chin

fot. DeepSeek, Google Play Store

Jak twierdzi Berliński Komisarz ds. Ochrony Danych Osobowych i Wolności Informacji (BlnBDI), aplikacja nielegalnie wysyła dane użytkowników prosto do Chin – historię czatów, przesłane pliki, a nawet lokalizację i informacje o urządzeniu. Dane te mają być przetwarzane i przechowywane na chińskich serwerach. To może się kłócić z zasadami ochrony danych w UE.

Na początku tego roku, nie wiadomo skąd, wyłoniła się mało znana chińska firma, która rzuciła wyzwanie największym wyjadaczom z branży AI. Jej modele okazały się szokująco potężne, ale obawy budził ich kraj pochodzenia. Te obawy stały się właśnie dużo bardziej oficjalne w Niemczech.

Urząd już w maju przekazał firmie, że jeśli nie zatrzyma nielegalnego transferu danych, to jego aplikacja zniknie z niemieckich sklepów. DeepSeek nie zareagował, więc Komisarz skorzystał z mocy Aktu o usługach cyfrowych, aby formalnie zgłosić apkę w sklepach Google i Apple. Niewykluczone, że dostanie bana także w pozostałych państwach członkowskich.

Opracowanie: Krzysztof Sulikowski