Twórcy sztucznej inteligencji, tacy jak Microsoft, często wyrażają przekonanie, że powinna ona od samego początku służyć dobru ludzkości. Kwestią dyskusyjną jest, czy wykorzystanie AI przez wojsko spełnia to kryterium – zwłaszcza jeśli mowa o tzw. śmiercionośnych technologiach. Swoje jasne stanowisko w tej sprawie obrał też Google, który nie wyklucza już użycia jego technologii AI do celów militarnych.
Google wzbudził spore kontrowersje, zmieniając swoje wytyczne dot. jego sztucznej inteligencji, w tym znosząc zakaz jej wykorzystywania do celów militarnych, wliczając w to tworzenie broni i narzędzi inwigilacji, wliczając w to np. inteligentne drony. Organizacja Human Rights Watch wyraziła swoje zaniepokojenie, argumentując, że taka decyzja może „komplikować odpowiedzialność” za decyzje na polu bitwy, których konsekwencje to „sprawa życia i śmierci”.
Alphabet (firma macierzysta Google) broni tej zmiany, twierdząc, że firmy i demokratyczne rządy muszą współpracować w kwestii AI, która „wspiera bezpieczeństwo narodowe”. Anna Bacciarelli z Human Rights Watch uważa jednak, że rezygnacja z ustalonych wcześniej „czerwonych linii” jest niepokojąca, zwłaszcza w czasie, gdy potrzebne jest odpowiedzialne przywództwo w domenie AI. Alphabet pisze na blogu, że demokracje powinny prowadzić rozwój AI, kierując się „wartościami podstawowymi”, takimi jak wolność, równość i poszanowanie praw człowieka. Uważają oni, że firmy, rządy i organizacje dzielące te wartości powinny współpracować, aby tworzyć AI, która chroni ludzi, promuje globalny rozwój i wspiera bezpieczeństwo narodowe.
Militarny potencjał sztucznej inteligencji budzi uzasadnione obawy. Systemy AI, zdolne do autonomicznego podejmowania decyzji o życiu lub śmierci, wymagają pilnej kontroli. AI znalazła już zastosowanie w celach wojskowych w Ukrainie i na Bliskim Wschodzie, a kilka krajów dąży do jej integracji w swoich siłach zbrojnych. Pozostaje pytanie o zakres, w jakim maszyny będą podejmować decyzje militarne, w tym mogące prowadzić do masowych zgonów.
Zanim jeszcze etyczna AI stała się tematem dyskursu publicznego, założyciele Google, Sergei Brin i Larry Page, przyjęli motto „Nie bądź zły” („Don’t be evil”). Kiedy firma została przekształcona w Alphabet Inc w 2015 r., zmieniono to na „Rób to, co właściwe” („Do the right thing”). Kto jednak ma prawo ustalać, co jest właściwe? Od tego czasu pracownicy Google czasami sprzeciwiali się podejściu zarządu. W 2018 r. firma nie odnowiła kontraktu na prace nad AI dla Pentagonu, zapewne pod wpływem rezygnacji i petycji podpisanej przez tysiące pracowników, którzy obawiali się, że projekt Maven to pierwszy krok w kierunku wykorzystania AI do celów śmiercionośnych.
OpenAI wprowadza Deep Research, agenta AI do tworzenia głębszych raportów
OpenAI wprowadza Deep Research. To nowy agent AI korzystający ze zdolności wnioskowania modelu o3, który potrafi syntetyzować duże ilości informacji z Internetu. Wkrótce będą z tego mogli korzystać użytkownicy ChatGPT, aby wykonywać wieloetapowe zadania badawcze. „Pogłębione badania” trwają o wiele dłużej niż odpowiedzi na zwykłe zapytania do czatbota.
Zwykle stworzenie raportu badawczego zajmuje ludziom wiele godzin. Należy zebrać, przeanalizować i zsyntetyzować setki źródeł online. Deep Research od OpenAI może wykonać to zadanie w kilka minut. Ta nowa funkcja została wytrenowana na zadaniach z prawdziwego świata, wymagających użycia Pythona i przeglądarki. Raport końcowy od Deep Research będzie zawierał wyraźne cytaty i podsumowanie jego własnych przemyśleń. Wydawca zapewnia, że ta funkcja będzie bardzo efektywna w znajdywaniu niszowych, nieintuicyjnych informacji, których odnalezienie wymaga przeglądania wielu stron.
Aby użyć tej funkcji w ChatGPT, w okienku pisania wiadomości zaznacz „Deep Research” i wprowadź zapytania. Opisz wszystko, czego potrzebujesz – czy ma być to np. analiza konkurencji na platformach streamingowych, czy spersonalizowany raport o najlepszym rowerze miejskim. Możesz dołączyć pliki, w tym arkusze, aby dodać kontekst. Po uruchomieniu funkcji na pasku bocznym zaczną się wyświetlać poszczególne kroki i użyte źródła. Deep Research pracuje od 5 do 30 minut, a więc za jednym razem wykonuje o wiele więcej pracy niż zwykle (ChatGPT i Microsoft Copilot zwykle zwracają odpowiedzi po paru sekundach).
W porównaniu do Deep Research GPT-4o jest idealny do multimodalnych konwersacji w czasie rzeczywistym. W przypadku wieloaspektowych, specyficznych dla domeny zapytań, w których głębia i szczegółowość mają znaczenie krytyczne, umiejętności prowadzenia rozległej eksploracji i cytowania każdego twierdzenia Deep Research stanowią różnicę między szybkim podsumowaniem a dobrze udokumentowaną, zweryfikowaną odpowiedzią, która może być wykorzystana jako produkt roboczy. — OpenAI
Wydawca podkreśla, że działanie Deep Research jest obecnie bardzo intensywne obliczeniowo. Aktualnie mogą z niego korzystać subskrybenci ChatGPT Pro (do 100 zapytań miesięcznie). Następni w kolejce będą użytkownicy planów Plus, Team i Enterprise. Trwają prace nad udostępnieniem go w UK, Szwajcarii i Europejskim Obszarze Gospodarczym. Ta funkcja AI jest dostępna tylko w przeglądarce, a w ciągu miesiąca pojawi się w aplikacjach na smartfony i PC.
Największy postrach Google? ChatGPT Search dostępny dla wszystkich bez logowania
W październiku 2024 roku OpenAI wypuścił ChatGPT Search, funkcję pozwalającą wyszukiwać w Internecie bezpośrednio w ChatGPT. Pozwala to szybko uzyskać odpowiedzi z linkami do adekwatnych źródeł, czyli coś, do czego wcześniej był potrzebny osobny silnik wyszukiwania. Ponadto dzięki tej integracji ChatGPT ma dostęp do aktualnej wiedzy (a nie ograniczonej w czasie).
Wyszukiwanie w ChatGPT jest ogólnodostępne od grudnia, choć początkowo tylko dla zalogowanych. To oznacza, że nie można było sobie ot tak, po prostu wskoczyć do ChatGPT z Internetu i zacząć wyszukiwanie. Oprócz tego wcześniej użytkownicy musieli kliknąć przycisk wyszukiwania, aby je rozpocząć. Teraz aplikacja automatycznie decyduje, czy wywołać wyszukiwanie w Sieci, czy polegać na samej sztucznej inteligencji przy udzielaniu odpowiedzi. Nadal jednak możesz zmusić ChatGPT do wyszukiwania, klikając ikonę „Wyszukaj”.
OpenAI ogłosił wczoraj na Twitterze (X), że ChatGPT search jest teraz dostępny dla każdego na chatgpt.com – logowanie nie jest wymagane. To znaczne ułatwienie dla użytkowników, którzy nie muszą zakładać konta ani wprowadzać danych logowania, np. gdy są na innym urządzeniu albo w innej przeglądarce.
To nie jedyna nowość w ChatGPT Search. W ostatnim czasie funkcja ta zbliżyła się do konwencjonalnych wyszukiwarek internetowych, pokazując mapy, obrazy, a nawet opisy atrakcji turystycznych w dowolnym miejscu. Jak wynika z niedawnego raportu Semrush, ChatGPT stopniowo zmniejsza udział Google w ruchu wyszukiwania na zewnętrznych stronach.
Przetwarzanie mowy w czasie rzeczywistym z GPT-4o w Azure OpenAI Service
Microsoft wypuścił nowe modele sztucznej inteligencji GPT-4o-Mini-Realtime-Preview oraz GPT-4o-Mini-Audio-Preview, oba w wersji zapoznawczej. Wprowadzają one zaawansowane możliwości przetwarzania dźwięku przy zaledwie 25% kosztu modeli audio GPT-4o. Dzięki temu wzrasta potencjał aplikacji AI w zakresie interakcji opartych na tekście i głosie.
Deweloperzy mogą teraz odblokować immersyjne, kierowane głosem doświadczenia, wykorzystując zaawansowane możliwości wszystkich modeli dźwiękowych Azure OpenAI Service, dostępnych w publicznej wersji zapoznawczej. Przykładowe zastosowania to:
- Obsługa klienta: wirtualni asystenci i czatboty głosowe mogą obsługiwać zapytania klientów bardziej naturalnie i efektywnie, skracając czas oczekiwania i podnosząc ogólną satysfakcję.
- Tworzenie treści: twórcy contentu mogą zrewolucjonizować swoją pracę, wykorzystując generowanie mowy w grach wideo, podcastach czy studiach filmowych.
- Tłumaczenie w czasie rzeczywistym: branże takie jak opieka zdrowotna czy usługi prawnicze mogą czerpać korzyści z tłumaczenia na żywo, które pozwala przełamać bariery językowe i zapewnić lepszą komunikację.
Oba nowe modele zapewniają wysokiej jakości interakcje audio za ułamek ceny modeli dźwiękowych GPT-4o. Są one także kompatybilne z istniejącymi Realtime API oraz Chat Completion API. Czym one się natomiast różnią?
- GPT-4o-Mini-Realtime-Preview: zapewnia naturalne interakcje głosowe w czasie rzeczywistym dla bardziej angażującego doświadczenia użytkownika. Model ten będzie idealny dla aplikacji wymagających natychmiastowych odpowiedzi, takich jak czatboty obsługi klienta i wirtualni asystenci.
- GPT-4o-Mini-Audio Preview: zapewnia wysokiej jakości interakcje audio przy niższych kosztach. To idealny model dla aplikacji wymagających asynchronicznego przetwarzania dźwięku, np. do analizy nastrojów na nagraniu czy tworzenia treści z wykorzystaniem zamiany tekstu na dźwięk (text-to-audio).
Jak widać, modele dostępne w Azure OpenAI Service pozwalają zarówno przetwarzać mowę praktycznie w czasie rzeczywistym, jak też pracować z mową i dźwiękiem w scenariuszach, w których błyskawiczne działanie nie jest aż tak istotne. Co natomiast wydaje się ważne, to możliwość zaprzęgnięcia tych modeli do własnych aplikacji poprzez API, tak aby zamienić je w tzw. AI Driven Apps.