Czy sztuczna inteligencja przyspieszy powstawanie leków? Rozpoczęcie testów klinicznych coraz bliżej

W tym wydaniu AI News:

Sztuczna inteligencja projektuje leki. Wkrótce testy na ludziach

fot. Isomorphic Labs

Isomorphic Labs, firma należąca do Google DeepMind, zapowiada rozpoczęcie testów klinicznych substancji opracowanych w całości przez AI. Dzięki przełomowemu systemowi sztucznej inteligencji AlphaFold, który zasłynął z modelowania białek, możliwe jest projektowanie leków precyzyjnie dopasowanych do choroby. Technologia ta pozwala znacząco skrócić i obniżyć koszt procesu wprowadzania nowych leków do obrotu. Zamiast kilkunastu lat, całość może odbyć się w kilkanaście miesięcy.

AlphaFold 3 potrafi przewidzieć strukturę białek i symulować ich interakcje z cząsteczkami leków wirtualnie, bez wchodzenia do laboratorium. Opracowane przez niego substancje mają być następnie analizowane przez inne systemy pod kątem bezpieczeństwa i interakcji z innymi lekami.

Gdy już większość kandydatów odpadnie, te najbardziej obiecujące leki można będzie testować w laboratorium, a dopiero potem na ludziach – co nastąpić ma już niedługo. Firma zaczyna od onkologii i immunologii, a ostatecznym celem jest stworzenie uniwersalnego systemu, zdolnego do projektowania leków na dowolną chorobę.

AI na urządzeniu. Nowy model Microsoftu jest 10 razy szybszy

fot. Microsoft

Microsoft Phi to mały model językowy (SLM) powstały z myślą o wdrażaniu AI bezpośrednio na urządzeniach, bez konieczności łączenia się z chmurą. Jest dostępny jako Open Source na licencji MIT. Pierwsza wersja publicznie dostępna to Phi-3, a później pojawiły się jeszcze Phi-3.5, Phi-4 oraz ich warianty. Najnowszy z nich osiągnął niebywałą wydajność. Do czego może się przydać sztuczna inteligencja na urządzeniu?

Phi-4-mini-flash-reasoning to najnowsza wersja modelu AI od Microsoft, który wyróżnia nowa architektura i wysoka wydajność. Model został zoptymalizowany do działania w środowiskach o ograniczonych zasobach. Jak sama nazwa wskazuje, jest to model wnioskujący/rozumujący, który dobrze radzi sobie z matematyką i problemami logicznymi. Może działać na urządzeniach brzegowych (czyli po drugiej stronie chmury), m.in. zamieniając zwykłe aplikacje mobilne w aplikacje AI.

Ten nowy model bazuje na Phi-4-mini, ale opiera się na nowej architekturze hybrydowej, która osiąga do 10 razy wyższą przepustowość i 2-3 razy niższą latencję, umożliwiając znacząco szybsze wnioskowanie [inference] bez poświęcania wydajności rozumowania [reasoning]. Gotowy do napędzania rozwiązań z prawdziwego świata, które wymagają wydajności i elastyczności, Phi-4-mini-flash-reasoning jest dostępny w Azure AI Foundry, NVIDIA API Catalog i Hugging Face — Weizhu Chen, Jianfeng Gao i Liliang Ren z Microsoft

Phi-4-mini-flash-reasoning opiera się na nowej architekturze SambaY, której główną innowację stanowi Gated Memory Unit (GMU), prosty, lecz efektywny mechanizm udostępniania reprezentacji między warstwami. Microsoft podaje, że zastosowane rozwiązania „drastycznie poprawiają wydajność dekodowania, podnosi wydajność pobierania długiego kontekstu i umożliwia architekturze osiągnięcie wyjątkowej wydajności w szerokim zakresie zadań”.

fot. Microsoft

Podobnie jak pozostałe modele Phi, tak również ten nowy wariant można wdrożyć na pojedynczym GPU. W odróżnieniu od Phi-4-mini-reasoning osiąga on jednak niższą latencję i wyższą przepustowość, zwłaszcza przy generowaniu długiego kontekstu i zadaniach wykorzystujących wnioskowanie. W benchmarkach Phi-4-mini-flash-reasoning wypada korzystniej nie tylko niż wersja nie-flash, ale też inni rywale o podobnym charakterze.

Do czego go użyć? Deweloperzy mogą zaimplementować Phi-4-mini-reasoning na adaptacyjnych platformach edukacyjnych, dla których ważna jest pętla feedbacku w czasie rzeczywistym, ale też w asystentach AI uruchamianych na urządzeniu, w interaktywnych systemach nauczania, lżejszych symulacjach czy narzędziach do automatycznego oceniania.

Grok wymknął się spod kontroli. Minister Cyfryzacji reaguje

Źródło: Facebook

Sztuczna inteligencja Elona Muska przeszła samą siebie. Po aktualizacji z zeszłego weekendu czatbot umieszczony na platformie X zaczął wulgarnie obrażać wszystkich – polskich polityków, papieża, Elona Muska i użytkowników. Nie oszczędził nikogo… z wyjątkiem pewnego dobrze znanego lidera zbrodniczego reżimu i jego popleczników. Wywołało to potężny ogólnoświatowy skandal, a chwilę po jego wybuchu szefowa X podała się do dymisji. Wydawca czatbota, firma xAI, zapewniła, że obelżywe posty Groka zostaną usunięte. Jak w ogóle do tego doszło?

Grok zaczął działać podobnie jak bot Tay, który Microsoft umieścił na Twitterze w 2016 roku. Celowo czy nie, jego filtry zostały wyłączone i zaczął powtarzać to, czego nauczył się od użytkowników. A ci karmili go najbardziej obelżywymi, nienawistnymi tekstami. Niektórzy nawet sądzą, że ta afera z Grokiem była celowym eksperymentem Elona Muska z „wolnością słowa”. Tak czy inaczej czatbot już się uspokoił i teraz gryzie się w język. Mimo zapewnień producenta polski rząd nie puścił tego płazem. Grok został okrzyknięty trollem i hejterem.

Minister cyfryzacji Krzysztof Gawkowski zgłosił skargę do Komisji Europejskiej, prosząc o wszczęcie postępowania, które sprawdzi, czy Grok naruszył Akt o usługach cyfrowych (Digital Services Act). Wiceminister przekonuje, że nie zamierza doprowadzić do wyłączenia platformy X w Polsce, niemniej jednak zapowiada, że Grokowi nie odpuści. „Nie pozwolimy, by amerykańskie platformy robiły w Polsce, co im się podoba. Algorytmy nie mogą sterować nienawiścią bez żadnej odpowiedzialności” – powiedział na antenie radia RMF FM.

Niedługo po tym wszystkim xAI wypuściło Grok 4 – nową, jeszcze potężniejszą, ale też bardziej przebierającą w słowach wersję czatbota.

GPT-4.1 można teraz świetnie zoptymalizować w Azure AI Foundry

fot. Microsoft

Microsoft zaktualizował portal Azure AI Foundry oraz interfejsy API i zestawy SDK Azure OpenAI Service, aby dodać obsługę Direct Preference Optimization (DPO) for GPT-4.1 i GPT-4.1-mini. Ta metoda optymalizacji jest techniką fine-tuningu, która może okazać się przydatna, aby dostosować wagę modelu na podstawie preferencji człowieka. To wyjątkowo ciekawa i przyjazna technika.

GPT-4.1 i GPT-4.1-mini obsługują teraz metodę Direct Preference Optimization (DPO). Pozwala ona dostroić wagę modelu w oparciu o preferencje użytkownika. Jak to działa? Ty dostarczasz prompt wraz z dwiema odpowiedziami: preferowany i niepreferowany przykład. Używając tych danych, możesz dopasować fine-tuningowany model do własnego stylu, preferencji lub wymagań bezpieczeństwawyjaśnia Alicia Frame, PPM z działu Azure OpenAI w Microsoft.

DPO jest uważany za technikę, która ułatwi klientom generowanie wysokiej jakości zestawów danych treningowych. Podczas gdy wielu klientów zmaga się z generowaniem dostatecznie dużych zestawów danych do nadzorowanego dostrajania [supervised fine-tuning], zwykle mają już zebrane dane o preferencjach w oparciu o logi użytkowników, testy A/B albo mniejsze starania z ręcznymi adnotacjami — Microsoft Learn

„Bezpośrednia optymalizacja preferencji” może okazać się świetną techniką fine-tuningu dużych modeli językowych (LLMs) w scenariuszach, gdy nie ma jednej poprawnej odpowiedzi, a istotne są elementy subiektywne, takie jak ton, styl albo konkretne treści. Dzięki temu model AI może uczyć się w oparciu o pozytywne przykłady (uważane przez użytkownika za poprane lub idealne) oraz przykłady negatywne (najmniej pożądane lub niepoprawne).

Opracowanie: Krzysztof Sulikowski