Wróć do AI NewsModele i LLM-y

Responsible Scaling Policy 3.0 – nowe zasady bezpiecznego skalowania AI

18 marca 2026 10 min Anthropic News

Anthropic opublikowało trzecią wersję Responsible Scaling Policy. Dokument definiuje nowe ramy oceny ryzyka przy skalowaniu modeli Claude — i bezpośrednio wpływa na to, jak firmy mogą planować wdrożenia AI.

Co zawiera RSP 3.0 i dlaczego warto to przeczytać przed kolejnym wdrożeniem

Anthropic opublikowało 24 lutego 2026 roku trzecią wersję swojej Responsible Scaling Policy (RSP 3.0). To dokument, który definiuje, jak firma podchodzi do oceny ryzyka przy rozwijaniu kolejnych generacji modeli Claude. Dla polskich firm korzystających z API Anthropic lub planujących takie wdrożenia — to lektura obowiązkowa, nie dlatego że jest ciekawa, ale dlatego że bezpośrednio wpływa na to, co będzie możliwe technicznie i prawnie w kolejnych miesiącach.

Czym jest RSP i co się zmieniło w wersji 3.0

RSP to wewnętrzna polityka Anthropic, która określa tzw. progi bezpieczeństwa — punkty, przy których dalsze skalowanie modelu wymaga dodatkowych ocen ryzyka lub wstrzymania prac. Logika jest prosta: im bardziej zaawansowany model, tym większe potencjalne zagrożenia związane z jego nadużyciem. Dokument opisuje procedury testowania modeli przed ich wdrożeniem do produkcji.

Wersja 3.0 jest kolejnym krokiem po RSP 1.0 (2023) i RSP 2.0 (2024). Każda kolejna wersja była odpowiedzią na faktyczne możliwości nowych modeli — nie na spekulacje.

Co praktycznie definiuje RSP 3.0

Polityka operuje pojęciem AI Safety Levels (ASL) — poziomów bezpieczeństwa przypisanych modelom na podstawie ich możliwości. Kluczowe elementy to:

  • Oceny możliwości modeli — przed wdrożeniem każdy model przechodzi testy sprawdzające, czy nie osiągnął progów wymagających dodatkowych zabezpieczeń (np. w obszarach broni biologicznej, chemicznej, cyberataków)
  • Procedury eskalacji — jasno określone ścieżki decyzyjne, gdy model zbliża się do kolejnego poziomu ASL
  • Wymogi dotyczące bezpieczeństwa operacyjnego — zasady przechowywania wag modeli i kontroli dostępu

Dla firm korzystających z API to ma konkretne przełożenie: jeśli Anthropic uzna, że nowy model wymaga wdrożenia procedur ASL-3 lub wyższych, dostęp do niektórych funkcjonalności może być ograniczony lub obwarowany dodatkowymi warunkami użytkowania.

Co to oznacza dla polskich firm

Planowanie długoterminowe staje się trudniejsze — ale bardziej przewidywalne

RSP 3.0 jest publicznym dokumentem. Oznacza to, że jeśli planujesz wielomiesięczne wdrożenie oparte na Claude, możesz z góry ocenić, jakie ograniczenia mogą pojawić się przy kolejnych wersjach modelu. To lepsze niż brak informacji.

Praktyczny wniosek: nie buduj architektury zakładającej, że dostęp do funkcjonalności granicznych (np. zaawansowana analiza kodu, automatyzacja złożonych procesów decyzyjnych) pozostanie niezmieniony. RSP sugeruje, że przy wzroście możliwości modeli pojawią się dodatkowe wymagania weryfikacyjne.

Zgodność z AI Act

Unia Europejska w AI Act stosuje podobną logikę progów ryzyka — modele ogólnego przeznaczenia (GPAI) o dużych możliwościach podlegają dodatkowym wymogom. RSP 3.0 Anthropic jest strukturalnie zbliżone do tej filozofii: im większe możliwości, tym więcej obowiązków.

Jeśli Twoja firma używa Claude w zastosowaniach wysokiego ryzyka według AI Act (np. rekrutacja, scoring kredytowy, systemy bezpieczeństwa), RSP 3.0 nie zastępuje Twoich własnych obowiązków compliance — ale pokazuje, że dostawca myśli o tych samych kategoriach ryzyka.

Obszary wrażliwe — gdzie mogą pojawić się ograniczenia

RSP wymienia kategorie, które traktuje jako szczególnie wrażliwe przy ocenie modeli:

  • Wsparcie przy tworzeniu broni masowego rażenia (CBRN)
  • Zaawansowane ataki cybernetyczne na infrastrukturę krytyczną
  • Autonomiczne działania modeli bez nadzoru człowieka w kontekstach wysokiego ryzyka

Dla zdecydowanej większości polskich firm żadna z tych kategorii nie jest relewantna. Ale jeśli działasz w sektorze obronności, cyberbezpieczeństwa lub infrastruktury krytycznej — warto przeczytać RSP 3.0 dokładniej przed rozmowami z Anthropic o warunkach dostępu.

Co warto zrobić teraz

Trzy konkretne kroki:

  1. Przeczytaj RSP 3.0 — dokument jest dostępny na anthropic.com. Zajmuje około 30 minut. Szczególnie sekcje dotyczące ASL-3 i procedur oceny możliwości.

  2. Sprawdź warunki użytkowania API — RSP to polityka wewnętrzna, ale przekłada się na Terms of Service. Zmiany w RSP często poprzedzają zmiany w warunkach umownych.

  3. Uwzględnij RSP w analizie ryzyka dostawcy — jeśli Claude jest krytycznym elementem Twojego rozwiązania, scenariusz "dostęp do funkcjonalności X zostaje ograniczony" powinien mieć swój plan B.

RSP 3.0 to dokument, który Anthropic napisało przede wszystkim dla siebie i regulatorów. Ale jako firma korzystająca z ich modeli, masz teraz okno na to, jak myślą o kolejnych krokach. Warto z tego okna skorzystać.

Chcesz więcej takich analiz?

Dołącz do newslettera AI NETWORK — co tydzień przegląd najważniejszych wydarzeń ze świata AI.

Zapisz się