Co zawiera RSP 3.0 i dlaczego warto to przeczytać przed kolejnym wdrożeniem
Anthropic opublikowało 24 lutego 2026 roku trzecią wersję swojej Responsible Scaling Policy (RSP 3.0). To dokument, który definiuje, jak firma podchodzi do oceny ryzyka przy rozwijaniu kolejnych generacji modeli Claude. Dla polskich firm korzystających z API Anthropic lub planujących takie wdrożenia to lektura obowiązkowa, nie dlatego że jest ciekawa, ale dlatego że bezpośrednio wpływa na to, co będzie możliwe technicznie i prawnie w kolejnych miesiącach.
Czym jest RSP i co się zmieniło w wersji 3.0
RSP to dobrowolne ramy Anthropic służące ograniczaniu ryzyka ze strony systemów AI, które określają tzw. progi bezpieczeństwa, punkty, przy których dalsze skalowanie modelu wymaga dodatkowych ocen. Logika jest prosta: im bardziej zaawansowany model, tym większe potencjalne zagrożenia związane z jego nadużyciem. Dokument opisuje procedury testowania modeli przed ich wdrożeniem do produkcji.
Wersja 3.0 jest kolejnym krokiem po RSP 1.0 (wrzesień 2023) i kolejnych wersjach: RSP 2.0, 2.1 oraz 2.2 (2024–2025). Każda kolejna wersja była odpowiedzią na faktyczne możliwości nowych modeli, nie na spekulacje.
Najważniejsza zmiana w RSP 3.0 - koniec wiążącego zobowiązania do pauzy
Kluczową i najszerzej komentowaną zmianą RSP 3.0 jest rezygnacja z wiążącego zobowiązania do wstrzymania trenowania modeli w przypadku braku udowodnionych środków bezpieczeństwa. Poprzednie wersje (RSP 2.x) zawierały kategoryczny próg: Anthropic nie mogło wdrażać modeli powyżej określonych progów zdolności bez wcześniej działających zabezpieczeń. RSP 3.0 zastępuje tę zasadę podwójnym warunkiem wymagającym jednoczesnego prowadzenia wyścigu AI i materialnego ryzyka katastroficznego.
Anthropic wyjaśnia tę zmianę wprost: gdyby jeden deweloper wstrzymał prace, a konkurenci kontynuowali bez równoważnych zabezpieczeń, tempo narzucaliby ci z najsłabszą ochroną a odpowiedzialny deweloper utraciłby zdolność do prowadzenia badań nad bezpieczeństwem.
Trzy nowe filary RSP 3.0
RSP 3.0 wprowadza trzy strukturalne elementy, których poprzednie wersje nie zawierały:
1. Rozdzielenie zobowiązań firmy od rekomendacji dla branży
Dokument dzieli środki zaradcze na dwie kategorie: działania, które Anthropic podejmie niezależnie od innych, oraz ambitną mapę zdolności-do-zabezpieczeń rekomendowaną dla całej branży jako standard.
2. Frontier Safety Roadmap
Obowiązek publikowania szczegółowego planu działań w obszarach bezpieczeństwa, dopasowania modeli, zabezpieczeń i polityki. Cele są publicznie deklarowane i niewiążące. Anthropic będzie otwarcie raportować postępy w ich realizacji.
3. Raporty ryzyka (Risk Reports)
Kompleksowe oceny bezpieczeństwa modeli publikowane co 3–6 miesięcy. Obejmują zdolności modeli, modele zagrożeń oraz aktywne środki zaradcze. W określonych przypadkach podlegają weryfikacji zewnętrznych ekspertów z dostępem do nieredagowanych wersji.
Co praktycznie definiuje RSP 3.0
Polityka nadal operuje pojęciem AI Safety Levels (ASL) - poziomów bezpieczeństwa przypisanych modelom na podstawie ich możliwości. Kluczowe elementy to:
- Oceny możliwości modeli — przed wdrożeniem każdy model przechodzi testy sprawdzające, czy nie osiągnął progów wymagających dodatkowych zabezpieczeń (np. w obszarach broni biologicznej, chemicznej, cyberataków)
- Procedury eskalacji — jasno określone ścieżki decyzyjne, gdy model zbliża się do kolejnego poziomu ASL
- Wymogi dotyczące bezpieczeństwa operacyjnego — zasady przechowywania wag modeli i kontroli dostępu
Dla firm korzystających z API to ma konkretne przełożenie: jeśli Anthropic uzna, że nowy model wymaga wdrożenia procedur ASL-3 lub wyższych, dostęp do niektórych funkcjonalności może być ograniczony lub obwarowany dodatkowymi warunkami użytkowania.
Co to oznacza dla polskich firm
Planowanie długoterminowe staje się trudniejsze ale bardziej przewidywalne
RSP 3.0 jest publicznym dokumentem. Oznacza to, że jeśli planujesz wielomiesięczne wdrożenie oparte na Claude, możesz z góry ocenić, jakie ograniczenia mogą pojawić się przy kolejnych wersjach modelu. To lepsze niż brak informacji.
Praktyczny wniosek: nie buduj architektury zakładającej, że dostęp do funkcjonalności granicznych (np. zaawansowana analiza kodu, automatyzacja złożonych procesów decyzyjnych) pozostanie niezmieniony. RSP sugeruje, że przy wzroście możliwości modeli pojawią się dodatkowe wymagania weryfikacyjne.
Zgodność z AI Act
Unia Europejska w AI Act stosuje podobną logikę progów ryzyka. Modele ogólnego przeznaczenia (GPAI) o dużych możliwościach podlegają dodatkowym wymogom. RSP 3.0 Anthropic jest strukturalnie zbieżne z tą filozofią: im większe możliwości, tym więcej obowiązków. Warto przy tym odróżnić dwa dokumenty: RSP 3.0 to dobrowolne ramy wewnętrzne Anthropic; obowiązki wynikające z AI Act Anthropic adresuje odrębnym dokumentem - Frontier Compliance Framework, dostępnym w trust.anthropic.com.
Istotny jest też podział terminów obowiązywania AI Act dla polskich firm. Wymagania wobec dostawców modeli GPAI (takich jak Anthropic) obowiązują już od 2 sierpnia 2025 roku. Natomiast pełne wymagania dla firm wdrażających systemy wysokiego ryzyka - takich jak narzędzia do rekrutacji, scoringu kredytowego czy systemów bezpieczeństwa zbudowanych na bazie Claude - Wchodzą w życie 2 sierpnia 2026 roku. Jeśli Twoja firma buduje takie systemy, masz jeszcze czas na przygotowanie, ale nie jest go dużo.
RSP 3.0 nie zastępuje Twoich własnych obowiązków compliance wynikających z AI Act, ale pokazuje, że dostawca myśli o tych samych kategoriach ryzyka.
Obszary wrażliwe — gdzie mogą pojawić się ograniczenia
RSP wymienia kategorie, które traktuje jako szczególnie wrażliwe przy ocenie modeli:
- Wsparcie przy tworzeniu broni masowego rażenia (CBRN)
- Zaawansowane ataki cybernetyczne na infrastrukturę krytyczną
- Autonomiczne działania modeli bez nadzoru człowieka w kontekstach wysokiego ryzyka
Dla zdecydowanej większości polskich firm żadna z tych kategorii nie jest relewantna. Ale jeśli działasz w sektorze obronności, cyberbezpieczeństwa lub infrastruktury krytycznej warto przeczytać RSP 3.0 dokładniej przed rozmowami z Anthropic o warunkach dostępu.
Co warto zrobić teraz
Trzy konkretne kroki:
Przeczytaj RSP 3.0 dokument jest dostępny na anthropic.com/responsible-scaling-policy. Zajmuje około 30 minut. Szczególnie sekcje dotyczące ASL-3, Frontier Safety Roadmap i procedur oceny możliwości.
Sprawdź warunki użytkowania API RSP to dobrowolne ramy publiczne, ale przekładają się na Terms of Service. Zmiany w RSP często poprzedzają zmiany w warunkach umownych.
Uwzględnij RSP w analizie ryzyka dostawcy jeśli Claude jest krytycznym elementem Twojego rozwiązania, scenariusz "dostęp do funkcjonalności X zostaje ograniczony" powinien mieć swój plan B.
RSP 3.0 to dokument, który Anthropic napisało przede wszystkim jako publiczne zobowiązanie wobec użytkowników, regulatorów i całej branży. Jako firma korzystająca z ich modeli, masz teraz okno na to, jak myślą o kolejnych krokach i jak zmieniają swoje podejście w odpowiedzi na realia wyścigu AI. Warto z tego okna skorzystać.
