Dlaczego polityka AI pisana w 2024 roku jest nieaktualna w marcu 2026
Polityki AI napisane rok temu — kiedy ChatGPT był głównym przypadkiem użycia — nie mogą być stosowane w odniesieniu do agentów AI. To różnica jakościowa, nie tylko ilościowa.
Era ChatGPT (2023–2024):
- Pracownik zadaje AI pytanie
- AI odpowiada
- Pracownik decyduje, co zrobić z odpowiedzią
- Ryzyko: halucynacje, wyciek danych w zapytaniach, błędne decyzje oparte na AI
Era agentów (2026+):
- Pracownik deleguje zadanie agentowi
- Agent planuje kroki, otwiera aplikacje, modyfikuje pliki, wysyła wiadomości e-mail
- Agent raportuje rezultat
- Ryzyko: agent może nieautoryzowanie modyfikować dane, łączy się z zewnętrznymi usługami (Google, Salesforce), działa autonomicznie
To wymaga fundamentalnie innej polityki.
Przykład: dlaczego stara polityka zawodzi
Typowa polityka AI z 2024 roku mówiła:
- „Nie wprowadzaj danych osobowych do ChatGPT"
- „Weryfikuj wszystkie wyniki przed użyciem"
- „Nie używaj do decyzji kadrowych"
Dziś, z Claude Cowork:
- Pracownik mówi: „Przeanalizuj listę kandydatów z naszego systemu rekrutacji i wskaż top 5"
- Agent automatycznie pobiera dane z systemu, analizuje je i tworzy raport
- Raport zawiera dane osobowe
- Agent może tworzyć wyniki automatycznie, bez czekania na weryfikację przez człowieka
Problem: Stara polityka nie reguluje tego scenariusza. Brakuje wytycznych dla:
- Które aplikacje może łączyć agent? (Polityka musi jawnie wymieniać dozwolone łączniki MCP)
- Czy agent może modyfikować dane? (Czy może tworzyć pliki w Google Drive?)
- Kto zatwierdza wyniki? (Przy czacie — użytkownik; przy agencie — sprawa bardziej złożona)
- Jak rejestrować działalność agenta? (Dzienniki systemowe muszą być dostępne)
Polityka AI a Claude Cowork i agenty AI
Claude Cowork, uruchomiony w pierwszym kwartale 2026 roku, zmienia podstawy myślenia o zarządzaniu AI. To nie jest aplikacja internetowa, którą można zabezpieczyć zaporą sieciową. To aplikacja desktopowa z dostępem do systemów lokalnych i usług chmurowych.
Cowork dostarcza panelu administracyjnego (funkcja „Customize"), który pozwala na:
- Listy dozwolonych łączników MCP — które zewnętrzne usługi może łączyć agent?
- Kontrolę dostępu na poziomie folderów — do których folderów w Google Drive, OneDrive agent ma dostęp?
- Zatwierdzanie wtyczek — które z 11 wtyczek open-source (sprzedaż, prawo, finanse, marketing, analiza danych, programowanie) są dozwolone?
- Ścieżkę audytu przepływu danych — dziennik wszystkich operacji agenta
Oznacza to, że polityka musi być operacyjna — nie abstrakcyjne przepisy, ale konkretne listy tego, co jest dozwolone i zakazane.
Agenty a chatboty: tabela porównawcza
| Aspekt | ChatGPT (2024) | Agent AI (2026) | Implikacja dla polityki |
|---|---|---|---|
| Inicjator akcji | Użytkownik | Agent (autonomiczny) | Wymaga procesów zatwierdzania |
| Zakres danych | W zapytaniach | Dostęp do systemów (Google Drive, CRM, e-mail) | RODO, minimalizacja danych — bardziej krytyczne |
| Wynik | Tekst w czacie | Pliki, wiadomości e-mail, zdarzenia w kalendarzu, rekordy CRM | Wymaga ścieżki audytu dla każdej akcji |
| Przepływy wieloetapowe | Nie (pojedyncze zapytanie) | Tak (sekwencja kroków) | Wymaga monitorowania anomalii |
| Integracje | Brak | Łączniki MCP (11+) | Listy dozwolonych/zablokowanych łączników |
| Odtwarzanie po błędzie | Ręczne | Częściowo autonomiczne | Wymagane procedury awaryjne |
Przewodnik wdrożenia: jak wdrożyć politykę w 10 dni
Dni 1–2: Inwentaryzacja stanu obecnego
- Kto używa AI obecnie? Sprawdź zapisy w dziennikach IT — ChatGPT, Claude, Gemini, inne?
- Jakie dane są wprowadzane? Czy pracownicy wprowadzają nazwy klientów? Numery PESEL? Informacje finansowe?
- Które aplikacje będą integrowane? Google Drive, Salesforce, DocuSign, inne?
Wskazówka: Nie próbuj uwzględnić wszystkiego od razu. Skup się na 10 najważniejszych aplikacjach. Pozostałe można dodać później.
Dzień 3: Koordynacja z interesariuszami
- IOD/Compliance: sprawdzić obowiązki wynikające z RODO i EU AI Act (szczególnie dla decyzji wysokiego ryzyka)
- IT/Bezpieczeństwo: określić ograniczenia techniczne (zapora sieciowa, VPN, menedżery haseł)
- Właściciele procesów biznesowych: zidentyfikować procesy do automatyzacji (sprzedaż, operacje, HR)
Dni 4–5: Opracowanie polityki
Skorzystaj z szablonu poniżej, dostosowując go do kontekstu organizacji. Kluczowe punkty:
- Jawnie wymień narzędzia dozwolone i zablokowane — nie pisz ogólnie „ChatGPT jest OK", podaj konkretną wersję i plan
- Określ łączniki MCP — do których zewnętrznych usług agent będzie mieć dostęp
- Zdefiniuj zasady przetwarzania danych — co stanowi dane osobowe, czego nie można przetwarzać
- Ścieżka audytu — co i jak będzie rejestrowane
Dzień 6: Konfiguracja panelu administracyjnego Cowork (jeśli dotyczy)
Przy wdrożeniu Claude Cowork:
- Przejdź do sekcji „Customize" w interfejsie
- Dodaj do listy dozwolonych łączniki MCP (np. Google Drive, Gmail — nie DocuSign, jeśli nie jest potrzebny)
- Ustaw uprawnienia na poziomie folderów (agent ma dostęp do /shared/marketing, nie do /confidential/finance)
- Włącz rejestrowanie zdarzeń
Dni 7–8: Szkolenia i komunikacja wewnętrzna
- Przygotuj komunikat wewnętrzny: „Nowa polityka AI — co się zmienia?"
- Zidentyfikuj zaawansowanych użytkowników w każdym dziale (5–10 osób) — zaproś ich na szczegółowe szkolenie
- Przygotuj FAQ (pojawią się pytania o RODO, zgodność z przepisami, co może robić agent)
Dzień 9: Finalizacja i zatwierdzenie
- Pracownik działu HR/Compliance zatwierdza politykę
- Dyrektor generalny podpisuje
- Publikacja wewnątrz organizacji
Dzień 10: Monitorowanie i dostosowania
- Zbierz informacje zwrotne od zaawansowanych użytkowników
- Zidentyfikuj problemy (np. agent nie ma dostępu do potrzebnej aplikacji)
- Ustanów cotygodniowy cykl przeglądów przez 4 tygodnie — szybko reaguj na zmieniające się potrzeby
Szablon polityki AI dla firm w 2026 roku
POLITYKA KORZYSTANIA Z SYSTEMÓW SZTUCZNEJ INTELIGENCJI I AGENTÓW AI
Artykuł 1 — Cel polityki
Celem niniejszej polityki jest określenie zasad korzystania z systemów sztucznej inteligencji (AI), w tym chatbotów, modeli językowych i autonomicznych agentów AI (takich jak Claude Cowork) w celu zapewnienia odpowiedzialnego, bezpiecznego i zgodnego z prawem użytkowania. Polityka obejmuje również usługi chmurowe zintegrowane z AI poprzez łączniki MCP oraz procesy automatyzacji. Główne cele to:
- Ochrona danych osobowych i informacji poufnych
- Zapewnienie zgodności z EU AI Act, RODO i innymi regulacjami
- Minimalizacja ryzyk związanych z halucynacjami AI, błędami autonomicznych agentów i wyciekami danych
- Utrzymanie nadzoru człowieka nad autonomicznymi procesami
Artykuł 2 — Zakres podmiotowy
Polityka dotyczy:
- Wszystkich pracowników, współpracowników, kontrahentów oraz osób upoważnionych do korzystania z systemów AI
- Administratorów AI odpowiedzialnych za konfigurację, monitorowanie i zgodność z przepisami
- Osób trzecich (podwykonawców, partnerów biznesowych), które mogą mieć dostęp do agentów AI na podstawie umów
- Organizacji jako całości — odpowiada za wdrożenie, nadzór i konsekwencje naruszenia polityki
Artykuł 3 — Zakres przedmiotowy
Polityka obejmuje:
- Chatboty i modele językowe: ChatGPT, Claude (wszystkie wersje), Gemini, Copilot — używane do generowania treści, analiz, odpowiadania na pytania
- Agenty AI: Claude Cowork (Mac/Windows), systemy wieloagentowe — mające dostęp do aplikacji, plików, danych biznesowych
- Łączniki MCP: Google Drive, Gmail, Google Calendar, Salesforce, DocuSign, Apollo, Clay, Outreach, Similarweb, FactSet, WordPress
- Procesy automatyzacji: sekwencyjne przepływy pracy, w których AI inicjuje akcje autonomicznie (tworzy pliki, wysyła wiadomości e-mail, modyfikuje dane)
- Dane wprowadzane do systemów AI — zarówno publiczne, jak i poufne
- Wyniki systemów AI — generowane treści, raporty, decyzje wspierane przez AI
Artykuł 4 — Zastosowania zakazane i dozwolone
4.1 Zakazane:
- Wprowadzanie danych osobowych (numer PESEL, numery kont bankowych, adresy domowe) do systemów ChatGPT bez umowy Business Agreement
- Wykorzystywanie AI do autonomicznych decyzji kadrowych (zwolnienie, awansowanie, wybór kandydata) bez weryfikacji przez człowieka
- Łączenie agenta AI z usługami nieznajdującymi się na liście dozwolonych łączników MCP
- Tworzenie lub modyfikowanie dokumentów finansowych (faktury, raporty księgowe) bez ścieżki audytu
- Przekazywanie agentom dostępu do folderów zawierających dane dotyczące fuzji i przejęć, dane strategiczne lub wynagrodzenia
- Używanie AI do generowania publicznych wypowiedzi (komunikaty prasowe, artykuły medialne) bez wytycznych kreatywnych firmy
4.2 Dozwolone:
Korzystanie z ChatGPT/Claude do:
- Analiz rynkowych (dane publiczne)
- Tworzenia wersji roboczych — pod warunkiem weryfikacji przez człowieka
- Tłumaczenia, parafrazowania, korekty językowej
- Burzy mózgów i generowania pomysłów
Korzystanie z agentów AI (Claude Cowork) do:
- Agregacji danych ze źródeł na liście dozwolonych (Google Drive, Salesforce)
- Automatycznego generowania raportów (pod warunkiem prowadzenia ścieżki audytu)
- Automatyzacji powtarzalnych zadań (uzupełnienia e-maili, zarządzanie kalendarzem)
- Wieloetapowych przepływów pracy zatwierdzonych wcześniej (np. „pobierz dane z CRM → analiza → wyślij raport")
Artykuł 5 — Ochrona danych i łączniki MCP
5.1 Dane osobowe:
- Dane osobowe mogą być przetwarzane przez AI wyłącznie zgodnie z RODO i umowami o przetwarzaniu danych
- Preferowana jest anonimizacja (np. zamiast imienia i nazwiska — numer identyfikacyjny)
- Pracownicy są zobowiązani zgłaszać do IOD każde wprowadzenie danych osobowych do AI
5.2 Lista dozwolonych łączników MCP:
Agent AI (Claude Cowork) ma dostęp WYŁĄCZNIE do:
- ✓ Google Drive (wyłącznie foldery oznaczone /shared/marketing, /shared/ops)
- ✓ Gmail (wyłącznie wysyłanie, bez dostępu do archiwów historycznych)
- ✓ Google Calendar (planowanie spotkań, bez wglądu w prywatne wydarzenia)
- ✓ Salesforce (odczyt szans sprzedaży i potencjalnych klientów; zapis notatek)
- ✓ Apollo (wyłącznie dane potencjalnych klientów, bez wysyłania wiadomości)
- ✓ FactSet (publiczne dane rynkowe, zatwierdzone dla działu finansowego)
Niedozwolone:
- ✗ DocuSign (wymaga ręcznego zatwierdzenia ze względu na skutki prawne)
- ✗ PayPal, Stripe oraz inne systemy płatności
- ✗ Systemy kadrowe (Workday, SuccessFactors)
- ✗ Wewnętrzne bazy danych (bez umowy o przetwarzaniu danych)
5.3 Bezpieczeństwo transmisji:
- Łączniki MCP wymagają szyfrowania SSL
- Dane uwierzytelniające (klucze API, tokeny) nie mogą być zakodowane na stałe — należy używać bezpiecznego magazynu (1Password, LastPass, HashiCorp Vault)
- Regularne przeglądy dzienników MCP (kto się łączył, kiedy, z czym)
Artykuł 6 — Incydenty
6.1 Definicja incydentu:
Incydentem jest każde zdarzenie dotyczące systemów AI, które potencjalnie zagrożiło bezpieczeństwu, zgodności z przepisami lub reputacji:
- Agent wprowadził błędne dane (np. wysłał wiadomość e-mail do niewłaściwego klienta)
- AI ujawniło dane poufne w wynikach (halucynacja zawierająca informacje konkurencji)
- Łącznik MCP uzyskał dostęp do większej ilości danych niż powinien (agent trafił do folderu /confidential)
- Nieautoryzowany dostęp do agenta (naruszenie hasła)
6.2 Procedura zgłaszania:
Pracownik, który stwierdzi incydent, niezwłocznie (w ciągu 2 godzin) zgłasza do:
- Administratora AI (kierownik zespołu IT)
- IOD (Inspektor Ochrony Danych) — jeśli dotyczy danych osobowych
- Kierownika działu
Zgłoszenie powinno zawierać:
- Opis incydentu (co się stało)
- Kiedy się to stało (data, godzina)
- Jakie dane były zaangażowane
- Jakie systemy/agenty były użyte
6.3 Działania naprawcze:
- Administrator AI niezwłocznie wyłącza dostęp agenta do problematycznego łącznika
- IOD przeprowadza ocenę ryzyka (czy dane zostały udostępnione osobom trzecim?)
- Zespół IT przeprowadza analizę dzienników w celu określenia zakresu problemu
- Powiadomienie UODO jeśli dotyczy naruszenia danych osobowych w rozumieniu RODO (w ciągu 72 godzin od uświadomienia sobie naruszenia)
- Analiza poinformowania — co zmienić w polityce, aby incydent się nie powtórzył
Artykuł 7 — Monitorowanie i audyt
7.1 Rejestrowanie aktywności:
Wszystkie operacje agentów AI są rejestrowane:
- Kto zainicjował zadanie
- Jakie kroki podjął agent
- Jakie dane były przetwarzane
- Jaki był wynik
- Jeśli to istotne — czy udzielono zgody człowieka
Dzienniki przechowywane przez minimum 90 dni.
7.2 Regularne audyty:
- Co miesiąc: przegląd użycia łączników MCP (czy żaden łącznik nie wykazuje anomalnego ruchu)
- Co kwartał: audyt procesów wysokiego ryzyka (rekomendacje kadrowe, raporty finansowe) — czy wyniki były weryfikowane, czy wystąpiły błędy
- Co pół roku: audyt bezpieczeństwa całego systemu AI
7.3 Szkolenia i certyfikacja:
- Wszyscy pracownicy: obowiązkowe szkolenie (2 godziny) przed uzyskaniem dostępu do AI
- Zaawansowani użytkownicy: kwartalne aktualizacje dotyczące nowych funkcji i zagrożeń
- Zespół ds. zgodności z przepisami: szczegółowe szkolenia z EU AI Act i implikacji RODO
Artykuł 8 — Agenty autonomiczne i nadzór człowieka
8.1 Procesy wymagające zatwierdzenia przez człowieka:
Następujące akcje NIE mogą być wykonywane autonomicznie przez agenta:
- Wysłanie wiadomości e-mail do więcej niż 10 odbiorców (wymaga podglądu i ręcznego wysłania)
- Modyfikacja danych finansowych (faktury, rachunki, linie budżetowe) — wszystkie muszą być zatwierdzone przez dział finansowy
- Decyzje personalne (rekomendacja zatrudnienia, ocena wyników) — zawsze decyzja człowieka
Agent może przygotować materiały, ale nie może ich autonomicznie zatwierdzać i publikować.
8.2 Procesy dopuszczone do autonomii:
- Uzupełnienia e-maili (oparte na szablonach) do pojedynczych kontaktów
- Generowanie raportów — pod warunkiem rejestrowania i monitorowania
- Zarządzanie kalendarzem (planowanie spotkań, przypomnienia)
- Agregacja danych ze źródeł z listy dozwolonych
8.3 Procedura eskalacji:
Jeśli agent nie może wykonać zadania (np. brakuje danych, wykryto anomalię), automatycznie eskaluje sprawę do pracownika z pełnym kontekstem.
Artykuł 9 — Zgodność z EU AI Act
9.1 Systemy wysokiego ryzyka (przepisy wchodzą w życie 2 sierpnia 2026):
Jeśli agent AI jest używany do:
- Rekomendacji zatrudnienia lub zwolnienia
- Scoringu kredytowego lub podejmowania decyzji finansowych
- Identyfikacji biometrycznej
- Oceny ryzyka dotyczącego osób fizycznych
Wymagane jest:
- Ocena skutków
- Nadzór człowieka podczas działania
- Dokumentacja techniczna
- Zgodność z wymogami przejrzystości
Uwaga: Komisja Europejska złożyła w listopadzie 2025 roku pakiet Digital Omnibus, który mógłby warunkowo przesunąć niektóre obowiązki dla systemów wysokiego ryzyka (Aneks III) do grudnia 2027. Do czasu przyjęcia tej propozycji przez Parlament Europejski i Radę UE, obowiązującą datą graniczną pozostaje 2 sierpnia 2026. Organizacje powinny prowadzić prace przygotowawcze w oparciu o ten termin.
9.2 Obowiązki w zakresie modeli GPAI:
Dostawcy modeli (OpenAI, Anthropic, Google) dostarczają:
- Karty modeli (informacje o danych treningowych, możliwościach, ograniczeniach)
- Dokumentację bezpieczeństwa
- Możliwości tworzenia ścieżek audytu
Organizacja powinna archiwizować te dokumenty i być gotowa na inspekcję regulacyjną.
9.3 Dokumentacja:
Organizacja prowadzi dokument opisujący:
- Które systemy AI są wdrożone
- Jakie decyzje AI wspiera (bez decyzji autonomicznych)
- Jakie ryzyka zostały zidentyfikowane
- Jak są ograniczane
Artykuł 10 — Odpowiedzialność
10.1 Odpowiedzialność pracownika:
Pracownik, który narusza politykę poprzez:
- Wprowadzenie danych osobowych do ChatGPT bez zatwierdzonego procesu
- Udzielenie agentowi dostępu do nieautoryzowanego folderu
- Pominięcie weryfikacji przez człowieka dla wyników wysokiego ryzyka
Może ponieść:
- Ostrzeżenie (pierwsze naruszenie)
- Zawieszenie dostępu do AI (drugie naruszenie)
- Postępowanie dyscyplinarne (powtarzające się naruszenia)
10.2 Odpowiedzialność organizacji:
W przypadku poniesienia strat przez organizację (naruszenie RODO, kara za brak zgodności z przepisami, szkoda reputacyjna):
- Organizacja ponosi odpowiedzialność zgodnie z przepisami prawa
- Ubezpieczenie cybernetyczne może, ale nie musi pokryć szkód (zależy od zakresu polisy)
- Kierownictwo jest odpowiedzialne za komunikację do interesariuszy
Artykuł 11 — Postanowienia końcowe
11.1 Data wejścia w życie:
Polityka wchodzi w życie [data publikacji]. Wszystkie systemy AI muszą być dostosowane w ciągu 30 dni.
11.2 Przegląd i aktualizacje:
Polityka jest przeglądana co pół roku ze względu na dynamikę technologiczną. Aktualizacje wymagają akceptacji IOD i kierownictwa IT.
11.3 Wyjątki:
Wszelkie wyjątki od polityki wymagają pisemnego zatwierdzenia przez Dyrektora Generalnego i IOD.
Wdrożenie krok po kroku: lista kontrolna EU AI Act
Przed wdrożeniem Claude Cowork lub innego agenta:
- Identyfikacja systemów wysokiego ryzyka — czy agent będzie wspierać jakąkolwiek decyzję wysokiego ryzyka? (HR, finanse, bezpieczeństwo)
- Ocena skutków — jakie są potencjalne negatywne wyniki?
- Inwentaryzacja danych — jakie dane będzie przetwarzać agent? Czy zawierają dane osobowe?
- Inwentaryzacja łączników MCP — które zewnętrzne usługi będą zintegrowane? Czy posiadają umowę o przetwarzaniu danych z organizacją?
- Plan monitorowania — jak będziemy śledzić wyniki agenta? Jakie wskaźniki sprawdzać?
- Nadzór człowieka — dla każdego wyniku wysokiego ryzyka zdefiniować, kto zatwierdza
- Dokumentacja — udokumentować wszystkie decyzje (kto, kiedy, dlaczego agent został zatwierdzony)
- Reagowanie na incydenty — kto będzie reagować na incydenty? Jaka jest ścieżka eskalacji?
- Szkolenia — czy pracownicy znają politykę i swoje obowiązki?
- Ścieżka audytu — czy dzienniki agenta są przechowywane i dostępne?
- Przegląd prawny — czy prawnik/IOD zatwierdził wdrożenie?
- Aktualizacja ubezpieczenia — czy powiadomiliśmy ubezpieczyciela o wprowadzeniu agentów?
Praktyczne przykłady: polityka w działaniu
Przykład 1: Agent sprzedażowy + łącznik Apollo
Scenariusz: Agent pobiera listę potencjalnych klientów z Apollo i wysyła wiadomości wychodzące.
Polityka mówi:
- ✓ Łącznik MCP Apollo jest na liście dozwolonych dla działu sprzedaży
- ✓ Agent może pobierać dane potencjalnych klientów (imię, firma, stanowisko, e-mail)
- ✓ Agent może wysyłać pojedyncze wiadomości e-mail (nie masowe rozsyłki bez podglądu)
- ✓ Agent rejestruje każdą wiadomość (odbiorca, czas, użyty szablon)
Realizacja:
- Kierownik sprzedaży definiuje: „Wyślij wiadomości wychodzące do 30 potencjalnych klientów z branży IT w Warszawie"
- Agent przygotowuje 30 spersonalizowanych wersji roboczych
- Kierownik sprzedaży przegląda, zatwierdza, klika „Wyślij wszystkie"
- Agent wysyła indywidualne wiadomości e-mail, rejestruje notatki w Salesforce
- Po 5 dniach agent przygotowuje raport: „20 otwartych, 3 odpowiedzi, 7 niedostarczonych"
Przykład 2: Agent finansowy + łącznik FactSet — co idzie źle
Scenariusz: Dyrektor finansowy chce „agenta, który prognozuje przepływy pieniężne na podstawie danych rynkowych"
Problem: Jeśli agent autonomicznie tworzy prognozę finansową, jest to decyzja wysokiego ryzyka. Może wpłynąć na rzeczywiste decyzje biznesowe (zatrudnienie, inwestycje).
Polityka mówi — NIEDOZWOLONE:
- ✗ Agent nie może autonomicznie publikować prognoz finansowych
- ✗ Agent nie może modyfikować arkuszy budżetowych
- ✗ Agent nie ma dostępu do historycznych danych finansowych (zbyt wrażliwe)
Polityka mówi — DOZWOLONE:
- ✓ Agent pobiera publiczne dane rynkowe z FactSet
- ✓ Agent przygotowuje wersję roboczą prognozy
- ✓ Dyrektor finansowy i kontroler przeglądają i zatwierdzają
- ✓ Agent publikuje zatwierdzoną prognozę
Realizacja: Przepływ pracy wymaga zatwierdzenia przez człowieka — agent wspiera, ale nie decyduje.
Uwaga: dlaczego elastyczna polityka jest lepsza niż sztywna
Wiele firm próbuje napisać politykę, która „zakazuje wszystkich przypadków użycia" — „AI nie może robić X, Y, Z". Efekt: polityka jest ignorowana.
Lepsze podejście to oparte na ryzyku: „AI może robić X, jeśli spełniony jest warunek Y (np. zatwierdzenie przez człowieka), z rejestrowaniem Z".
To pozwala na innowacje przy zachowaniu kontroli. Agentów można bezpiecznie wdrażać — pod warunkiem jasnych mechanizmów zabezpieczających.
Powiązane artykuły:
- Gdzie jesteśmy z AI? Mapa drogowa dla biznesu na 2026
- AI dla CEO — przewodnik wdrożenia
- ChatGPT, Claude, Gemini: który model wybrać w 2026?
Źródła:
- EU AI Act — Komisja Europejska: ramy regulacyjne AI
- EU AI Act, Artykuł 99: Kary (tekst oficjalny)
- EU AI Act — harmonogram wdrożenia i daty kluczowe; Kennedys Law, marzec 2026
- Digital Omnibus — propozycja przesunięcia terminów EU AI Act; Bird & Bird
- RODO / GDPR, Artykuł 33: Zgłaszanie naruszeń organowi nadzorczemu w ciągu 72 godzin; EDPB
- Breach notification in Poland — UODO; DLA Piper Data Protection
- Anthropic — Customize Cowork with plugins; claude.com/blog, 30 stycznia 2026
- Anthropic — knowledge-work-plugins (open source); GitHub
Tagi: polityka AI · governance · EU AI Act · RODO · compliance · Claude Cowork · szablon
Kategoria: AI w Strategii Biznesowej



