Baza wiedzy/AI w Strategii Biznesowej — Przewodnik W.../Polityka AI w firmie: Gotowy wzór + przewodnik wdr...

Polityka AI w firmie: Gotowy wzór + przewodnik wdrożenia

12 min czytania15 marca 2026
Część przewodnika: AI w Strategii Biznesowej — Przewodnik Wdrożenia d...

Dlaczego polityka AI pisana w 2024 roku jest nieaktualna w marcu 2026

Polityki AI napisane rok temu — kiedy ChatGPT był głównym przypadkiem użycia — nie mogą być stosowane w odniesieniu do agentów AI. To różnica jakościowa, nie tylko ilościowa.

Era ChatGPT (2023–2024):

  • Pracownik zadaje AI pytanie
  • AI odpowiada
  • Pracownik decyduje, co zrobić z odpowiedzią
  • Ryzyko: halucynacje, wyciek danych w zapytaniach, błędne decyzje oparte na AI

Era agentów (2026+):

  • Pracownik deleguje zadanie agentowi
  • Agent planuje kroki, otwiera aplikacje, modyfikuje pliki, wysyła wiadomości e-mail
  • Agent raportuje rezultat
  • Ryzyko: agent może nieautoryzowanie modyfikować dane, łączy się z zewnętrznymi usługami (Google, Salesforce), działa autonomicznie

To wymaga fundamentalnie innej polityki.


Przykład: dlaczego stara polityka zawodzi

Typowa polityka AI z 2024 roku mówiła:

  • „Nie wprowadzaj danych osobowych do ChatGPT"
  • „Weryfikuj wszystkie wyniki przed użyciem"
  • „Nie używaj do decyzji kadrowych"

Dziś, z Claude Cowork:

  • Pracownik mówi: „Przeanalizuj listę kandydatów z naszego systemu rekrutacji i wskaż top 5"
  • Agent automatycznie pobiera dane z systemu, analizuje je i tworzy raport
  • Raport zawiera dane osobowe
  • Agent może tworzyć wyniki automatycznie, bez czekania na weryfikację przez człowieka

Problem: Stara polityka nie reguluje tego scenariusza. Brakuje wytycznych dla:

  • Które aplikacje może łączyć agent? (Polityka musi jawnie wymieniać dozwolone łączniki MCP)
  • Czy agent może modyfikować dane? (Czy może tworzyć pliki w Google Drive?)
  • Kto zatwierdza wyniki? (Przy czacie — użytkownik; przy agencie — sprawa bardziej złożona)
  • Jak rejestrować działalność agenta? (Dzienniki systemowe muszą być dostępne)

Polityka AI a Claude Cowork i agenty AI

Claude Cowork, uruchomiony w pierwszym kwartale 2026 roku, zmienia podstawy myślenia o zarządzaniu AI. To nie jest aplikacja internetowa, którą można zabezpieczyć zaporą sieciową. To aplikacja desktopowa z dostępem do systemów lokalnych i usług chmurowych.

Cowork dostarcza panelu administracyjnego (funkcja „Customize"), który pozwala na:

  • Listy dozwolonych łączników MCP — które zewnętrzne usługi może łączyć agent?
  • Kontrolę dostępu na poziomie folderów — do których folderów w Google Drive, OneDrive agent ma dostęp?
  • Zatwierdzanie wtyczek — które z 11 wtyczek open-source (sprzedaż, prawo, finanse, marketing, analiza danych, programowanie) są dozwolone?
  • Ścieżkę audytu przepływu danych — dziennik wszystkich operacji agenta

Oznacza to, że polityka musi być operacyjna — nie abstrakcyjne przepisy, ale konkretne listy tego, co jest dozwolone i zakazane.

Agenty a chatboty: tabela porównawcza

Aspekt ChatGPT (2024) Agent AI (2026) Implikacja dla polityki
Inicjator akcji Użytkownik Agent (autonomiczny) Wymaga procesów zatwierdzania
Zakres danych W zapytaniach Dostęp do systemów (Google Drive, CRM, e-mail) RODO, minimalizacja danych — bardziej krytyczne
Wynik Tekst w czacie Pliki, wiadomości e-mail, zdarzenia w kalendarzu, rekordy CRM Wymaga ścieżki audytu dla każdej akcji
Przepływy wieloetapowe Nie (pojedyncze zapytanie) Tak (sekwencja kroków) Wymaga monitorowania anomalii
Integracje Brak Łączniki MCP (11+) Listy dozwolonych/zablokowanych łączników
Odtwarzanie po błędzie Ręczne Częściowo autonomiczne Wymagane procedury awaryjne

Przewodnik wdrożenia: jak wdrożyć politykę w 10 dni

Dni 1–2: Inwentaryzacja stanu obecnego

  • Kto używa AI obecnie? Sprawdź zapisy w dziennikach IT — ChatGPT, Claude, Gemini, inne?
  • Jakie dane są wprowadzane? Czy pracownicy wprowadzają nazwy klientów? Numery PESEL? Informacje finansowe?
  • Które aplikacje będą integrowane? Google Drive, Salesforce, DocuSign, inne?

Wskazówka: Nie próbuj uwzględnić wszystkiego od razu. Skup się na 10 najważniejszych aplikacjach. Pozostałe można dodać później.

Dzień 3: Koordynacja z interesariuszami

  • IOD/Compliance: sprawdzić obowiązki wynikające z RODO i EU AI Act (szczególnie dla decyzji wysokiego ryzyka)
  • IT/Bezpieczeństwo: określić ograniczenia techniczne (zapora sieciowa, VPN, menedżery haseł)
  • Właściciele procesów biznesowych: zidentyfikować procesy do automatyzacji (sprzedaż, operacje, HR)

Dni 4–5: Opracowanie polityki

Skorzystaj z szablonu poniżej, dostosowując go do kontekstu organizacji. Kluczowe punkty:

  • Jawnie wymień narzędzia dozwolone i zablokowane — nie pisz ogólnie „ChatGPT jest OK", podaj konkretną wersję i plan
  • Określ łączniki MCP — do których zewnętrznych usług agent będzie mieć dostęp
  • Zdefiniuj zasady przetwarzania danych — co stanowi dane osobowe, czego nie można przetwarzać
  • Ścieżka audytu — co i jak będzie rejestrowane

Dzień 6: Konfiguracja panelu administracyjnego Cowork (jeśli dotyczy)

Przy wdrożeniu Claude Cowork:

  • Przejdź do sekcji „Customize" w interfejsie
  • Dodaj do listy dozwolonych łączniki MCP (np. Google Drive, Gmail — nie DocuSign, jeśli nie jest potrzebny)
  • Ustaw uprawnienia na poziomie folderów (agent ma dostęp do /shared/marketing, nie do /confidential/finance)
  • Włącz rejestrowanie zdarzeń

Dni 7–8: Szkolenia i komunikacja wewnętrzna

  • Przygotuj komunikat wewnętrzny: „Nowa polityka AI — co się zmienia?"
  • Zidentyfikuj zaawansowanych użytkowników w każdym dziale (5–10 osób) — zaproś ich na szczegółowe szkolenie
  • Przygotuj FAQ (pojawią się pytania o RODO, zgodność z przepisami, co może robić agent)

Dzień 9: Finalizacja i zatwierdzenie

  • Pracownik działu HR/Compliance zatwierdza politykę
  • Dyrektor generalny podpisuje
  • Publikacja wewnątrz organizacji

Dzień 10: Monitorowanie i dostosowania

  • Zbierz informacje zwrotne od zaawansowanych użytkowników
  • Zidentyfikuj problemy (np. agent nie ma dostępu do potrzebnej aplikacji)
  • Ustanów cotygodniowy cykl przeglądów przez 4 tygodnie — szybko reaguj na zmieniające się potrzeby

Szablon polityki AI dla firm w 2026 roku


POLITYKA KORZYSTANIA Z SYSTEMÓW SZTUCZNEJ INTELIGENCJI I AGENTÓW AI

Artykuł 1 — Cel polityki

Celem niniejszej polityki jest określenie zasad korzystania z systemów sztucznej inteligencji (AI), w tym chatbotów, modeli językowych i autonomicznych agentów AI (takich jak Claude Cowork) w celu zapewnienia odpowiedzialnego, bezpiecznego i zgodnego z prawem użytkowania. Polityka obejmuje również usługi chmurowe zintegrowane z AI poprzez łączniki MCP oraz procesy automatyzacji. Główne cele to:

  • Ochrona danych osobowych i informacji poufnych
  • Zapewnienie zgodności z EU AI Act, RODO i innymi regulacjami
  • Minimalizacja ryzyk związanych z halucynacjami AI, błędami autonomicznych agentów i wyciekami danych
  • Utrzymanie nadzoru człowieka nad autonomicznymi procesami

Artykuł 2 — Zakres podmiotowy

Polityka dotyczy:

  • Wszystkich pracowników, współpracowników, kontrahentów oraz osób upoważnionych do korzystania z systemów AI
  • Administratorów AI odpowiedzialnych za konfigurację, monitorowanie i zgodność z przepisami
  • Osób trzecich (podwykonawców, partnerów biznesowych), które mogą mieć dostęp do agentów AI na podstawie umów
  • Organizacji jako całości — odpowiada za wdrożenie, nadzór i konsekwencje naruszenia polityki

Artykuł 3 — Zakres przedmiotowy

Polityka obejmuje:

  • Chatboty i modele językowe: ChatGPT, Claude (wszystkie wersje), Gemini, Copilot — używane do generowania treści, analiz, odpowiadania na pytania
  • Agenty AI: Claude Cowork (Mac/Windows), systemy wieloagentowe — mające dostęp do aplikacji, plików, danych biznesowych
  • Łączniki MCP: Google Drive, Gmail, Google Calendar, Salesforce, DocuSign, Apollo, Clay, Outreach, Similarweb, FactSet, WordPress
  • Procesy automatyzacji: sekwencyjne przepływy pracy, w których AI inicjuje akcje autonomicznie (tworzy pliki, wysyła wiadomości e-mail, modyfikuje dane)
  • Dane wprowadzane do systemów AI — zarówno publiczne, jak i poufne
  • Wyniki systemów AI — generowane treści, raporty, decyzje wspierane przez AI

Artykuł 4 — Zastosowania zakazane i dozwolone

4.1 Zakazane:

  • Wprowadzanie danych osobowych (numer PESEL, numery kont bankowych, adresy domowe) do systemów ChatGPT bez umowy Business Agreement
  • Wykorzystywanie AI do autonomicznych decyzji kadrowych (zwolnienie, awansowanie, wybór kandydata) bez weryfikacji przez człowieka
  • Łączenie agenta AI z usługami nieznajdującymi się na liście dozwolonych łączników MCP
  • Tworzenie lub modyfikowanie dokumentów finansowych (faktury, raporty księgowe) bez ścieżki audytu
  • Przekazywanie agentom dostępu do folderów zawierających dane dotyczące fuzji i przejęć, dane strategiczne lub wynagrodzenia
  • Używanie AI do generowania publicznych wypowiedzi (komunikaty prasowe, artykuły medialne) bez wytycznych kreatywnych firmy

4.2 Dozwolone:

Korzystanie z ChatGPT/Claude do:

  • Analiz rynkowych (dane publiczne)
  • Tworzenia wersji roboczych — pod warunkiem weryfikacji przez człowieka
  • Tłumaczenia, parafrazowania, korekty językowej
  • Burzy mózgów i generowania pomysłów

Korzystanie z agentów AI (Claude Cowork) do:

  • Agregacji danych ze źródeł na liście dozwolonych (Google Drive, Salesforce)
  • Automatycznego generowania raportów (pod warunkiem prowadzenia ścieżki audytu)
  • Automatyzacji powtarzalnych zadań (uzupełnienia e-maili, zarządzanie kalendarzem)
  • Wieloetapowych przepływów pracy zatwierdzonych wcześniej (np. „pobierz dane z CRM → analiza → wyślij raport")

Artykuł 5 — Ochrona danych i łączniki MCP

5.1 Dane osobowe:

  • Dane osobowe mogą być przetwarzane przez AI wyłącznie zgodnie z RODO i umowami o przetwarzaniu danych
  • Preferowana jest anonimizacja (np. zamiast imienia i nazwiska — numer identyfikacyjny)
  • Pracownicy są zobowiązani zgłaszać do IOD każde wprowadzenie danych osobowych do AI

5.2 Lista dozwolonych łączników MCP:

Agent AI (Claude Cowork) ma dostęp WYŁĄCZNIE do:

  • ✓ Google Drive (wyłącznie foldery oznaczone /shared/marketing, /shared/ops)
  • ✓ Gmail (wyłącznie wysyłanie, bez dostępu do archiwów historycznych)
  • ✓ Google Calendar (planowanie spotkań, bez wglądu w prywatne wydarzenia)
  • ✓ Salesforce (odczyt szans sprzedaży i potencjalnych klientów; zapis notatek)
  • ✓ Apollo (wyłącznie dane potencjalnych klientów, bez wysyłania wiadomości)
  • ✓ FactSet (publiczne dane rynkowe, zatwierdzone dla działu finansowego)

Niedozwolone:

  • ✗ DocuSign (wymaga ręcznego zatwierdzenia ze względu na skutki prawne)
  • ✗ PayPal, Stripe oraz inne systemy płatności
  • ✗ Systemy kadrowe (Workday, SuccessFactors)
  • ✗ Wewnętrzne bazy danych (bez umowy o przetwarzaniu danych)

5.3 Bezpieczeństwo transmisji:

  • Łączniki MCP wymagają szyfrowania SSL
  • Dane uwierzytelniające (klucze API, tokeny) nie mogą być zakodowane na stałe — należy używać bezpiecznego magazynu (1Password, LastPass, HashiCorp Vault)
  • Regularne przeglądy dzienników MCP (kto się łączył, kiedy, z czym)

Artykuł 6 — Incydenty

6.1 Definicja incydentu:

Incydentem jest każde zdarzenie dotyczące systemów AI, które potencjalnie zagrożiło bezpieczeństwu, zgodności z przepisami lub reputacji:

  • Agent wprowadził błędne dane (np. wysłał wiadomość e-mail do niewłaściwego klienta)
  • AI ujawniło dane poufne w wynikach (halucynacja zawierająca informacje konkurencji)
  • Łącznik MCP uzyskał dostęp do większej ilości danych niż powinien (agent trafił do folderu /confidential)
  • Nieautoryzowany dostęp do agenta (naruszenie hasła)

6.2 Procedura zgłaszania:

Pracownik, który stwierdzi incydent, niezwłocznie (w ciągu 2 godzin) zgłasza do:

  • Administratora AI (kierownik zespołu IT)
  • IOD (Inspektor Ochrony Danych) — jeśli dotyczy danych osobowych
  • Kierownika działu

Zgłoszenie powinno zawierać:

  • Opis incydentu (co się stało)
  • Kiedy się to stało (data, godzina)
  • Jakie dane były zaangażowane
  • Jakie systemy/agenty były użyte

6.3 Działania naprawcze:

  • Administrator AI niezwłocznie wyłącza dostęp agenta do problematycznego łącznika
  • IOD przeprowadza ocenę ryzyka (czy dane zostały udostępnione osobom trzecim?)
  • Zespół IT przeprowadza analizę dzienników w celu określenia zakresu problemu
  • Powiadomienie UODO jeśli dotyczy naruszenia danych osobowych w rozumieniu RODO (w ciągu 72 godzin od uświadomienia sobie naruszenia)
  • Analiza poinformowania — co zmienić w polityce, aby incydent się nie powtórzył

Artykuł 7 — Monitorowanie i audyt

7.1 Rejestrowanie aktywności:

Wszystkie operacje agentów AI są rejestrowane:

  • Kto zainicjował zadanie
  • Jakie kroki podjął agent
  • Jakie dane były przetwarzane
  • Jaki był wynik
  • Jeśli to istotne — czy udzielono zgody człowieka

Dzienniki przechowywane przez minimum 90 dni.

7.2 Regularne audyty:

  • Co miesiąc: przegląd użycia łączników MCP (czy żaden łącznik nie wykazuje anomalnego ruchu)
  • Co kwartał: audyt procesów wysokiego ryzyka (rekomendacje kadrowe, raporty finansowe) — czy wyniki były weryfikowane, czy wystąpiły błędy
  • Co pół roku: audyt bezpieczeństwa całego systemu AI

7.3 Szkolenia i certyfikacja:

  • Wszyscy pracownicy: obowiązkowe szkolenie (2 godziny) przed uzyskaniem dostępu do AI
  • Zaawansowani użytkownicy: kwartalne aktualizacje dotyczące nowych funkcji i zagrożeń
  • Zespół ds. zgodności z przepisami: szczegółowe szkolenia z EU AI Act i implikacji RODO

Artykuł 8 — Agenty autonomiczne i nadzór człowieka

8.1 Procesy wymagające zatwierdzenia przez człowieka:

Następujące akcje NIE mogą być wykonywane autonomicznie przez agenta:

  • Wysłanie wiadomości e-mail do więcej niż 10 odbiorców (wymaga podglądu i ręcznego wysłania)
  • Modyfikacja danych finansowych (faktury, rachunki, linie budżetowe) — wszystkie muszą być zatwierdzone przez dział finansowy
  • Decyzje personalne (rekomendacja zatrudnienia, ocena wyników) — zawsze decyzja człowieka

Agent może przygotować materiały, ale nie może ich autonomicznie zatwierdzać i publikować.

8.2 Procesy dopuszczone do autonomii:

  • Uzupełnienia e-maili (oparte na szablonach) do pojedynczych kontaktów
  • Generowanie raportów — pod warunkiem rejestrowania i monitorowania
  • Zarządzanie kalendarzem (planowanie spotkań, przypomnienia)
  • Agregacja danych ze źródeł z listy dozwolonych

8.3 Procedura eskalacji:

Jeśli agent nie może wykonać zadania (np. brakuje danych, wykryto anomalię), automatycznie eskaluje sprawę do pracownika z pełnym kontekstem.

Artykuł 9 — Zgodność z EU AI Act

9.1 Systemy wysokiego ryzyka (przepisy wchodzą w życie 2 sierpnia 2026):

Jeśli agent AI jest używany do:

  • Rekomendacji zatrudnienia lub zwolnienia
  • Scoringu kredytowego lub podejmowania decyzji finansowych
  • Identyfikacji biometrycznej
  • Oceny ryzyka dotyczącego osób fizycznych

Wymagane jest:

  • Ocena skutków
  • Nadzór człowieka podczas działania
  • Dokumentacja techniczna
  • Zgodność z wymogami przejrzystości

Uwaga: Komisja Europejska złożyła w listopadzie 2025 roku pakiet Digital Omnibus, który mógłby warunkowo przesunąć niektóre obowiązki dla systemów wysokiego ryzyka (Aneks III) do grudnia 2027. Do czasu przyjęcia tej propozycji przez Parlament Europejski i Radę UE, obowiązującą datą graniczną pozostaje 2 sierpnia 2026. Organizacje powinny prowadzić prace przygotowawcze w oparciu o ten termin.

9.2 Obowiązki w zakresie modeli GPAI:

Dostawcy modeli (OpenAI, Anthropic, Google) dostarczają:

  • Karty modeli (informacje o danych treningowych, możliwościach, ograniczeniach)
  • Dokumentację bezpieczeństwa
  • Możliwości tworzenia ścieżek audytu

Organizacja powinna archiwizować te dokumenty i być gotowa na inspekcję regulacyjną.

9.3 Dokumentacja:

Organizacja prowadzi dokument opisujący:

  • Które systemy AI są wdrożone
  • Jakie decyzje AI wspiera (bez decyzji autonomicznych)
  • Jakie ryzyka zostały zidentyfikowane
  • Jak są ograniczane

Artykuł 10 — Odpowiedzialność

10.1 Odpowiedzialność pracownika:

Pracownik, który narusza politykę poprzez:

  • Wprowadzenie danych osobowych do ChatGPT bez zatwierdzonego procesu
  • Udzielenie agentowi dostępu do nieautoryzowanego folderu
  • Pominięcie weryfikacji przez człowieka dla wyników wysokiego ryzyka

Może ponieść:

  • Ostrzeżenie (pierwsze naruszenie)
  • Zawieszenie dostępu do AI (drugie naruszenie)
  • Postępowanie dyscyplinarne (powtarzające się naruszenia)

10.2 Odpowiedzialność organizacji:

W przypadku poniesienia strat przez organizację (naruszenie RODO, kara za brak zgodności z przepisami, szkoda reputacyjna):

  • Organizacja ponosi odpowiedzialność zgodnie z przepisami prawa
  • Ubezpieczenie cybernetyczne może, ale nie musi pokryć szkód (zależy od zakresu polisy)
  • Kierownictwo jest odpowiedzialne za komunikację do interesariuszy

Artykuł 11 — Postanowienia końcowe

11.1 Data wejścia w życie:

Polityka wchodzi w życie [data publikacji]. Wszystkie systemy AI muszą być dostosowane w ciągu 30 dni.

11.2 Przegląd i aktualizacje:

Polityka jest przeglądana co pół roku ze względu na dynamikę technologiczną. Aktualizacje wymagają akceptacji IOD i kierownictwa IT.

11.3 Wyjątki:

Wszelkie wyjątki od polityki wymagają pisemnego zatwierdzenia przez Dyrektora Generalnego i IOD.


Wdrożenie krok po kroku: lista kontrolna EU AI Act

Przed wdrożeniem Claude Cowork lub innego agenta:

  • Identyfikacja systemów wysokiego ryzyka — czy agent będzie wspierać jakąkolwiek decyzję wysokiego ryzyka? (HR, finanse, bezpieczeństwo)
  • Ocena skutków — jakie są potencjalne negatywne wyniki?
  • Inwentaryzacja danych — jakie dane będzie przetwarzać agent? Czy zawierają dane osobowe?
  • Inwentaryzacja łączników MCP — które zewnętrzne usługi będą zintegrowane? Czy posiadają umowę o przetwarzaniu danych z organizacją?
  • Plan monitorowania — jak będziemy śledzić wyniki agenta? Jakie wskaźniki sprawdzać?
  • Nadzór człowieka — dla każdego wyniku wysokiego ryzyka zdefiniować, kto zatwierdza
  • Dokumentacja — udokumentować wszystkie decyzje (kto, kiedy, dlaczego agent został zatwierdzony)
  • Reagowanie na incydenty — kto będzie reagować na incydenty? Jaka jest ścieżka eskalacji?
  • Szkolenia — czy pracownicy znają politykę i swoje obowiązki?
  • Ścieżka audytu — czy dzienniki agenta są przechowywane i dostępne?
  • Przegląd prawny — czy prawnik/IOD zatwierdził wdrożenie?
  • Aktualizacja ubezpieczenia — czy powiadomiliśmy ubezpieczyciela o wprowadzeniu agentów?

Praktyczne przykłady: polityka w działaniu

Przykład 1: Agent sprzedażowy + łącznik Apollo

Scenariusz: Agent pobiera listę potencjalnych klientów z Apollo i wysyła wiadomości wychodzące.

Polityka mówi:

  • ✓ Łącznik MCP Apollo jest na liście dozwolonych dla działu sprzedaży
  • ✓ Agent może pobierać dane potencjalnych klientów (imię, firma, stanowisko, e-mail)
  • ✓ Agent może wysyłać pojedyncze wiadomości e-mail (nie masowe rozsyłki bez podglądu)
  • ✓ Agent rejestruje każdą wiadomość (odbiorca, czas, użyty szablon)

Realizacja:

  1. Kierownik sprzedaży definiuje: „Wyślij wiadomości wychodzące do 30 potencjalnych klientów z branży IT w Warszawie"
  2. Agent przygotowuje 30 spersonalizowanych wersji roboczych
  3. Kierownik sprzedaży przegląda, zatwierdza, klika „Wyślij wszystkie"
  4. Agent wysyła indywidualne wiadomości e-mail, rejestruje notatki w Salesforce
  5. Po 5 dniach agent przygotowuje raport: „20 otwartych, 3 odpowiedzi, 7 niedostarczonych"

Przykład 2: Agent finansowy + łącznik FactSet — co idzie źle

Scenariusz: Dyrektor finansowy chce „agenta, który prognozuje przepływy pieniężne na podstawie danych rynkowych"

Problem: Jeśli agent autonomicznie tworzy prognozę finansową, jest to decyzja wysokiego ryzyka. Może wpłynąć na rzeczywiste decyzje biznesowe (zatrudnienie, inwestycje).

Polityka mówi — NIEDOZWOLONE:

  • ✗ Agent nie może autonomicznie publikować prognoz finansowych
  • ✗ Agent nie może modyfikować arkuszy budżetowych
  • ✗ Agent nie ma dostępu do historycznych danych finansowych (zbyt wrażliwe)

Polityka mówi — DOZWOLONE:

  • ✓ Agent pobiera publiczne dane rynkowe z FactSet
  • ✓ Agent przygotowuje wersję roboczą prognozy
  • ✓ Dyrektor finansowy i kontroler przeglądają i zatwierdzają
  • ✓ Agent publikuje zatwierdzoną prognozę

Realizacja: Przepływ pracy wymaga zatwierdzenia przez człowieka — agent wspiera, ale nie decyduje.


Uwaga: dlaczego elastyczna polityka jest lepsza niż sztywna

Wiele firm próbuje napisać politykę, która „zakazuje wszystkich przypadków użycia" — „AI nie może robić X, Y, Z". Efekt: polityka jest ignorowana.

Lepsze podejście to oparte na ryzyku: „AI może robić X, jeśli spełniony jest warunek Y (np. zatwierdzenie przez człowieka), z rejestrowaniem Z".

To pozwala na innowacje przy zachowaniu kontroli. Agentów można bezpiecznie wdrażać — pod warunkiem jasnych mechanizmów zabezpieczających.


Powiązane artykuły:


Źródła:


Tagi: polityka AI · governance · EU AI Act · RODO · compliance · Claude Cowork · szablon

Kategoria: AI w Strategii Biznesowej

Wróć do bazy wiedzy