AI Fluency Index: Anthropic mierzy, jak dobrze ludzie współpracują z AI
23 lutego 2026 — Anthropic opublikował raport edukacyjny „The AI Fluency Index", który stawia fundamentalne pytanie: skoro adopcja AI rośnie, to czy ludzie faktycznie wykorzystują te narzędzia dobrze?
Metodologia
Badanie objęło analizę 9 830 zanonimizowanych, wieloetapowych konwersacji na platformie Claude.ai w ciągu 7-dniowego okna w styczniu 2026. Każda rozmowa została oceniona pod kątem 11 obserwowalnych zachowań — od iteracyjnego dopracowywania wyników, przez kwestionowanie rozumowania modelu, po identyfikowanie brakującego kontekstu.
Co istotne, badacze celowo unikali subiektywnych ocen „jakości promptów". Zamiast tego skupili się na obiektywnie mierzalnych zachowaniach, które korelują z lepszymi wynikami.
85,7% użytkowników iteruje — ale niewielu weryfikuje
Najważniejsze ustalenie: zdecydowana większość (85,7%) analizowanych konwersacji zawierała iterację i dopracowywanie — użytkownicy budowali na poprzednich wymianach, zamiast akceptować pierwszą odpowiedź. Rozmowy z iteracją wykazywały średnio 2,67 dodatkowych zachowań „fluency", czyli dwukrotnie więcej niż rozmowy bez iteracji (1,33).
Jest jednak niepokojący wzorzec: gdy AI generuje dopracowane artefakty — gotowy kod, sformatowany dokument, kompletną analizę — użytkownicy znacznie rzadziej kwestionują rozumowanie modelu lub identyfikują brakujący kontekst. Im bardziej „profesjonalny" wygląda output, tym mniejsza czujność.
85,7% iteruje, ale mało kto weryfikuje. Im lepszy output, tym mniejsza czujność — to paradoks, z którym muszą zmierzyć się organizacje wdrażające AI.
Trzy poziomy fluency
Badacze zidentyfikowali trzy poziomy biegłości w pracy z AI:
- Podstawowy — użytkownik zadaje pytanie i akceptuje odpowiedź
- Iteracyjny — użytkownik dopracowuje, prosi o zmiany, buduje na wynikach
- Krytyczny — użytkownik weryfikuje, kwestionuje, identyfikuje luki
Większość użytkowników osiąga poziom 2, ale niewielu dociera do poziomu 3 — a to właśnie tam powstaje największa wartość.
Wnioski dla praktyków
Raport potwierdza to, co praktycy prompt engineeringu wiedzą intuicyjnie: samo używanie AI to za mało. Wartość powstaje w iteracji, weryfikacji i krytycznym podejściu do wyników. Warto świadomie budować nawyk sprawdzania — szczególnie wtedy, gdy odpowiedź AI wygląda „zbyt dobrze, żeby ją kwestionować".
AI Fluency Index ma być aktualizowany cyklicznie, tworząc bazę odniesienia do śledzenia, jak kompetencje współpracy z AI ewoluują w czasie.
