W dobie rosnącego wpływu sztucznej inteligencji na każdy aspekt działalności gospodarczej, najwięksi gracze w branży audytorskiej zdają się podążać za modą - i to bez odpowiedniego nadzoru.
Brytyjska Rada Sprawozdawczości Finansowej (FRC) ostro skrytykowała sześć największych firm audytorskich w Wielkiej Brytanii za bezrefleksyjne, niekontrolowane i niewystandaryzowane wykorzystywanie narzędzi opartych na AI, w tym systemów generatywnych.
„Mylicie się, panowie” - FRC nie zostawia suchej nitki
W opublikowanym w czwartek raporcie, FRC jasno wskazuje: Deloitte, EY, KPMG, PwC, BDO i Forvis Mazars intensywnie wdrażają sztuczną inteligencję w procesy audytowe, ale nie śledzą, jak wpływa ona na jakość świadczonych usług. Zdaniem regulatora, mimo rosnącej roli AI w analizie ryzyka, pozyskiwaniu dowodów i przetwarzaniu dokumentów, firmy nie ustanowiły żadnych kluczowych wskaźników efektywności (KPI) dla narzędzi, które w coraz większym stopniu kształtują wyniki ich prac.
Co więcej, tylko jedna z sześciu firm podjęła próbę formalnego monitorowania wpływu AI na audyt – pozostali działają intuicyjnie, kierując się potrzebą efektywności, a nie precyzji.
AI – potężne narzędzie, ale niebezpieczne bez kontroli
Jak zaznaczono w raporcie, sztuczna inteligencja w audycie przynosi ogromne możliwości: KPMG UK wykorzystuje AI do analizowania milionów transakcji w poszukiwaniu sygnałów ostrzegawczych, Deloitte używa algorytmów do ekstrakcji kluczowych informacji z wielostronicowych, złożonych umów. Ale – jak podkreśla FRC – efektywność nie może zastępować dokładności.
Mark Babington, dyrektor ds. standardów regulacyjnych w FRC, ostrzega:
„AI to nie eksperyment – to już rzeczywistość audytu. Musimy wiedzieć, jakie niesie ryzyka, zanim staną się one problemem systemowym”.
Generatywna AI? Zbyt niepewna na audyt
Szczególny niepokój regulatora budzi rosnące wykorzystywanie generatywnej AI – systemów zdolnych do tworzenia tekstu, analizy dokumentów i formułowania wniosków. Choć brzmi to jak przyszłość zawodu, eksperci wskazują, że takie systemy często „halucynują”, prezentując nieprawdziwe dane jako fakty.
„Generatywna AI nie gwarantuje wierności rzeczywistości. A w audycie, gdzie każdy szczegół może mieć wpływ na miliardowe decyzje inwestorów, to nie do zaakceptowania” – mówi Anastasia Melnikova, dyrektor ds. bezpieczeństwa informacji w firmie SEQ.
Brak standardów – ryzyko dla klientów i inwestorów
FRC zwraca uwagę, że w środowisku, w którym decyzje podejmowane są na podstawie analiz AI, błąd systemowy może skutkować poważnymi stratami – zarówno finansowymi, jak i wizerunkowymi. Brak wewnętrznych norm, ocen ryzyka czy systemów audytu dla samej AI może sprawić, że błędne dane przejdą przez sito procedur bezkarnie – a odpowiedzialność spadnie na firmy i ich klientów.
Regulator wezwał firmy do:
-
opracowania formalnych standardów oceny skutków stosowania AI w audycie,
-
wdrożenia systemów monitorowania dokładności i ryzyka,
-
uwzględnienia wątków etycznych i prawnych w implementacji sztucznej inteligencji.
Audyt w czasach AI: zaufanie musi być zasłużone
Eksperci zgadzają się, że sztuczna inteligencja będzie w przyszłości nieodłącznym elementem pracy audytorów. Jednak – jak zaznacza Babington – musi to iść w parze z odpowiedzialnością i przejrzystością.
FRC daje jasno do zrozumienia: jeśli firmy nie zaczną traktować AI z należytą powagą, zaufanie do całej branży audytorskiej może zostać podważone.

Pokaż / Dodaj komentarze do: Ogromna wpadka Audytorów. Nawet nie sprawdzają wyników podanych przez AI