Podczas dorocznej konferencji IBM „Put AI to Work” zaprezentowano raport przygotowany przez grupę roboczą ds. AI przy Forum Technologii Bankowych Związku Banków Polskich.

Banki w Polsce a sztuczna inteligencja

– Zbudowaliśmy unikalny w skali Europy ekosystem współpracy, zarówno między bankami, jak i dostawcami technologii. AI Act był impulsem, by tę współpracę pogłębić i przetłumaczyć język prawa na język praktyki – podkreśliła Agnieszka Wachnicka, Wiceprezes Związku Banków Polskich.

Podczas debaty eksperci zwrócili uwagę na potrzebę nowego podejścia do klasyfikowania ryzyka. Zamiast etykietować technologie, na przykład duże modele językowe jako z definicji wysokiego ryzyka, należy skupić się na analizie konkretnych zastosowań w procesach bankowych. To otwiera drogę do wdrażania sztucznej inteligencji w sposób elastyczny i dostosowany do kontekstu.

– Nie wystarczy stwierdzić, że LLM to system wysokiego ryzyka. To prowadziłoby do sytuacji, w której żadna nowoczesna usługa nie mogłaby być dostępna dla klientów. Zamiast tego analizujemy funkcję: czy model wspiera decyzje kredytowe, czy jedynie odpowiada na ogólne pytania? – mówi Aleksandra Kaszuba, AI Governance squad leader, IBM NCCE Europe.

W praktyce oznacza to, że chatbot udzielający informacji o godzinach pracy oddziałów banku może być uznany za rozwiązanie niskiego ryzyka, podczas gdy ten sam model wspierający decyzje kredytowe musi podlegać znacznie bardziej rygorystycznym wymogom zgodności i wyjaśnialności.

Co z bezpieczeństwem systemów AI w bankowości?

Wdrażanie AI nie kończy się na wyborze technologii. Kluczowe staje się ciągłe monitorowanie działania systemów AI, walidacja wyników oraz zapewnienie ich odporności na zmieniające się dane. Jak podkreślił Sławomir Kumka, dyrektor laboratorium oprogramowania IBM w Krakowie, modele AI mogą z czasem tracić trafność, generować BIAS (uprzedzenia/stronniczość) lub być podatne na manipulacje.

Dyskusja na konferencji IBM porusza także istotny problem „prawa do bycia zapomnianym” w kontekście dużych modeli językowych. Ich zdolność do zapamiętywania danych, na których się uczyły, stawia pod znakiem zapytania realną możliwość usunięcia wiedzy z systemu.

Wniosek z raportu jest jasny: same technologie nie determinują ryzyka, bo decydują o nim konkretne sposoby użycia. To podejście pozwala sektorowi bankowemu zachować zdolność do wdrażania innowacji bez blokowania rozwoju usług cyfrowych.

Eksperci uznali również, że przyszłość AI w finansach zależy nie tylko od zgodności z przepisami, ale też od zaufania klientów i międzysektorowej współpracy. Użytkownicy oczekują przejrzystości, informacji o tym, że decyzje są wspierane przez AI, i że ich dane nie są wykorzystywane w sposób niejawny. Z kolei realne bezpieczeństwo procesów, np. w obszarze przeciwdziałania cyberoszustwom, wymaga wymiany danych między bankami, operatorami telekomunikacyjnymi czy administracją publiczną. Dane są dziś dobrem wspólnym. Jeśli nie nauczymy się ich bezpiecznie wymieniać, nie zbudujemy skutecznych systemów prewencji.

Autorzy raportu zastrzegają, że dokument nie jest zbiorem sztywnych rekomendacji. To punkt wyjścia do dalszej pracy, w której celem jest nie tylko zgodność z prawem, ale również budowanie nowego modelu odpowiedzialnego rozwoju technologii w sektorze bankowym.